/media/post/dzqtg78/azzoni.png
Ferpi > News > Limiti epistemologici ed etici dell’intelligenza artificiale nelle relazioni pubbliche

Limiti epistemologici ed etici dell’intelligenza artificiale nelle relazioni pubbliche

27/05/2025

Biagio Oppi, Consigliere Nazionale*

Le riflessioni di Giampaolo Azzoni tra i limiti creativi della macchina e le necessità etiche della comunicazione responsabile

 

Presentiamo integralmente in italiano il discorso che il professor Giampaolo Azzoni, Prorettore Vicario dell’Università di Pavia e membro del comitato scientifico di FERPILab, ha preparato per il recente European Summit di Global Alliance.

 

Nell’attuale panorama digitale in rapida evoluzione, il ruolo dei professionisti della comunicazione è diventato sempre più complesso. L'intervento di Azzoni ci stimola a considerare le implicazioni etiche delle tecnologie emergenti – e in particolare dell'intelligenza artificiale – nel campo delle relazioni pubbliche e della comunicazione. Come sottolinea con incisività, la comunicazione responsabile richiede non solo competenze e creatività, ma anche una profonda comprensione dell'elemento umano e della necessità di un dialogo autentico. Le sue intuizioni sottolineano l'importanza cruciale di sostenere pratiche etiche in un'epoca in cui il confine tra contenuti generati da esseri umani e da macchine continua a sfumare.

 

L’intervento

Inizio con una domanda: “chi ha scritto queste righe?”.

Ogni professionista della comunicazione ha scritto per altri, cioè ha fatto il ghostwriter. Anche io ho scritto discorsi che altre persone hanno letto a loro nome. E anche io ho scritto testi che altre persone hanno firmato a loro nome. Quindi, in numerosi casi l’autore formale (colui che legge o firma) non è l’autore reale (colui che ha scritto).

Ma oggi cambia il senso della domanda “chi ha scritto queste righe?”.

Per la prima volta nella storia umana queste righe possono essere state scritte non da un essere umano, ma da un dispositivo informatico.

Il mio attuale mestiere è quello di professore universitario e ormai mi devo sempre chiedere se una tesi di laurea sia stata effettivamente scritta da uno studente o, invece, da una applicazione di intelligenza artificiale.

Il test di Turing è superato positivamente in sempre nuovi ambiti applicativi, cioè è sempre più difficile distinguere i risultati delle operazioni di intelligenza artificiale dalle operazioni analoghe di un agente umano.

 

L’intelligenza artificiale si candida a sostituire l’uomo nella produzione di testi, immagini, video e musiche. Il lavoro del comunicatore è già cambiato e ancora di più cambierà in futuro.

 

Sempre la tecnica ha sostituito il lavoro umano. L’antropologo tedesco Arnold Gehlen ritiene che la tecnica abbia la funzione di esonero (Entlastung): libera l’uomo dalle fatiche a cui sarebbe costretto se si basasse solo sulle sue forze naturali. Ma mentre in passato la tecnica ha sostituito il lavoro fisico dell’uomo ora vuole sostituire il lavoro intellettuale e quindi anche il lavoro dei comunicatori.

 

Credo però che questa pretesa della tecnica abbia almeno due importanti limiti.

Il primo limite è di carattere epistemologico, cioè ha a che fare con il tipo di conoscenza prodotto dall’intelligenza artificiale.

Le applicazioni di intelligenza artificiale lavorano attraverso la induzione, cioè utilizzando dati già esistenti per indurre previsioni, analisi, decisioni, ma anche per produrre testi, immagini, video o musiche.

Un problema riguarda ovviamente la qualità dei dati che, in molti casi, è scarsa.

Ma anche se i dati fossero tutti puliti e corretti, vi è un importante limite proprio nell’utilizzare il metodo induttivo.

 

L’induzione, infatti, si basa su dati del passato, magari su una quantità enorme di dati, ma comunque dati che sono relativi a quanto è già accaduto.

 

Il metodo creativo non è però basato sull’induzione, bensì sulla abduzione.

L’abduzione parte dai dati, ma va oltre i dati per produrre innovazione. Questo vale in tutti i campi dell’attività umana. Quindi, anche la comunicazione, quando è creativa, realmente innovativa, si basa sull’abduzione, e quindi non può venire realizzata da un dispositivo di intelligenza artificiale basato sul metodo induttivo.

Forse in futuro avremo un’intelligenza artificiale abduttiva, ma fino a quel giorno, la creatività non potrà essere sostituita da un algoritmo.

 

Il secondo limite che incontra l’intelligenza artificiale nelle relazioni pubbliche è di natura etica e riguarda il soggetto che comunica.

Chi è che comunica quando è l’algoritmo che “comunica”?

 

Credo che, dal punto di vista etico, ogni attività di comunicazione implichi un soggetto che comunica e, quando si tratta di temi significativi, la responsabilità della comunicazione non può essere delegata ad un dispositivo di intelligenza artificiale.

E ciò non per ragioni di tipo moralistico. Infatti, quando si tratta di temi significativi, la comunicazione non può prescindere da un dialogo autentico.

 

Proprio per la sua efficacia, la comunicazione, quando riguarda temi significativi, deve essere autentica, cioè deve provenire dal soggetto che comunica e deve essere riconosciuta come autentica da parte del soggetto con cui vi è il dialogo.

Ad esempio, una comunicazione di crisi o una comunicazione di un impegno strategico non possono essere delegate ad un algoritmo, ma richiedono il volto e la parola del comunicatore.

 

Dunque, per concludere, torno alla domanda che avevo posto all’inizio: “chi ha scritto queste righe?”.

 

Posso rispondere dicendo che se avessi ricercato creatività e autenticità, non sarebbe stato possibile utilizzare esclusivamente un dispositivo di intelligenza artificiale.

 


*con Delega ai Rapporti internazionali

Eventi