/media/post/edugabs/ai-generativa.jpg
Ferpi > News > Le tre leggi (in progress) dell’IA generativa

Le tre leggi (in progress) dell’IA generativa

31/05/2023

Giovanni Landolfi

Una riflessione del gruppo di lavoro FERPI “IA - A human resource” con l’individuazione di due percorsi.

Bene regolamentare l’intelligenza artificiale (IA), ma da dove si comincia? All’interno del gruppo di lavoro FERPI “IA - A human resource”, abbiamo provato a confrontarci su questa domanda, ipotizzando due percorsi. Uno più strutturato e istituzionale, che potrebbe portare a definire un codice di condotta FERPI sull’IA, che prenda spunto da quanto già elaborato a livello internazionale (vedi codici del Cipr - Chartered Institute of Public Relations o del PR Council) e di competenza del Cda dell’associazione, e uno più legato all’attualità del dibattito in corso, che abbia l’obiettivo di sollecitare la riflessione dei soci e, possibilmente, estenderla agli altri attori del mercato della comunicazione. Il secondo percorso inizia con la riflessione che segue.

Da Asimov a ChatGpt

Esiste già una regolamentazione di lampante semplicità e chiarezza per le macchine capaci di sostituirsi all’uomo: sono le tre leggi della robotica ideate da Isaac Asimov, che oltre a essere stato un prolifico autore di fantascienza era anche uno scienziato e un divulgatore scientifico e fu tra i primi a porsi la questione dei limiti etici della tecnologia. Perché non provare a usare quelle leggi per ragionare su come affrontare l’IA, e in particolare l’IA generativa di ChatGpt, Bard e simili, e con quali priorità?

Ricordo qui le tre leggi della robotica di Asimov:

1. Un robot non può nuocere a un essere umano o, per inazione, permettere che un essere umano subisca un danno. Possiamo definirlo principio di massima priorità: per i robot la massima priorità è garantire la sicurezza dell’uomo.

2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini contraddicano la Prima Legge. Possiamo definirlo principio di subordinazione.

3. Un robot deve proteggere la propria esistenza, a meno che ciò contraddica la Prima o la Seconda Legge. Che è un principio di autoconservazione.

Applicare le leggi della robotica all’IA

Sono principi che sembrano lontani dalle problematiche dell’IA, però indicano una possibile strategia di analisi, che a sua volta apre una serie di questioni ulteriori che possono aiutarci a riflettere in quanto comunicatori, quindi professionisti che stanno al centro di qualunque processo di interazione umana.

Il primo principio, per esempio, ci impone di individuare il massimo valore da proteggere. Quindi il primo passo è chiedersi qual è questo valore. È ancora la sicurezza dell’uomo? Per i robot andava scongiurato il rischio di attentato alla nostra vita: come si traduce questo per un’IA immateriale che non sembra poter minacciare la nostra esistenza? Il rischio maggiore può essere una minaccia alla nostra reputazione? Al nostro patrimonio di risorse personali (denaro, dati, relazioni, reputazione)? Alla nostra libertà (vedi rischi di discriminazione, autonomia di scelta, possibilità di far valere le nostre prerogative quando ci ritenessimo danneggiati da processi automatizzati, …)? Che altro?

Il secondo principio parla di subordinazione della macchina all’uomo, che è un valore importante, ma come possiamo traslarlo sull’IA? Possiamo immaginare delle garanzie che ci consentano di non essere manipolati dall’IA? Quali possono essere? E come facciamo a ottenerle, dato che le informazioni su cui l’IA dei chatbot si alimenta non hanno subito alcun pre-trattamento che possa garantirne per esempio la correttezza o la non ambiguità oppure la capacità di corrispondere a possibili filtri inseriti ex post (per esempio sul fatto che le informazioni siano state raccolte in maniera legittima o rispettando i diritti degli autori)?

Il terzo principio è più lontano dal contesto dell’IA generativa, dato che quest’ultima non ha consistenza fisica e non ha autonomia, perché richiede sempre il nostro input, anche nel caso di autoGgpt. L’IA è un processo, più che un prodotto-servizio. Però non è inutile porsi una questione di tutela dell’efficacia del servizio, che perderebbe tutto il suo valore – sia per chi lo gestisce sia per gli utenti – se venisse gravemente inquinato da contenuti fake, per esempio.

Proviamo a dare delle risposte a queste domande?

Chi vuole partecipare al dibattito può inviarmi le sue riflessioni: scrivetemi a landolfi@stampafinanziaria.it che poi le riporterò al gruppo di lavoro.

 

Eventi