/media/post/btt5qgu/Benifei.jpeg
Ferpi > News > L'AI Act secondo Brando Benifei

L'AI Act secondo Brando Benifei

08/01/2024

Ezio Bertino e Massimo Morelli

Abbiamo chiesto all’Onorevole Brando Benifei, co-relatore dell’AI ACT dell’Unione Europea, la sua opinione in merito ad alcuni temi rilevanti per il presente e il futuro dell’Intelligenza Artificiale in Europa e nel mondo.

Brando Benifei è un politico italiano, membro del Partito Democratico. A livello nazionale viene eletto consigliere comunale a La Spezia nel 2017 e nominato capogruppo PD. Nel 2014 entra a far parte del Parlamento Europeo, diventando uno dei parlamentari più giovani, e viene poi rieletto nel 2019. Fa parte del gruppo dell'Alleanza Progressista di Socialisti e Democratici.

Durante il suo primo mandato, dal 2014 al 2019, Benifei ha lavorato nella Commissione per l’Occupazione e gli Affari Sociali, mentre nel 2019 è passato alla Commissione del Mercato Interno e della Protezione dei Consumatori. Nel 2020, è entrato a far parte della Commissione Speciale sull’Intelligenza Artificiale nell’Era Digitale. In questa veste è stato co-relatore del Parlamento, insieme a Dragos Tudorache, dell’ormai celebre AI Act, intorno al quale il Parlamento e il Consiglio dell’Unione Europea hanno raggiunto un accordo provvisorio il 9 dicembre 2023.

Dal 2021, fa parte della delegazione del Parlamento alla Conferenza sul Futuro dell’Europa. Inoltre, Benifei è inoltre membro di numerosi intergruppi del Parlamento Europeo, tra cui quelli sulla Lotta alla Povertà, sulla Digitalizzazione, sulla Lotta alla Corruzione e sulla Salute Mentale. Oltre alla politica, Benifei ha conseguito un dottorato in filosofia politica e si interessa di tecnologia, intelligenza artificiale, democrazia digitale.

Il dibattito contemporaneo sui sistemi di intelligenza artificiale è estremamente polarizzato tra coloro che sono certi l’intelligenza artificiale migliorerà moltissimo la qualità della vita umana e coloro che invece considerano l’AI una potenziale minaccia alla sopravvivenza della specie. Potremmo definirli utopisti e catastrofisti. Lei personalmente in questo spettro di opinioni dove si colloca?

L'IA potrà senz'altro migliorare la qualità della vita umana se sarà accessibile a tutti con una opportuna riduzione dei rischi, anche tramite legislazioni come quelle che noi abbiamo realizzato. Certamente è fondamentale un controllo democratico sugli sviluppi, in particolare dei sistemi più potenti, per evitare conseguenze impreviste, ma rimango dell'idea che, se opportunamente regolata, l'IA possa dare opportunità e contribuire a rendere migliore la nostra società. Ma dipende da noi.

Lei è uno dei principali autori dell’AI Act dell’Unione Europea. Uno degli obiettivi, se non il principale, dell’AI Act è quello di promuovere un corretto allineamento tra i sistemi AI e i valori fondamentali dell’etica umana. Tuttavia, vi sono molti possibili set di valori etici adottabili, l’etica non è una ma molte. Voi a quali set di principi etici vi siete ispirati?

L'AI Act ha certamente un contenuto etico evidente poiché si prefigge l'obiettivo di ridurre al minimo i rischi dei sistemi d'IA, scegliendo anche di vietarne alcuni usi, ad esempio l'uso delle telecamere a riconoscimento facciale in tempo reale, se non per pochissime eccezioni, o il riconoscimento emotivo nei luoghi di lavoro o di studio. Il Regolamento, dunque, persegue un'idea molto precisa, cioè che l'uso dell'IA dev'essere compatibile con la democrazia e i suoi valori e, dunque, è necessario porre l'essere umano al centro dello sviluppo dell'IA. Questa visione antropocentrica ha ovviamente molte implicazioni; va anche detto, però, che il Regolamento, essendo una legge e, dunque, non solo un codice etico, va oltre un mero approccio etico all'AI e determina diritti immediatamente esigibili da parte di cittadini, imprese e istituzioni.

Quale è stato il ruolo dei professionisti dei public affairs nel processo di generazione dell’AI Act?

Gli interessi in gioco per lo sviluppo di questa normazione erano moltissimi e, dunque, è stato fondamentale discutere con stakeholders molto variegati come imprese, associazioni di cittadini, istituzioni pubbliche e mondo accademico. Sicuramente il mondo dei professionisti dei public affairs è stato un importante intermediario per raccogliere idee e spunti che abbiamo sempre tenuto in considerazione per comprendere i diversi punti di vista sul tema per arrivare una migliore legislazione.

Al proposito, lei pensa che da ora in avanti realtà come la Global Alliance for Public Relations and Communication Management e le associazioni ad essa collegate, come la FERPI italiana, potranno essere utili e contribuire allo sviluppo, divulgazione, condivisione e applicazione del AI Act sui molteplici tavoli strategici e presso gli stakeholder internazionali e istituzionali, pubblici e privati?

La Global Alliance for Public Relations and Communication Management e le associazioni ad essa collegate, come la Ferpi italiana, potranno dare un contributo importante per far capire cosa abbiamo deciso e accompagnare ciò che noi vogliamo realizzare a partire dal primo giorno in cui il Regolamento sarà definitivamente approvato, ovvero un'adesione volontaria anticipata a queste norme, in modo che, anche prima che diventino pienamente obbligatorie, inizino ad essere gradualmente applicate. Per questo sarà fondamentale un supporto da parte di tutti i professionisti del settore, inclusi coloro che svolgono la vostra attività.

In tema di Intelligenza Artificiale lei riscontra una sufficiente comunità di intenti tra le varie nazioni dell’Unione Europea? 

Mi pare chiaro che l'intento di darci per primi al mondo una regolamentazione efficace abbia unito i Paesi dell'Unione europea, con alcuni distinguo, specialmente rispetto all'uso di questi sistemi per azioni di controllo sociale e di sicurezza pubblica e anche rispetto a quasi regole dare per i modelli più potenti. Al netto di queste divergenze, però, c'è certamente una forte unità d'intenti; vedremo se questa unità saprà essere sufficientemente forte anche per costruire una vera politica industriale dell'IA e una politica della formazione permanente, perché non bastano le regole, ma serve portare avanti molte altre azioni perché l'Europa sia capace di competere nel mondo su questo tema.

Persino Yann LeCun, uno dei creatori delle reti neurali convoluzionali e attuale responsabile della ricerca di Meta, sostiene che, nel momento stesso in cui sarà definito un vero e proprio standard per queste applicazioni, sarà assolutamente necessario che almeno i fondamenti di tale standard siano messi a disposizione della comunità. Secondo lui il vero problema non risiede nella pericolosità intrinseca delle applicazioni AI, ma nel fatto che queste non siano open ma proprietarie. Questo a suo dire è pericoloso. L’Unione Europea si sta attivamente adoperando per far sì che queste tecnologie diventino open? 

L'UE supporta l'apertura di queste tecnologie attraverso la richiesta di rendere trasparenti i modelli più potenti, come GPT o Gemini, che saranno sempre più alla base di applicazioni realizzate dentro l'UE: questo vale per i modelli americani ma anche per quei modelli che saranno sviluppati in Europa. L'altro aspetto da considerare è il tema dell'open source che noi abbiamo esentato del Regolamento per favorirne lo sviluppo e per favorire la ricerca, anch'essa esentata dal Regolamento. Allo stesso tempo, però, va ricordato che l'open source non può essere usato come "scappatoia" da parte dei grandi sviluppatori per non rispettare le regole; per questo abbiamo escluso dall'eccezione per l'open source quei prodotti per cui si decide la commercializzazione.

Nell’AI Act voi avete in buona sostanza proibito alcune pratiche relative all’identificazione biometrica, alla polizia predittiva, al social scoring e altro. In buona sostanza vi battete contro il dilagare della cosiddetta ‘società della sorveglianza’ (Zuboff). In realtà però alcune di queste pratiche sono già in essere grazie ai dati raccolti nel web e nei social media da multinazionali private, tanto che qualcuno parla di ‘feudalesimo digitale’. Al di là del GDPR cosa sta facendo l’Unione Europea per ovviare a questo stato di cose già molto critico?

Sicuramente è stata una scelta lungimirante quella di individuare dei divieti che riguardano non solo l'attività nel mondo reale, ma anche, ad esempio, il cosiddetto "scraping" di immagini facciali sul web. Il rischio di una società della sorveglianza esiste e, perciò, dobbiamo essere molto attenti. A tal proposito sarà anche importante l'interazione con le nuove normazioni sui dati che l'UE sta completando, oltre che il pieno rispetto del GDPR.

Si sente ripetere in continuazione che le applicazioni AI saranno presto in grado di sostituire molte mansioni attualmente svolte da umani, togliendo a questi ultimi il loro lavoro e quindi la loro fonte di sostentamento. Ma non le sembra che queste argomentazioni siano mal poste, e che qui in gioco non vi sia tanto il tema di chi svolgerà o non svolgerà una determinata funzione sociale (lavoro), quanto piuttosto il modo in cui vengono distribuite le risorse disponibili? Di per se stesse le AI minacciano direttamente la capacità di autosostentamento di larghe fasce della popolazione oppure la nostra vecchia etica puritano-borghese del lavoro? In altre parole, che ne sarà dell’attuale modello capitalistico di allocazione delle risorse economiche?

Certamente la sfida posta dall'IA al nostro modello di sviluppo è enorme, ma credo che, come accaduto già in passato con cambiamenti tecnologici importanti, il modello di sviluppo saprà adattarsi e sarà fondamentale che la politica accompagni con molta cura questi cambiamenti. Io credo che il modello di allocazioni delle risorse economiche dovrà necessariamente cambiare, valorizzando le trasformazioni che l'IA saprà realizzare nelle catene del valore economico.

Molti temono che le applicazioni AI possano determinare una forte dinamica di sperequazione sociale. Nell’agone competitivo saranno favorite le aziende che possiedono le base dati più ricche, precise e sofisticate, mentre quelle più piccole dovranno comprare le base-dati da fonti terze o ‘accontentarsi’. È un fenomeno già evidente, per esempio, negli studi legali. Lei che ne pensa? L’AI Act servirà a contrastare questa dinamica?

L'AI Act ha tra gli obiettivi proprio quello di contrastare l'accumulo di potere al vertice della catena del valore e, dunque, richiede un rispetto delle regole a partire dagli sviluppatori più in alto nella catena delle responsabilità. Per tale motivo gli obblighi di trasparenza (sul funzionamento dei modelli, sui general porpuse AI, sui dati utilizzati nell'addestramento, sulle caratteristiche tecniche) sono uno strumento di controllo da parte delle realtà economiche più piccole che, altrimenti, dovrebbero accontentarsi. Credo che l'AI Act darà molti strumenti per contrastare questo fenomeno: ovviamente sarà molto importante il suo enforcement affinché questi obblighi non rimangano solo sulla carta.

La docente di Etica e AI all’Università di Berlino, Joanna Bryson, sostiene che sta emergendo un gigantesco problema legislativo: secondo Bryson la morale e la legge che ne deriva si applicano solo tra pari (peers), solo tra agenti morali che operano allo stesso livello. ma le macchine, i sistemi AI sono degli artefatti realizzati da umani e proprietà di società umane, e in quanto tali non possono essere considerati agenti morali responsabili delle proprie azioni. Con essi non può esservi una relazione tra pari e quindi per essi non valgono né la morale né la legge umana. Sono semplicemente fuori del raggio di azione delle nostre istituzioni, e questo è naturalmente molto pericoloso. In sostanza abbiamo a che fare con entità sempre più sofisticate e quindi potenti, per le quali non possediamo un quadro normativo di riferimento. Lei che ne pensa, sono eccessive le preoccupazioni della Bryson?

Il tema della responsabilità dell'IA è molto complesso e, dunque, molte preoccupazioni di Joanna Bryson mi paiono fondate. Ancora non abbiamo risposte così efficaci a questo problema e ci si sta lavorando tramite approssimazione. Certamente è necessario responsabilizzare gli sviluppatori e "inchiodarli" di fronte alla necessità di, per lo meno, prevedere l'imprevedibilità, spiegando i livelli di imprevedibilità del modello che è stato sviluppato. Insomma, la riduzione dei rischi concreti deve comunque essere in capo a chi ha creato questi sistemi.

Secondo lei, una volta che i sistemi AI avranno raggiunto livelli di sofisticazione simili a quelli prefigurati da alcune pellicole cinematografiche come Blade Runner o Artificial Intelligence, queste macchine che pensano e provano emozioni dovranno avere diritti e doveri uguali a quelli degli esseri umani oppure no? Il filosofo Gunkel, autore di Robots Rights, sostiene decisamente di sì. Qual è la sua opinione in merito?

Non mi sento di esprimere un'opinione su questo tema poiché credo che sia difficile oggi capire come esattamente potrebbero evolvere e quanto potrebbero essere simili a noi eventuali realtà di "IA generale". La risposta potrebbe, dunque, essere formulata avendo maggiore cognizione della reale traiettoria di questa evoluzione.

 

Eventi