Massimo Morelli ed Ezio Bertino*
Il concetto di liability gap, esplorato nel corso del convegno Il vuoto della legge, svoltosi l’11 dicembre 2025 all’Università di Torino su iniziativa di FERPI Piemonte e Valle d’Aosta e del Circolo Italo Scozzese di Filosofia della Mente, con il coinvolgimento di FERPILab.
Anno dopo anno (ma a volte anche giorno dopo giorno) i sistemi AI/robotici stanno conquistando sempre maggiori margini di autonomia operativa, sollevando la questione sempre più urgente di un loro corretto inquadramento etico-normativo. Non è una questione da poco, perché c’è un punto, nel rapporto tra intelligenza artificiale e società, in cui il problema smette di essere esclusivamente tecnico e diventa strutturalmente politico, etico e filosofico.
Di cosa parliamo quando parliamo di liability gap?
A Massimo Morelli, membro del Circolo Italo Scozzese di Filosofia della Mente e di FERPILab, è toccato il compito di srotolare la mappa del concetto di liability gap e delle sue implicazioni.
Innanzitutto, si parla di liability gap quando i sistemi AI/robotici creano danni che il diritto ordinario fatica ad attribuire e a risarcire. Sinora gli esempi più eclatanti sono emersi nell’ambito della guida autonoma, ma col progresso delle tecnologie i casi si stanno moltiplicando; si consideri ad esempio la vicenda del chatbot di Canada Air che si inventava modalità di erogazione dei biglietti inesistenti e inattuabili, con grave danno per i clienti coinvolti.
Il cosiddetto ‘liability gap’ non è tanto un difetto del diritto, quando piuttosto un sintomo culturale: segnala che stiamo usando categorie otto-novecentesche per governare sistemi che operano già nel XXI secolo. L’intelligenza artificiale non si limita più a eseguire istruzioni: apprende, si adatta, acquisisce competenze e capacità emergenti. E quando i comportamenti derivanti da tali capacità generano conseguenze dannose, le categorie classiche di colpa, intenzione, responsabilità, prevedibilità e controllo iniziano a perdere grip sulla realtà delle cose.
I quattro gap derivati
In realtà da questo vuoto di responsabilità ne scaturiscono altri che possiamo considerare delle derivazioni, degli importanti sotto-vuoti (perdonate il gioco di parole). Si parla ad esempio di epistemic gap per indicare la nostra ignoranza delle esatte modalità attraverso le quali questi sistemi di deep learning producono i loro output, di control gap per sottolineare il fatto per certi versi ovvio che quanto più cresce l’autonomia di questi sistemi tanto meno noi umani siamo in grado di controllarli efficacemente. Il vulnerability gap invece, che è forse il più importante di questi sotto-gap, si riferisce al fatto che mentre noi umani proviamo dolore, frustrazione e tutta una serie di emozioni morali come la colpa, la vergogna, il senso di responsabilità, eccetera, attualmente (in futuro chissà) i sistemi AI/robotici non provano nulla di tutto ciò, con un indubbio loro vantaggio in termini di efficacia ed efficienza funzionale. Questa disparità è peraltro uno dei motivi principali per cui molti di noi non amano i robot, li temono e se possibile se ne tengono alla larga. Fanno notoriamente eccezione i giapponesi, che per motivi cultural-religiosi tendono invece a vedere nelle tecnologie autonome dei preziosi alleati, come il celebre Astro-Boy dei cartoni animati. C’è infine il cosiddetto retribution gap, che origina dalla semplice considerazione che noi umani abbiamo un profondo, connaturato desiderio di giustizia, e se i danni provocati dai sistemi AI/robotici non vengono puniti, ciò ci infastidisce, ci turba e alla lunga può ingenerare un senso di sfiducia nelle istituzioni.
Cosa sono esattamente per noi i sistemi AI/robotici, qual è il loro status etico/ontologico?
Non è affatto semplice colmare il liability gap con tutti i suoi gap derivati, soprattutto perché per generare un quadro normativo confacente, i legislatori si trovano di fronte al problema di definire quale sia lo status etico/ontologico attribuibile ai sistemi AI/robotici con cui entriamo in relazione. Con chi o cosa abbiamo a che fare esattamente? Nel corso del dibattito i vari protagonisti hanno generato un ventaglio di possibilità che va dall’estremo del considerare i robot dei meri prodotti o addirittura ‘schiavi tecnologici’ (Joanna Bryson e altri), a quello opposto che attribuisce loro una personalità giuridica specifica (electronic personhood), come ha fatto l’Unione Europea nel 2017 con una risoluzione criticatissima e poi ritirata. Insomma, il dibattito è aperto, complesso e apparentemente ben lungi dal trovare il fatidico common ground cui tutti aspiriamo.
Vincenzo Manfredi: per gestire le rivoluzioni tecnologiche ripensiamo la responsabilità in termini di processo.
Il confronto torinese ha mostrato con chiarezza come il gap non sia semplicemente normativo, ma concettuale. E riguardo al modo stesso in cui pensiamo la responsabilità, Vincenzo Manfredi, Direttore Scientifico di FERPILab e dirigente Assoholding, ha richiamato la necessità di uno spostamento di prospettiva: «L’intelligenza artificiale ci costringe a ripensare la responsabilità come processo, non come evento isolato. La sfida è tenere insieme innovazione, controllo e fiducia». Una visione che intreccia riflessione scientifica, governance organizzativa e responsabilità manageriale.
Brando Benifei: l’Europa ha scelto di concentrarsi sulla responsabilità
Al tema della responsabilità nella gestione dell’innovazione tecnologica si è poi riferito il contributo di Brando Benifei, europarlamentare e relatore dell’AI Act, che ha spostato il dibattito in una prospettiva comparativa: «L’Europa ha scelto di governare l’intelligenza artificiale attraverso regole fondate sui diritti, sulla responsabilità e sul rischio. È una scelta diversa da quella di altri contesti globali, più orientati all’autoregolazione o alla sola spinta del mercato. La vera sfida ora è dimostrare che questo modello può essere efficace, applicabile e competitivo nel confronto internazionale». Il passaggio dalla norma alla pratica diventa così il vero banco di prova non solo della credibilità europea, ma della sua capacità di proporre un modello alternativo di governance tecnologica a livello globale.
Licia Soncini: concentriamoci sulla regolamentazione dei settori di applicazione
In questo scenario, il diritto non agisce mai da solo. È il prodotto di equilibri politici, processi decisionali, negoziazioni istituzionali e flussi di influenza legittima. Licia Soncini, lobbista professionista e profonda conoscitrice delle dinamiche di policy making e dei processi governativi nazionali ed europei, ha riportato il dibattito su questo livello spesso rimosso: «Quando l’azione è distribuita e l’esito imprevedibile, la responsabilità non può essere trattata solo come una questione giuridica. Serve capire come le decisioni pubbliche vengono costruite, negoziate e tradotte in regole operative».
Secondo Soncini, la tecnologia corre più veloce della consapevolezza, dell’etica e delle norme, prova ne è che non siamo ancora riusciti a trovare un consenso su cosa siano per noi questi sistemi AI/robotici dotati di autonomia. Finché non avremo deciso se considerarli dei meri prodotti tecnologici, oppure dei soggetti dotati di un qualche tipo di personalità giuridica, tutto quel che possiamo fare è concentrarci sul piano concreto, sulla regolamentazione dei diversi settori di applicazione. È ciò cui si dedicano alcuni parlamentari appartenenti a un po’ tutte le forze politiche italiane, spesso riuniti in intergruppi parlamentari come quelli incentrati sull’innovazione digitale e la space economy.
Marco Ciurcina: il vero problema è individuare le regole giuste
Avvocato ed esponente della Commissione Intelligenza Artificiale dell’Ordine degli Avvocati di Torino, Marco Ciurcina ha detto con chiarezza - e anche un certo gusto del paradosso - che a suo giudizio non esiste alcun vuoto normativo o ‘gap della responsabilità’: «Il problema non è l’assenza di norme, ma la loro capacità di reggere di fronte a sistemi che sfidano prevedibilità, controllo e nesso causale. Il vero cimento è quello di selezionare e armonizzare i dispositivi giuridici più idonei a gestire i nuovi scenari proposti dall’evoluzione tecnologica. Più che inventarsi nuove regole, bisogna individuare quelle giuste concentrandosi sugli obiettivi che si vogliono conseguire, primo fra tutti quello di evitare rischi sistemici».
Riccardo Fava: strumenti a disposizione delle aziende ancora tutti da esplorare
Il dibattito si è poi ancorato con forza alla realtà dell’impresa organizzata. Riccardo Fava, Presidente di OCIMP – Osservatorio della Comunicazione di Impresa di Confindustria e comunicatore d’impresa di lunga esperienza, ha portato un punto di vista concreto, calato nel quotidiano: «Nel lavoro del comunicatore d’impresa l’AI non è una teoria, è uno strumento che entra ogni giorno nei processi decisionali. Il tema non è se usarla, ma come farlo senza perdere responsabilità, discernimento e senso umano delle scelte». Le difficoltà e perplessità sono molte, le opportunità ancora di più. Un richiamo netto alla responsabilità del comunicatore aziendale come presidio culturale, prima ancora che reputazionale.
Fabio De Ponte: alla fine il vero problema si chiama ‘libero arbitrio’
Fabio De Ponte, giornalista Rai e divulgatore culturale attento in particolare alle tecnologie digitali, è uomo che ama andare al cuore delle cose. Per questo, egli sostiene che la vera partita sulla normazione dei sistemi AI/robotici si gioca su un terreno vecchio di molti secoli, quello del libero arbitrio. Citando Locke e Leibniz, Erasmo e Lutero, Marvin Minsky e Antonio Damasio, De Ponte si chiede: le macchine auto-organizzative potranno mai evolversi al punto tale da “far scomparire la mano del programmatore” e appalesarsi come creature capaci di libertà decisionale? Il problema è che per rispondere a un tale interrogativo bisognerebbe preventivamente rispondere alla stessa domanda in merito agli umani. Noi stessi, macchine biologiche convinte di possedere un’anima incorporea e immortale, siamo capaci di libero arbitrio o si scorge anche in noi la fatidica ‘mano del Programmatore’? Sono domande difficili, ma ineludibili.
Gaia Contu: i robot sociali nella cura degli anziani tra inganno e empatia
Accanto a questioni tipicamente giuridiche o filosofiche, è emersa con forza anche la dimensione psicologica legata ai temi della vulnerabilità e della cura. Gaia Contu, ricercatrice presso la Scuola Superiore Sant’Anna di Pisa proprio sui temi della robotica sociale, si è chiesta come sia possibile introdurre i sistemi AI/robotici nel caregiving degli anziani senza violare l’articolo V dell’AI Act europeo che vieta “l’introduzione sul mercato di sistemi AI che impieghino tecniche di persuasione subliminale a fini manipolatori o ingannevoli...”. Il dibattito su questo tema è complesso e polarizzato, ma Gaia Contu ritiene che debba prevalere un approccio centrato sullo user centered design in cui alla fine a decidere se i robot sociali siano ingannevoli o no, etici o no, sono proprio gli utenti finali (in questo caso gli anziani) attraverso un’attenta valutazione delle loro esperienze concrete.
Ezio Bertino: la responsabilità va assunta anche, se non soprattutto dai comunicatori.
In tutto questo, la comunicazione non è un elemento accessorio. È uno spazio decisivo di costruzione della responsabilità collettiva. Come ha sottolineato Ezio Bertino, Delegato FERPI Piemonte e Valle d’Aosta, «la comunicazione è uno dei luoghi in cui la responsabilità prende forma: rendere comprensibile la complessità è oggi un atto etico, non solo professionale». Raccontare l’AI come una forza impersonale o inevitabile significa contribuire a un vuoto simbolico che precede e accompagna quello giuridico.
L’urgenza del diritto
Come spesso accade i migliori convegni non offrono tanto delle risposte esaustive quanto una più chiara formulazione delle domande sul tappeto. È accaduto anche nel caso del Vuoto della Legge, vediamo di capire in che senso.
Tutti o quasi tutti siamo perfettamente consapevoli degli straordinari benefici che le odierne e future tecnologie AI/robotiche possono portare alle comunità umane. Molti di noi sono però altrettanto consapevoli dei rischi, sistemici e non, che queste stesse tecnologie possono ingenerare. Conosciamo bene questi angosciosi interrogativi...
Le tecnologie AI/robotiche creano dipendenza? Il loro utilizzo estensivo e prolungato può produrre gravi deficit cognitivi o fisiologici in soggetti che per un motivo o per l’altro possono essere definiti ‘deboli’?
L’adozione di queste tecnologie autonome è potenzialmente in grado di sollevare gli uomini da alcune delle loro proverbiali fatiche, ma ciò impone l’obbligo di ripensare il vecchio concetto puritano-borghese del ‘lavoro’ come origine primaria della dignità umana. Saremo in grado di farlo prima di aver ingenerato livelli insostenibili di diseguaglianza sociale e dato luogo a sommovimenti sociali cruenti?
I governi, sia autocratici che democratici, possono fare un uso di queste tecnologie che invece di incrementare il benessere dei cittadini in realtà lo riduce? Come nota acutamente l’avvocato Ciurcina, se pensiamo al motto della rivoluzione francese abbiamo fatto grandi passi nel campo della liberté e dell’egalité, ma non in quello della fraternité. La politica impiegherà questi nuovi strumenti per massimizzare la fraternité o al contrario per minimizzarla?
Considerando che la maggior parte di queste innovazioni tecnologiche non sono open source, ma proprietà di gigantesche corporation, tanto che alcuni pensatori parlano di ‘feudalesimo digitale’, quali sono i fini ultimi di queste organizzazioni, al di là del semplice profitto? Il ‘grande capitale’ si pone anche degli obiettivi politici e di controllo sociale? E in caso di risposta affermativa, quali sono esattamente?
Potremmo continuare, ma il punto è che oggi a molti se non a tutti questi interrogativi è difficile dare risposte tranquillizzanti, e allora emerge giocoforza la domanda fondamentale indagata nel convegno: come possiamo utilizzare i frame normativi esistenti o generarne di nuovi che contribuiscano efficacemente a limitare i rischi evidenziati dalle domande qui sopra? Di che diritto abbiamo bisogno per governare la rivoluzione AI/robotica minimizzandone gli effetti perniciosi?
Il carattere di urgenza di quest’ultima domanda è del tutto auto-evidente.
Il convegno di Torino è stato concepito con un’ambizione chiara: non come evento isolato, ma come primo tassello di una serie di confronti autorevoli e pragmatici, realmente utili al dibattito istituzionale, politico, filosofico, etico e tecnologico. Spazi di lavoro, non di mera esposizione, in cui la complessità non venga semplificata ma governata.
A conclusione dei lavori, Ezio Bertino, in qualità di Delegato FERPI Piemonte e Valle d’Aosta, ha richiamato il senso profondo dell’iniziativa: «Questo convegno non nasce per chiudere un tema, ma per aprire un percorso. Un percorso che deve continuare, perché il rapporto tra intelligenza artificiale e responsabilità non può essere affidato a risposte episodiche. Serve un confronto stabile, alto e pragmatico, capace di tenere insieme istituzioni, mondo produttivo, ricerca, diritto e comunicazione».
I ragazzi di UniFERPI
Le ragazze e i ragazzi di UniFERPI hanno dato una grossa mano per l’organizzazione del convegno, la cui buona riuscita si deve sicuramente anche a loro. A conclusione della loro esperienza, ecco le parole con cui hanno voluto chiudere il convegno: «Non stiamo chiedendo risposte semplici a problemi complessi. Stiamo chiedendo di poter partecipare a un pensiero adulto sul futuro, in cui tecnologia, diritto e responsabilità crescano insieme». Una dichiarazione che non chiede deleghe, ma spazio. Non scorciatoie, ma profondità.
Un grazie sentito
Il ringraziamento finale va all’Università di Torino, alla sua Magnifica Rettrice Cristina Prandi e al Professor Guido Boella, ordinario di Informatica e tra i massimi esperti di intelligenza artificiale in ambito accademico, per aver colto l’importanza e l’urgenza della proposta, ospitandola in uno dei luoghi migliori possibili per un confronto di questo livello. Non solo una cornice prestigiosa, ma un ambiente vivo di pensiero, dove istituzioni, ricerca e professioni hanno potuto incontrarsi sul terreno comune della responsabilità.
Se il vuoto della legge è una sfida, allora la risposta non può che essere collettiva.
*Massimo Morelli, componente del FERPILab, ed Ezio Bertino, Delegato Piemonte e Valle d’Aosta.