Gloria Galluzzi e Giuseppe de Lucia
Martina Colasante, Government affairs & Public Policy Manager di Google Italia, è oggi ospite di #FERPISideChat, per parlare di digitale, lobby e comunicazione.
Lavori in ambito lobby e public affairs da tanti anni – prima da consulente ed ora per un grande gruppo ICT. Come hai visto evolvere la nostra professione nel tempo ? Quali le sfide per i prossimi anni?
Negli anni - e con una notevole accelerazione durante il covid - il ruolo della tecnologia è cambiato notevolmente nel nostro lavoro. Innanzitutto, come focus di attenzione dei policy maker. Quando ho iniziato ad occuparmi di questi temi, l’esigenza era promuovere l’importanza del digitale e far sì che persone e imprese, con il supporto delle istituzioni, acquisissero le competenze essenziali per restare competitive in un mercato (anche del lavoro) in rapida evoluzione. Negli ultimi anni, invece, come noto, il digitale è stato al centro di numerose iniziative di regolamentazione, negli ambiti più vari: contenuti, competitività, cyber security, sicurezza dei minori, frodi e pirateria, privacy, difesa. L’auspicio è che - ormai stabilite le regole - si passi alla definizione di politiche che promuovano l’innovazione e permettano ad aziende italiane ed europee di competere sui mercati internazionali. Anche grazie alla tecnologia di Google, perché no. Entrando più nel merito del nostro lavoro, ho notato come in pochissimi anni, tecnologie - anche non troppo avanzate - hanno permesso di rendere l’attività istituzionale sempre più trasparente e la comunicazione con i policy maker più agevole. Siamo passati dall’analisi di faldoni cartacei degli emendamenti alla recente visita in Silicon Valley di una delegazione del comitato di vigilanza sull'attività di documentazione della Camera per approfondire le possibili applicazioni dell’AI all’attività legislativa e democratica.
Negli ultimi tempi hanno fatto capolino nel mercato software in grado di svolgere il monitoraggio e il drafting legislativo. L’ascolto di audizioni, la redazione di report ed emendamenti sono soltanto alcune delle attività oggi demandabili ad un’applicazione. In che modo questo cambierà o sta già cambiando il panorama della professione?
Penso che la tecnologia permetterà di risparmiare molto tempo sulle attività a basso valore aggiunto, per dedicare la nostra attenzione alla strategia, agli incontri, alla creatività. Non credo che significhi togliere opportunità alle figure più junior, ma migliorare la qualità della vita e del lavoro di tutte e tutti.
Internet rappresenta oggi il principale canale di condivisione e diffusione delle informazioni, al punto da influenzare persino il dibattito democratico su temi di elevato impatto economico, politico e sociale. Uno dei rischi è la diffusione di fake news. Il ruolo del provider è centrale nel contrasto a tale fenomeno. Quali possono essere le policy a contrasto di operazioni coordinate di disinformazione, che tengano conto del vigente quadro normativo di fronte ai rischi legati alla diffusione di notizie false su larga scala?
Negli ultimi anni abbiamo assistito ad attacchi cyber senza precedenti da parte di attori statali, in cui l’inquinamento del dibattito democratico e la disinformazione sono stati elementi chiave della strategia di aggressione. A fronte di momenti particolarmente delicati per le nostre democrazie, come elezioni, guerre e pandemie, il compito delle piattaforme digitali come Google è quello di dare evidenza all’informazione di qualità, privilegiando fonti ufficiali o istituzionali, ad esempio come il Ministero della Salute italiano a fronte di ricerche relative al covid. Per Google, che fa dell’accuratezza e dell’utilità delle informazioni che mette a disposizione la propria missione, gli sforzi non possono limitarsi ai momenti chiave per la democrazia ma sono quotidiani. Per esempio abbiamo sviluppato una funzione che permette alle persone che cercano notizie di ricevere informazioni sul contesto con un collegamento semplice ad altre fonti sulla stessa vicenda. Lavoriamo poi con istituzioni ed esperti per supportare l’informazione di qualità. In questo ambito, abbiamo recentemente annunciato un finanziamento di 2 milioni di euro a Fieg e Luiss Data Lab, per un progetto che utilizza il machine learning per supportare giornalisti e ricercatori nell’analisi dei contenuti. Infine, abbiamo aderito sin dal primo momento al Codice Europeo sulla disinformazione e, nel 2022, abbiamo contribuito alla stesura di una sua versione più efficace.
Anche l’attacco della Russia all’Ucraina ci ha messo di fronte a sfide estremamente complesse. Durante le prime due settimane di guerra abbiamo osservato un aumento significativo di campagne di phishing e spionaggio ai danni di utenti ucraini: tali attacchi provengono in via maggioritaria da organizzazioni di nazionalità russa e bielorussa ed erano dirette verso utenti ucraini e polacchi appartenenti ai mondi della politica, dei media e dell’esercito. Abbiamo dunque immediatamente esteso a tali soggetti e ad altri utenti a rischio il nostro “Advanced Protection Program”, un programma di protezione degli account Google con maglie di controllo e sicurezza ancor più strette. Allo stesso tempo parecchi siti ucraini, tra cui diversi siti di news, sono stati vittima di attacchi Ddos - “Distributed denial of Service”. Tali azioni sono condotte attraverso l’indirizzamento di enormi volumi di traffico finalizzati a sovraccaricare i server di un particolare sito internet con l’obiettivo di renderlo inutilizzabile, sostanzialmente “di metterlo offline”. A tutti i siti sotto attacco e ad alto rischio abbiamo offerto la nostra tecnologia Project Shield, un programma di protezione disegnato appositamente per questo tipo di attacchi. Project Shield permette a Google di assorbire tutto il traffico maligno degli attacchi e di prestarsi come “scudo” dei siti, difendendoli così dall’aggressione e permettendo loro di rimanere online. Ad oggi oltre 150 siti, tra cui diverse testate giornalistiche, stanno utilizzando il servizio.
Per quanto riguarda, infine, la disinformazione perpetrata da media connessi al regime russo, dall’1 al 10 marzo abbiamo prima bloccato i canali YouTube di Russia Today e Sputnik e, come predisposto dal Consiglio Europeo, abbiamo rimosso i due siti dai risultati di Google Search in tutta l’Unione Europea. Le due testate hanno ripetutamente violato le policy di Google che non permettono di negare, minimizzare o banalizzare eventi violenti ben documentati.
L’evoluzione degli strumenti di comunicazione digitale e, soprattutto, l’affermazione dei social network hanno aperto la strada ad una pervasiva proliferazione dei discorsi d’odio in rete. Al fine di ostacolare la propagazione delle opinioni discriminatorie e non rispettose della dignità umana ci chiediamo quale il ruolo e responsabilità degli intermediari informatici, stante il contributo che gli stessi apprestano alla diffusione e alla permanenza in rete dei contenuti digitali, ma, soprattutto, in quanto principali soggetti in grado di rimuovere materialmente i messaggi illeciti?
È necessario innanzitutto ricordare che si tratta di un tema molto complesso. Da un lato, le piattaforme come Google hanno il dovere di salvaguardare il diritto di ciascuno ad esprimersi liberamente, naturalmente entro il perimetro della legge; dall’altro, di preservare un ambiente digitale positivo, con contenuti di qualità, pertinenti, utili e sicuri. Non solo. Su piattaforme aperte e user generated come YouTube vengono caricate centinaia e centinaia di ore di video ogni minuto: una mole di contenuti enorme. In questo quadro complesso, il nostro approccio si basa su quattro azioni: le nostre policy vietano contenuti violenti, discriminatori e che promuovono l’odio. Vietano anche truffe, contenuti sessualmente espliciti e quelli pericolosi per i minori. Non possiamo impedire agli utenti di provare a caricare questi contenuti ma, se lo fanno, li rimuoviamo. Identifichiamo i contenuti potenzialmente illegittimi grazie alle segnalazioni della community, ad esperti dell’accademia e della società civile che chiamiamo Trusted Flagger e, soprattutto, grazie all’intelligenza artificiale, che ci permette di intercettare oltre il 99% dei video rimossi. Solo nel trimestre aprile - giugno 2023 abbiamo rimosso 7.365.556 di video a livello globale per violazione delle linee guida della community di YouTube. Un dato ancora più impressionante, conseguenza dello straordinario miglioramento del machine learning e dell'intelligenza artificiale negli ultimi anni, è che riusciamo a rimuovere più del 70 per cento dei contenuti che non dovrebbero stare sulla piattaforma prima che raggiunga le 10 visualizzazioni.
Purtroppo però la questione è ancora più complessa di così. Vi sono contenuti legittimi, che non violano le nostre linee guida, ma che possono avere un impatto sul benessere, sulla sensibilità o sull’esperienza di chi utilizza le nostre piattaforme. Lavoriamo per ridurre la visibilità di questi contenuti, pur non rimuovendoli. Come accennato prima, diamo invece visibilità alle fonti autorevoli: fonti istituzionali e testate registrate, soprattutto a fronte di ricerche relative a fatti di cronaca, attualità o di eventi particolarmente critici per la tenuta democratica. Infine, con il nostro programma di partnership di YouTube, sosteniamo i contenuti di qualità, remunerando i creator che rispettano le nostre linee guida e che negli anni hanno coltivato una community ampia, dimostrando cosi’ costanza, cura e apprezzamento da parte del pubblico.
Fortunatamente, esistono oggi delle norme europee che chiariscono i compiti delle piattaforme digitali riguardo alla moderazione dei contenuti. È stato molto gratificante osservare come il Digital Service Act abbia incorporato molte delle nostre pratiche di lungo corso, estendendole così a tutta l’industry.