Quale impresa

L’EUROPA ALLA PROVA DELL’AI: REGOLE E INVESTIMENTI PER COMPETERE A LIVELLO GLOBALE

Abbiamo chiesto alla Professoressa Elisa Giomi, dal 2020 Componente dell’Autorità per le garanzie nelle comunicazioni, un  approfondimento sulle normative che regolano l’applicazione dell’AI.

D: AI Act, partiamo da qui. Perché era così importante fare questa legge, quali sono, a suo avviso, i principi maggiormente innovativi e che impatto potranno avere sugli sviluppi delle applicazioni basate su questa tecnologia?

R: L’AI non solo è una tecnologia che favorisce l’automazione in tutti i settori economici e industriali ma è anche uno strumento in grado di trovare soluzioni innovative che superano le capacità umane. Un esempio su tutti riguarda la realizzazione in tempi rapidissimi dei vaccini per il contrasto del Covid.

La riduzione di attività umane fisiche e gestionali o se vogliamo la delega di alcune funzioni umane a software e macchinari richiede in un certo senso una sorta di “controllo di qualità” sempre più puntuale, che riduca la probabilità di malfunzionamento. L’AI Act ha tentato di fornire una risposta proprio a questa problematica, mappando e classificando i livelli di rischio dell’intelligenza artificiale nelle attività produttive umane con il fine di gestirne meglio i possibili effetti collaterali negativi. L’AI Act pone delle regole unicamente nei casi in cui l’intelligenza artificiale rischi di generare criticità per la produzione e per i consumatori. Non vedo dunque un eccesso di regolazione, per rispondere a una preoccupazione abbastanza diffusa, né l’imposizione di limiti pregiudiziali allo sviluppo dell’AI. Anzi, l’aspetto innovativo della normativa sull’AI individua dettagliatamente le problematiche e associa ad esse misure correttive diverse e proporzionate. Questo approccio, di per sé forse scontato, non è stato seguito in modo così chiaro né nel Dma (Digital Market Act), né nel Dsa (Digital Services Act).

Più che un eccesso di regolazione, rilevo semmai il rischio di una sottovalutazione delle problematiche connesse alla manipolazione massiva degli utenti, come nei casi di utilizzo dei sistemi di raccomandazione e chatbot “corrotti”. Né è stato trattato in modo esplicito il tema della pericolosità delle strategie di manipolazione del pubblico e di disinformazione, fenomeni decisamente insidiosi per la tenuta democratica delle istituzioni. Questo sorprende, se pensiamo che tanto per i media tradizionali così come per le piattaforme online la diffusione di informazioni false o distorte, somministrate agli utenti con l’intento di perseguire finalità illecite, dannose e socialmente destabilizzanti, costituisce la principale fonte di allarme nonché oggetto di iniziative legislative europee.

 

D: Rispetto allo spirito di costante ricerca e innovazione degli Usa e ai modelli di industrializzazione estremi della Cina, l’Europa sembra essersi ritagliata un ruolo da regolatrice di materie complesse, come appunto nel caso dell’AI. Utile senza dubbio ma con qualche criticità sollevata da più parti rispetto al freno che questo approccio metterebbe alla competitività del vecchio continente. Qual è il suo punto di vista? Ci sono dossier specifici su cui l’elemento regolatorio a medio-lungo termine si è rilevato un vantaggio, soprattutto in Italia?

R: Dunque, partiamo dal presupposto che l’Europa presenta mediamente un bassissimo tasso di natalità di unicorni, ovvero di startup che raggiungono una valutazione di un miliardo di dollari.

Quanto alla AI, le realtà dei diversi paesi sono piuttosto diversificate. In alcuni, come il Regno Unito, gli investimenti sono rilevanti. In altri, come Francia, Germania, Svezia e Spagna invece la crescita è avvenuta più di recente. In Italia lo stanziamento di un miliardo per finanziare startup che sviluppano AI, di per sé importante, appare sotto una diversa luce se si pensa che un paese come gli Usa – fatte le dovute proporzioni – ha investito 40 miliardi di dollari

solo l’anno scorso. Complessivamente gli investimenti europei sono ancora bassi se comparati agli Usa, appunto, e alla Cina, ma questo non è ovviamente imputabile al regolamento europeo in materia, bensì a dinamiche economiche e industriali poco lungimiranti. Gli elevati investimenti di Israele e Corea del Sud evidenziano come realtà di dimensioni economiche non globali possano comunque sviluppare intelligenza artificiale in modo competitivo.

Personalmente credo che l’Europa abbia le carte in regola per competere con le imprese americane e cinesi. La volontà politica è chiara e c’è consapevolezza sull’importanza di disporre di intelligenze artificiali “native”. Attualmente, però, solo l’AI generativa vede investimenti in forte crescita, mentre a partire dal 2022 hanno subito una forte flessione sia gli investimenti privati sia le acquisizioni di imprese produttrici di intelligenza artificiale.

Se si vuole una crescita italiana ed europea in questo settore è importante che le imprese siano messe nelle condizioni di essere competitive sul mercato. Per fare questo c’è una sola strada: comprendere gli sbocchi reali dei mercati dell’AI, ricorrendo al contributo di tutti gli stakeholders, limitandone i conflitti di interesse e indirizzando le risorse di conseguenza.

 

D: Si parla molto di etica e AI e, in particolare, della grande quantità di stereotipi presenti nei dati utilizzati per addestrarle con il rischio di un peggioramento delle disuguaglianze e della disparità di genere. Quali precauzioni devono essere adottate per evitare che accada e, anzi, per utilizzare le AI come strumento utile a colmare i gap?

R: Mi pare utile ricordare che le stesse domande si ponevano solo pochi anni fa a proposito delle piattaforme algoritmiche basate sull’uso dei dati personali e sulla profilazione degli utenti. Come in quel caso, osservo che l’AI non è senziente o autodeterminata, non prende iniziative da sola. A determinarne l’applicazione in forme tali da riprodurre ‘bias’ e asimmetrie, anche di genere, o al contrario in forme capaci di produrre maggiore giustizia sociale e inclusività sono solo gli esseri umani. E da questo punto di vista, ragionando in maniera pragmatica, qualunque azienda che intenda costruire un legame solido con i propri clienti sa che utilizzare questa tecnologia in modo ‘unfair’ o per scopi addirittura illeciti o dannosi sul lungo termine danneggerà la sua reputazione. Ciò non significa che non esistano aziende poco sensibili ai temi della social equity, ma confido siano una minoranza, soprattutto in un mondo iperconnesso come quello attuale dove la reputazione migliora e peggiora repentinamente con la condivisione delle informazioni sulle piattaforme online.

Già ad oggi sono più numerose le evidenze di impieghi della AI per aumentare notevolmente la produttività che le notizie di un suo utilizzo per perseguire finalità illecite o pericolose. Sono sicura che la diffusione dell’AI, analogamente a quella delle piattaforme algoritmiche, ridurrà la marginalizzazione, le diseguaglianze e le discriminazioni, producendo benefici nell’ambito sanitario, nella prevenzione della disinformazione, nelle tutele sociali e nel contrasto della criminalità, solo per fare degli esempi. Certo, qualche essere umano continuerà a voler utilizzare l’AI per scopi illeciti ed è per questo che servono regolazione e attività di vigilanza forte, capace di dissuadere chi vede l’intelligenza artificiale come un’opportunità per infrangere più facilmente la legge. E sapete cosa sarà di grande aiuto nel potenziare questa attività di vigilanza? Proprio l’intelligenza artificiale.

 

D: AI e media, una convivenza difficile. Da una parte i rischi legati ai nuovi strumenti di manipolazione di immagini, video, foto e altre fonti, ormai facilmente accessibili a tutti, che rischiano di inondare sempre più l’ecosistema dell’informazione; dall’altra il conflitto tra editori e società di AI in merito al diritto d’autore e ai data set utilizzati per addestrare le macchine. Qual è il suo punto di vista su questi aspetti?

R: Strumenti capaci di manipolare a basso costo i video e le immagini esistono da anni, ben prima dell’arrivo dell’AI, generativa e non. Certo, l’AI può facilitare tali distorsioni ma non bisogna dimenticare che costituisce anche lo strumento più efficace per intercettarli, ad esempio è molto utilizzata nel fact-checking e debunking della mis-informazione e disinformazione.

Molto più complesso, invece, è il tema dell’apprendimento automatico dell’AI attraverso l’analisi massiva di dati riconducibili a prodotti coperti dal diritto d’autore. Un’applicazione estrema dei principi del copyright potrebbe limitare fortemente o addirittura precludere l’uso dei dati necessari all’addestramento delle AI. I legislatori dovrebbero porre particolare attenzione a un approccio che rischi di limitare lo sviluppo economico e industriale dell’intero sistema. Se ogni autore di opere di ingegno vietasse la semplice visione per apprendimento dei propri contenuti, le ripercussioni non sarebbero limitate ai soli produttori e utilizzatori di AI ma si estenderebbero, ad esempio, anche ai giornalisti stessi che non potrebbero utilizzare informazioni generate da AI per migliorare i contenuti e i format editoriali, per svolgere le attività di fact checking, ecc. con conseguenze negative sul pluralismo, sulla libertà di espressione e persino sulla libertà di stampa.

 

 

 

Elisa Giomi è Professoressa Associata in Sociologia dei processi culturali e comunicativi presso l’Università degli Studi Roma Tre – Dipartimento di Filosofia, Comunicazione e Spettacolo, dove insegna Sociologia della Comunicazione e dei Media; Forme del racconto televisivo; Comunicazione Pubblicitaria. Coordina il modulo Comunicazione e Media del Master in Studi e Politiche di Genere.

Insegna inoltre per il Cultural Leadership Research Master’s Degree Course attivato da Università Roma Tre e Università di Groningen.

È autrice di oltre 70 pubblicazioni per le principali case editrici italiane e internazionali e per riviste peer-reviewed italiane e straniere.

La sua ultima pubblicazione è “Male and Female Violence in Popular Media” (Bloomsbury 2022).

Ha coordinato progetti scientifici nazionali e internazionali finalizzati allo studio dei media e all’individuazione di buone pratiche di settore, per conto di vari enti e Istituzioni tra cui: Parlamento Europeo, EJC-European Journalism Centre, EIGE-European Institute for Gender Equality.

Ha coordinato progetti di analisi dei contenuti televisivi per conto di broadcaster italiani, tra cui il monitoraggio della rappresentazione della figura femminile nella programmazione Rai.

Ha collaborato ai lavori della “Commissione parlamentare di inchiesta sul femminicidio, nonché su ogni forma di violenza di genere” della XVIII Legislatura; è componente del board della Sezione “Studi di Genere” dell’AIS-Associazione Italiana di Sociologia e della rivista “AG. AboutGender. Rivista internazionale di Studi di Genere”.

È componente del Comitato Scientifico di AIRIA (Associazione per la Regolazione dell’Intelligenza Artificiale).

Con decreto del presidente della Repubblica è stata nominata il 15 settembre 2020 componente dell’Autorità per le Garanzie nelle Comunicazioni.