Il Video
Intelligenza Artificiale: Sfide e Opportunità per il Futuro. Un’analisi con Guido Scorza, Componente del Collegio del Garante per la protezione dei dati personali at The Italian Data Protection Authority. Con David Romano e Antonio Galliano di W.Academy.
D: Vado subito a dare il bentornato al nostro Antonio Galliano di W Academy, ma soprattutto sono davvero molto contento di poter ospitare qui a Trend: Guido Scorza, componente del collegio garante per la protezione dei dati personali: The Italian data Protection Authority, Guido buongiorno e benvenuto a Radio Linea numero 1.
G: Buongiorno, grazie per l’invito.
D: Beh, proprio da ieri, con l’Unione Europea, siamo proprio collegati in tempo reale praticamente su quello che è il tema dell’intelligenza artificiale, della regolamentazione di quella che potrebbe essere la legge e soprattutto le sfide e le opportunità per il futuro. Ormai fa parte di noi.
A: Sì, con Guido, che ringrazio, vorrei provare ad avere il suo parere su tre aspetti a mio avviso interessanti sull’intelligenza artificiale, il primo riguarda i danni, cioè secondo te Guido quali sono le principali sfide legate ai danni possibili che un sistema di intelligenza artificiale può causare, ma soprattutto come si individua il responsabile del danno?
G: Io credo in realtà che la sfida più grande è e sarà (dobbiamo sempre di più abituarci a parlare al presente dell’intelligenza artificiale, è già con noi da un po’, anche se oggi se ne parla più di ieri, è nei nostri smartphone, nelle nostre case, nelle nostre macchine.) individuare il danno, cioè renderci conto di aver sofferto un danno da intelligenza artificiale, perché la più parte dei danni, la più parte dei pregiudizi rischia in qualche modo di essere invisibile, di essere trasparente, ci capiteranno cose, faremo cose, verranno adottate decisioni su di noi per colpa dell’intelligenza artificiale, naturalmente stiamo parlando di una faccia della medaglia, non ci dimentichiamo mai che c’è l’altra e cioè le grandi opportunità e i meriti dell’intelligenza artificiale e non sempre saremo in grado di ricondurre l’effetto alla causa e quindi di identificare nell’intelligenza artificiale il responsabile di quel danno. Ecco, questa è la sfida più grande che ci che ci attende, perché un numero crescente di abilità nell’universo pubblico e nell’universo medico e nell’universo privato, dalla diagnosi medica sino ad arrivare all’offerta commerciale che ci arriverà in un sito di e-commerce, la spesa che faremo, la notizia che leggeremo, tutto questo avrà un impatto inesorabile sulla nostra vita, spesso sarà un impatto positivo, talvolta sarà un impatto negativo, ma noi naturalmente saremo portati a ricondurre quell’effetto all’utilizzatore del sistema di intelligenza artificiale, alla fine probabilmente individuato il danno poi individuare il responsabile sarà più facile di quanto ci appaia oggi, perché naturalmente il corresponsabile non sarà mai un robot, ma sarà sempre la persona, l’azienda, la pubblica amministrazione che ha scelto di utilizzare un sistema di intelligenza artificiale a supporto della propria attività, quindi la scommessa vera è trovare il danno, poi il responsabile verrà di conseguenza.
A: Mi viene da riflettere rispetto alla risposta di Guido sull’affidabilità, Guido oltre al ruolo che ricopre che abbiamo dichiarato penso che è uno dei massimi Giuristi esperti in questo settore In Italia e non solo, ma in termini di affidabilità, Guido cioè al di là, o includendo, il tuo parere in merito all’utilizzo dell’intelligenza artificiale nel sistema giudiziario, potrebbe minare la fiducia dei cittadini nella giustizia questo utilizzo dell’intelligenza artificiale nel sistema giudiziario? Ma soprattutto, come si può rafforzare la fiducia in un contesto di innovazione tecnologica?
G: Ma io credo che il rischio più grande in realtà è che l’intelligenza artificiale applicata alla giustizia mini i diritti e le libertà e ci renda tutti quanti più più deboli davanti alla legge che dovrebbe viceversa essere la nostra migliore alleata semplicemente perché, naturalmente, se ci consegniamo ad un algoritmo, se consegnamo ad un algoritmo il potere e dovere di decidere al posto di un giudice, quell’algoritmo verosimilmente farà questo lavoro nel buio e nel chiuso dei server dei computer, dei sistemi attraverso i quali opera e quindi insomma diciamo il rischio vero è di una giustizia sempre più opaca e che, per carità, in molti casi proporrà la decisione migliore possibile, quella più obiettiva, ma in un numero di casi non meno rilevanti, perché sempre relativi a persone in carne d’ossa, come capita per le cose della giustizia, deciderà sulla base di quelli che normalmente oggi si chiamano bias algoritmici cioè cioè discriminazioni figlie della modalità di ragionamento dell’algoritmo o figlie dei dati sui quali quell’algoritmo è stato addestrato, quindi io non credo sia facile che è un cittadino, che già oggi è diffidente molto spesso, purtroppo, rispetto alla decisione assunta da un giudice, arrivi a fidarsi di una decisione assunta da una macchina e non auspico che però nessuno di noi debba trovarsi in quel contesto lì. Le macchine dovrebbero restare fuori dal pianeta della giustizia o al limite entrarci a supporto, ma a supporto per davvero, dell’attività umana e mai sostituire l’attività del giudice.
D: Guido ultime due domande per chiudere questa piacevole chiacchierata e mi auguro poi che ce ne siano altre, l’intelligenza artificiale sta cambiando il panorama della proprietà intellettuale? Cioè, noi a volte siamo fruitori di contenuti, di media che possono essere creati anche da intelligenza artificiale, quindi la proprietà intellettuale è a rischio? E poi, come ultimissima domanda, qual è il consiglio, in base proprio alla tua esperienza, che ti senti di dare ai cittadini comuni, a chi magari non ha mai ancora utilizzato l’intelligenza artificiale?
G: Allora la prima domanda è una domanda sulla quale costruire una lunghissima serie di puntate, ma abbiamo pochi secondi quindi la risposta è l’impatto dell’intelligenza artificiale sull’industria creativa tutta, sul sistema mediatico globale sarà enorme, è già enorme e oggi in particolare l’intelligenza artificiale di tipo generativo, per intenderci quella che ha chat GPT, sono strumenti e servizi tecnologici in grado di sostituire, anche se non in termini creativi, in termini generativi contenuti finora prodotti solo ed esclusivamente da umani con una serie interminabile di conseguenze che vanno da tirar via delle occasioni di lavoro e dello spazio per la creatività tutta retribuita, sino al tema della progressiva erosione nella linea di confine tra il vero e il falso, tra l’artificiale e l’autentico in particolare nell’universo della informazione. Quindi è una questione da attenzionare in maniera speciale; nessun dubbio che la creazione artificiale abbia tanto da offrire all’universo editoriale nell’ambito musicale, cinematografico e informativo ma anche qui come per la dimensione della giustizia l’importante è che si tratti di uno strumento nelle mani di chi oggi crea i contenuti e che non sostituisca l’uomo nella creazione, o forse meglio, generazione dei contenuti. Per quanto riguarda la domanda di chiusura, naturalmente, noi vivremo con gli algoritmi e questa è una certezza e quindi nulla si può fare per ritardare quello scenario, o per resistere a quello scenario, e forse non sarebbe nemmeno giusto. La nostra vita nel presente e nel futuro sarà con gli algoritmi di intelligenza artificiale. Oggi c’è un dato di fatto, stiamo investendo tutti enormemente di più nell’addestrare gli algoritmi a conoscere le persone rispetto a quanto non si stia investendo nell educare le persone a conoscere gli algoritmi e questo non va bene, noi dobbiamo conoscere, dobbiamo essere educati a vivere con gli algoritmi. Vivo a Roma, mi muovo in una città piena di traffico, uso spesso il monopattino elettrico, lo trovo straordinariamente utile, mi rende un romano atipico, che normalmente arriva puntuale, però lo uso dopo aver più o meno provato a capire come funziona quel monopattino in mano a qualcuno più giovane di me, a qualcuno che l’ha usato meno di me è mostruosamente pericoloso. Ecco, l’intelligenza artificiale è come il monopattino può essere straordinariamente utile, può diventare letale se non ne conosciamo almeno, a livello di base, rischi e potenzialità.
D: Grazie Guido per essere stato con noi, sicuramente torneremo a chiamarti, a contattarti perchè è un argomento caldo e riguarda sicuramente tutti noi, quindi ringraziamo Guido Scorza componente del collegio del garante per la protezione dei dati personali presso The Italian data Protection Authority. Noi invece, Antonio, ci ritroveremo la prossima settimana!