Cesena
stampa

INTERVISTA

Intelligenza artificiale, Sirotti Gaudenzi: "Gli uomini rischiano di diventare strumenti dei loro stessi strumenti"

Il punto etico e giuridico dell'esperto cesenate su un tema di stretta attualità

Andrea Sirotti Gaudenzi

Intelligenza artificiale o ignoranza materiale, questo il dilemma. Nelle scorse settimane a Cesena si è svolto un convegno, organizzato dall’Ordine dei Giornalisti dell’Emilia Romagna, sul tema: “Le interazioni tra intelligenza artificiale e giornalismo. Genesi, strumenti pratici e rischi deontologici”. Fra i relatori vi era anche l’avvocato cesenate Andrea Sirotti Gaudenzi, che è anche docente universitario e da anni si occupa dell’argomento. Gli abbiamo chiesto un approfondimento su questi temi.

Oggi tutti ne parlano. Ma l’intelligenza artificiale (IA), attualmente, è più una moda o qualcosa di rivoluzionario?

Ovviamente, tutti ne parlano perché è una moda. E sembra quasi che ogni sviluppo (positivo o negativo) dell’umanità sia da ricondurre all’intelligenza artificiale. Ma, oltre a essere una moda, l’IA fa parte della nostra vita e la utilizziamo ogni giorno nei sistemi informatici con cui ci confrontiamo. A ogni modo, percepiamo la “rivoluzione” da poco tempo grazie all’affermazione del deep learning, l’ultimo “livello” della tecnologia. Eppure, i sistemi di IA sono tra noi da tanti anni. Leibniz, inventando la prima calcolatrice capace di eseguire le quattro operazioni matematiche, realizzò una macchina rivoluzionaria, che si presentò come la base dei moderni calcolatori. Gli studi sull’intelligenza artificiale propriamente detta si devono a ricerche datate. Basti ricordare che negli Anni Cinquanta del secolo scorso Alan Turing provocatoriamente si chiedeva: «Can machines think?» Le macchine possono pensare? Alan Turing, in sintesi, stava ponendo la «domanda delle domande» all’umanità intera, chiamata a interrogarsi sul proprio ruolo prima ancora che sulla presenza di diverse intelligenze, “aliene” rispetto a quella umana.

L’IA sostituirà l’uomo in molti lavori?

Non c’è dubbio. Il rischio esiste e penso che questo aspetto sia uno dei più delicati. Non sono dell’idea che l’intelligenza artificiale rappresenti qualcosa di necessariamente negativo, ma bisogna riconoscere che i sistemi evoluti sono oggi in grado di sostituirsi all’uomo, comprimendo gli spazi di lavoro per le persone, in una fase in cui il tema del lavoro è centrale.

A livello giuridico, attualmente come è disciplinata in Italia e in Europa la IA?

Da pochi giorni è stato pubblicato nella Gazzetta ufficiale il regolamento dell’Unione europea dedicato alla materia. Il regolamento ha un approccio legato al rischio. Quindi, a seconda della classificazione dei singoli sistemi di IA sono previsti adempimenti specifici. Inoltre, il 17 maggio di quest’anno è stata adottata la «Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto», che può essere considerata come il primo trattato internazionale dedicato all’intelligenza artificiale. La funzione principale della Convenzione è quella di rafforzare la visione “antropocentrica” dell’IA, in modo tale da consentirne lo sviluppo senza compromettere i diritti fondamentali e i principi democratici. In Italia stiamo attendendo una disciplina specifica, a seguito dell’intervento del Governo. Ho avuto modo di analizzare lo schema del disegno di legge nazionale e devo dire che sono piacevolmente colpito da alcuni passaggi, tra cui quello legato alla necessità di far capire all’utenza quando i contenuti presentati dai media sono frutto di IA. Inoltre, verranno probabilmente introdotte varie modifiche al sistema penale, per colpire la criminalità informatica che sfrutta l’IA.

Teme di più l’IA o l’ignoranza materiale?

Temo l’ignoranza in genere. Soprattutto, temo che lo strumento possa trasformarsi in un mezzo per ridurre capacità critiche e ricerca. Mi spiego meglio. Se gli algoritmi di raccomandazione - da strumenti di ausilio per gli utenti della rete - sono divenuti mezzi capaci di contribuire al successo delle piattaforme online, è evidente che l’interazione uomo/macchina ha assunto connotati sorprendenti e, forse, paradossali. Stiamo probabilmente assistendo all’affermazione di un rinnovato modello di «sindrome di Stoccolma», quel fenomeno in cui la vittima si lega a tal punto al sequestratore da nutrire sentimenti positivi nei confronti di quest’ultimo, addirittura sottomettendosi ai propositi del potenziale carnefice. Questo stato di empatia, che nasconde una dipendenza psicologica (e apparentemente affettiva), è oramai diffuso in chi utilizza con soddisfazione strumenti informatici nei quali gli algoritmi sono in grado di accompagnare ogni percorso e ogni scelta. Questa situazione, in un certo senso, tradisce il senso stesso della tecnologia. Infatti, ogni tecnologia, anche quella riferita all’intelligenza artificiale, è nata per essere “neutrale” e per non schierarsi a favore di alcuno. In sé, l’IA non è buona, né tantomeno cattiva. Inutile dividersi nelle diatribe infinite tra apocalittici e integrati, per richiamare il titolo di un celebre saggio di Umberto Eco dato alle stampe nel 1964. Bisogna sfruttare la tecnologia e servirsene, non esserne servi. E, per parafrasare Henry David Thoreau, il rischio oggi è che gli uomini diventino gli strumenti dei loro stessi strumenti: un paradosso inquietante.

***

Andrea Sirotti Gaudenzi ha scritto testi sul tema del diritto dell’informatica e ha dedicato l’ultima edizione del suo manuale dedicato al diritto d’autore agli sviluppi dell’intelligenza artificiale. Oltre vent’anni fa è stato tra i promotori e i docenti del Master in diritto della rete Internet nell’Università di Padova. Alla materia ha dedicato il primo Trattato in lingua italiana nel 2000. Insegna in vari atenei ed è tra i docenti del Master in Informatica giuridica dell’Università La Sapienza di Roma. Di recente è stato nominato Senatore Accademico Onorario dell'Accademia Universitaria di Studi Giuridici Europei di Roma e membro del Comitato scientifico del Dipartimento Interuniversitario di "Criminologia Clinica, Vittimologia e Psicopatologia Forense" del Consorzio Universitario Humanitas (che ha tra i suoi associati, tra gli altri, l’Università Cattolica del Sacro Cuore, l’Università San Raffaele, la Pontificia Facoltà Teologica dell’Italia Meridionale), proprio per i suoi studi sugli illeciti commessi tramite l’IA e le nuove tecnologie.

Creative Commons - attribuzione - condividi allo stesso modo
Intelligenza artificiale, Sirotti Gaudenzi: "Gli uomini rischiano di diventare strumenti dei loro stessi strumenti"
  • Attualmente 0 su 5 Stelle.
  • 1
  • 2
  • 3
  • 4
  • 5
Votazione: 0/5 (0 somma dei voti)

Grazie per il tuo voto!

Hai già votato per questa pagina, puoi votarla solo una volta!

Il tuo voto è cambiato, grazie mille!

Log in o crea un account per votare questa pagina.

Non sei abilitato all'invio del commento.

Effettua il Login per poter inviare un commento