L’intelligenza artificiale ha i nostri stessi pregiudizi

L'intelligenza artificiale ha i nostri stessi pregiudizi L’argomento del giorno, e non solo per gli esperti del mondo informatico, si chiama ChatGPT, la piattaforma di intelligenza artificiale (IA) che ad appena due mesi dal lancio già contava oltre 100 milioni di utenti

L’argomento del giorno, e non solo per gli esperti del mondo informatico, si chiama ChatGPT, la piattaforma di intelligenza artificiale (IA) che ad appena due mesi dal lancio già contava oltre 100 milioni di utenti.

Sviluppato da OpenAI, un’azienda specializzata del settore, il nuovo sito si candida a surclassare Google e gli altri motori di ricerca.

A differenza di questi, infatti, la sua interfaccia è meno fredda e impersonale.

«Presto sarà sempre più difficile capire se stiamo interagendo con una persona o con un computer», sostiene con validi argomenti Gianluigi Greco, presidente dell’associazione italiana per l’intelligenza artificiale.

La ragione dell’immediato successo risiede nei servizi che ChatGPT offre all’utente.

Oltre a condurre ricerche, in pochi secondi può redigere testi su argomenti a scelta, fare riassunti, risolvere problemi matematici, perfino scrivere poesie o lettere d’amore.

Lasciando da parte le innumerevoli applicazioni legate al lavoro (e alla scuola, che già si sente minacciata), ugualmente attraenti sono gli usi legati al tempo libero: ChatGPT dispensa suggerimenti per cucinare, curarsi, viaggiare e arredare la casa.

Lo dice lui stesso (?) a domanda diretta dell’intervistatore: «Il mio obiettivo è imitare la conversazione umana e rispondere alle domande degli utenti il più precisamente e naturalmente possibile. Inoltre, sono in grado di comprendere il significato delle frasi e di generare risposte appropriate in molti contesti diversi, come fare previsioni, fornire informazioni o semplicemente intrattenere una conversazione ».

Naturalmente il dibattito è aperto e, nonostante alcuni segnalino che siamo ancora nella fase iniziale, quella degli “innamorati acritici”, non mancano le voci che segnalano i limiti che questo tipo di tecnologia porta con sé.

È il caso di Alexander Filipovic, docente di etica sociale cristiana presso l’Università di Vienna. Il professore smonta alla radice l’idea che l’intelligenza artificiale, avvalendosi di grandi quantità di dati, possa generare risultati obiettivi. «Questa conoscenza – scrive lo studioso – è impregnata di interessi, strutture di potere e ideologie. Un’IA riprodurrà quindi sempre i pregiudizi che inevitabilmente esistono nel mondo reale in cui è addestrata e da cui apprende».

Una differenza fondamentale, inoltre, è l’assunzione di responsabilità: «Quando si tratta di politica, diritti, dignità umana, critica del potere, giustizia e vulnerabilità, abbiamo bisogno dell’intelligenza naturale delle persone responsabili, unita all’emozione e all’impegno».