Chat GPT 4 e noi. Una mostra e un libro per una convivenza consapevole e sicura

Chat GPT , Generative Pretrained Transformer (che traduciamo letteralmente con Trasformatore preaddestrato generativo) è un software di intelligenza artificiale (IA) con algoritmi di machine learning (apprendimento automatico) addestrati da un’immane quantità di dati di testo è in grado, su richiesta (input) umana, di scrivere articoli, testi teatrali, poesie, codici informatici, correggere errori matematici, realizzare dipinti e tante altre cose.

La sua ultima versione, Chat GPT 4, oltre ad aver perfezionato e potenziato le capacità precedenti, fornisce immagini usufruibili anche per il pubblico non vedente. Secondo gli operatori del settore potrebbe essere già utilizzato nel servizio clienti, sapendo gestire domande comuni con risposte rapide e accurate.

Questa intelligenza artificiale, considerata, attualmente, la più potente disponibile, è stata creata da Open AI, organizzazione statunitense no profit (ma che vede Microsoft organizzare l’ambiente di addestramento di Chat GPT con ingenti investimenti) ed è open source, ossia accessibile a tutti.

Sempre più presente nelle nostre vite, “addestrata” a briglia sciolta, non essendo il suo sviluppo regolamentato da nessuna normativa (ma è prossima quella europea), porta molti a chiedersi cosa accadrebbe se l’IA divenisse autosufficiente. Fra i tanti la curatrice d’arte Audrey Kim, che ha fatto della sua distopica risposta una mostra temporanea a San Francisco, al 201 di Guerrero Street, a otto isolati dagli uffici di OpenAi.

La mostra

Titolo Misalignment Museum (Museo del Disallineamento), dispiegamento di opere d’arte e installazioni realizzate dall’intelligenza artificiale che mostrano, allegoricamente, un futuro dominato dagli algoritmi.

L’allestimento si sviluppa su 2 piani: nel primo si trova la visione ottimistica dove si ammira, tra l’altro, un gioco interattivo sulla Creazione di Adamo di Michelangelo. Al secondo piano, accolti dalla citazione dantesca Lasciate ogni speranza voi che entrate, si apre uno scenario paragonato all’Inferno della Divina Commedia.

Come ha spiegato Audrey Kim, l’ esposizione descrive “un mondo post-apocalittico in cui un’intelligenza artificiale generale, l’IAG, dopo aver distrutto la maggior parte dell’umanità e si è resa conto che è stato un male, quindi ha creato questo spazio come una sorta di memoriale per gli esseri umani”.

Un libro per sapere come funziona

La mostra tratta di un’intelligenza artificiale consapevole si sé. Esattamente quello che ad oggi l’IA non può essere perché il suo comportamento è frutto dell’analisi automatica di un’immane quantità di dati appresi su base statistica. Non agisce sulla logica e sul ragionamento formale.

Emula e genera comportamenti intelligenti ma non comprende ciò che fa, spiega Nello Cristianini, professore e ricercatore di Intelligenza Artificiale presso l’Università di Bristol (Regno Unito), nel suo libro, di recente pubblicazione per il Mulino, intitolato La scorciatoia.

Dopo aver provato il modello della logica e del ragionamento formale prosegue Cristianini, per raggiungere rapidamente l’obiettivo di avere macchine intelligenti si è trovato il modello del machine learning statistico di una massa di dati trovati sul web (i nostri compresi), la scorciatoia appunto.

I pericolosi rischi collaterali

Per questo le macchine sono diverse da noi e noi non “possiamo ragionare con loro” ma ci conviviamo sempre di più. Ampio il ricorso a ChatGPT da parte delle grandi aziende per “persuadere” a loro favore i consumatori. Affidate agli algoritmi delle istituzioni, istituti bancari, imprese di servizio molte delle decisioni che ci competono.

E così macchine “stupide” di elaborazione statistiche generatrici sempre più potenti,  potrebbero creare rischiosi effetti collaterali.

Alcuni già tangibili: le risposte sconclusionate ai nostri input – che gli esperti chiamano allucinazioni – quando anche noi, alla ricerca di scorciatoie, usiamo l’IA  per attività scolastiche e professionali; nello stesso modo può generare proliferazione di disinformazione; elaborando codici informatici – sempre sotto comando umano – essere responsabile di attacchi informatici e, lo accennavamo, può sostituire il lavoro umano.

La tecnologia non basta più

Ma arrivati a questo punto la tecnologia non basta più, avverte Cristianini, per creare una convivenza “sicura” con questa nuova forma d’intelligenza serve, come transito fondamentale, un “dialogo tra scienze naturali e umane”.

 

 

Immagini: 1) San Francisco,  mostra ‘Misalignment Museum’; 2) copertina del libro ‘La scorciatoia’  di Nello Cristianini, professore e ricercatore di Intelligenza Artificiale presso l’Università di Bristol (Regno Unito)

Potrebbero interessarti anche...

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.