Roboetica. Persone, macchine e salute

“Non c’è motivo di avere paura dell’intelligenza artificiale” dice Hiroshi Ishiguro, docente e scienziato giapponese nel dipartimento d’intelligenza artificiale dell’Università di Osaka e ideatore di Geminoid, il robot che ha le sue stesse fattezze.

Lo scienziato giapponese ha partecipato al workshop Roboetica. Persone, macchine e salute, che si è svolto nell’ambito dell’Assemblea generale 2019 delle Pontificia Accademia per la Vita (Pav), a Roma il 25 e 26 febbraio 2019.

Rispondendo alla domanda chiave, posta dall’agenzia Sir, se l’intelligenza artificiale possa in futuro prendere il sopravvento su quella umana, Ishiguro ha scongiurato ogni timore, perché, ha spiegato “un androide può mimare un’emozione semplice come il dolore, ma non sappiamo ancora nulla per quel che riguarda le emozioni più profonde. Forse se ne saprà tra un centinaio di anni”. È importante, però, stabilire da subito “un’etica per i robot così come abbiamo bisogno di un’etica per gli umani”.

Oggi, continua lo scienziato giapponese “attraverso gli androidi possiamo capire la differenza tra umani e robot e questo aiuta a comprendere meglio noi stessi e la nostra natura”.  Ishiguro immagina che in un futuro lontano  la società sarà composta da uomini e umanoidi.  Intanto ha creato Geminoid “una copia di me stesso”, da mandare nelle conferenze controllato da remoto, con un microfono e una telecamera “per parlare al posto mio”.

In Vaticano, invece, Ishiguro è venuto di persona perché “in Italia vengo sempre volentieri e perché mi interessa il parere della Chiesa sullo sviluppo e sul futuro della robotica”. Anche l’Honda, per inciso, prima di iniziare a sviluppare ASIMO (il robot androide creato per essere un assistente mobile multifunzione) chiese il parere del Vaticano che fu positivo.

Ora è la Pontificia Accademia a porsi le domande fondamentali “sulle implicazioni etiche e antropologiche” dello sviluppo della robotica e dell’intelligenza artificiale “per proporre criteri di valutazione che coinvolgono la dimensione globale della tematica”.

E si torna, così, alla necessità di costruire un’etica e “dei sistemi di governance per l’intelligenza artificiale come ha rilanciato Christiane Woopen docente di etica della medicina all’Università di Colonia e presidente dell’Ege (European Ethics in Science and New Technologies), intervenuta nella terza e ultima sessione del workshop. “In passato abbiamo commesso molti errori – ha rimarcato Woopen – e ora dobbiamo affrontare i problemi per utilizzare al meglio l’enorme potere delle moderne tecnologie, evitando al tempo stesso i rischi e mitigando gli aspetti negativi”.

“Medicina personalizzata, maggiore autonomia e sicurezza del paziente, sistemi più efficaci di prevenzione sono obiettivi raggiungibili – ha proseguito la professoressa Woopen – ma possono scontrarsi con problemi di sostenibilità finanziaria, macchine in sostituzione di medici e infermieri, violazioni della privacy del paziente e della protezione dei dati”.  La dignità della persona deve rimanere al centro del sistema sanitario e non può essere minacciata da un algoritmo, aggiunge Christiane Woopen, come quello sperimentato negli Usa che predice quanto potrà sopravvivere un paziente ricoverato in ospedale.  Ed è altrettanto importante che sia difesa l’autonomia del malato, che sia messo in grado di dare un consenso effettivamente informato.

Come non citare, allora, Isaac Asimov (1920-1992) biochimico, grande scrittore di fantascienza e seguitissimo divulgatore di argomenti scientifici che già negli anni Quaranta  aveva fissato un insieme di leggi che dovevano governare il rapporto uomo – macchina intelligente, i cui principi fondamentali sono racchiusi nelle famose Tre leggi della robotica che affermano:
1.   Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Oltre Hiroshi Ishiguro e Christiane Woopen , sono intervenuti ai lavori Roberto Cingolani, direttore scientifico dell’Istituto italiano di tecnologia (IIT), Aude Billard dell’Ecole Polytechnique di Losanna e Paolo Benanti, teologo e docente alla Pontificia Università Gregoriana.

articolo correlato:

Potrebbero interessarti anche...

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.