Newsbot. L’intelligenza artificiale della dis-informazione

Sam Altman, l’amministratore delegato di OpenAI, la società a cui fa capo ChatGpt, nel corso dell’audizione al Congresso degli Stati Uniti avvenuta il 16 maggio 2023, ha fatto appello a una maggiore regolamentazione dell’intelligenza artificiale. Secondo Altman tale tecnologia, al netto dei benefici che offre, potrebbe causare danni significativi non tanto sul piano dell’occupazione (considera l’essere umano insostituibile), quanto per la generazione massificata di disinformazione (e anche di truffe) che può mettere a  rischio la democrazia.

La proliferazione dei NewsBot

NewsGuard è una organizzazione dedita alla verifica delle affidabilità dei siti di notizie di tutto il mondo e, adattandosi al progresso, è in grado di distinguere se un sito sia un mero prodotto dell’intelligenza artificiale o realizzato da giornalisti in carne e ossa.

Nell’aprile 2023 ha identificato 49 siti d’informazione prodotti quasi esclusivamente da ChatGPt o altri chatbot o come sono già stati ribattezzati, da newsbot.

I 49 identificati sono in sette lingue: ceco, cinese, francese, inglese, portoghese, tagalog (una delle lingue principali delle Filippine) e thailandese; si tratta di content farm (letteralmente ‘fattorie di contenuti’), vale a dire prodotti di bassa qualità la cui funzione è pubblicare una grande quantità di articoli ‘acchiappa click’ (in gergo clickbait, corrispondente alla traduzione letterale esca da click).

Sono testi concepiti per catturare l’attenzione dell’utente: ottenere tante visualizzazioni significa ottimizzare le entrate pubblicitarie. Prima gestiti dagli uomini, ora sono affidati quasi esclusivamente o esclusivamente ai chatbot o newsbot in grado di produrre un numero illimitato di articoli ogni giorno di interesse generale: politica, cronaca, salute, finanza, fino alla cronaca e al gossip.

La parola agli analisti

Gli analisti di NewsGuard, McKenzie Sadeghi e Lorenzo Arvanitis, raccontano come li hanno identificati.

In genere si tratta di testi che riassumono articoli prodotti da editori affidabili ma riproposti con un “linguaggio banale e stile ripetitivo”, non firmati se non con il generico admin o editor. Spesso non presentano indicazioni su come raggiungere la redazione, né è possibile risalire ai proprietari delle testate.

Inoltre, osservano gli analisti “nei testi generati dall’AI (o IA) capita di trovare le tipiche espressioni prodotte dal software quando risponde a richieste specifiche, come ‘non sono in grado di produrre 1.500 parole… Tuttavia, posso fornirti un riepilogo dell’articolo’. La presenza di questo tipo di frasi o espressioni negli articoli è anche la prova che questi siti, probabilmente, operano con poca o nessuna supervisione umana”.

“Di 29 di questi siti che fornivano informazioni di contatto – proseguono Sadeghi e Arvanitis – 2 hanno confermato di aver utilizzato l’intelligenza artificiale per produrre contenuti. Dei restanti 27, solo due siti hanno risposto all’email. ma non alle domande specifiche poste: 8 avevano indirizzi email non validi e 17 non hanno risposto”.

Per chi vuole provare per credere, i due autori forniscono i nomi di siti realizzati dai newsbot come: Famadillo.com, GetIntoKnowledge.com, Biz Breaking News, News Live 79, Daily Business Post, Market News Reports, BestBudgetUSA.com, HistoryFact.in, CountyLocalNews.com.

Per scoprili da soli

Le piattaforme che smascherano i testi

Una modalità semplice per riconoscere se un testo è scritto dall’intelligenza artificiale, pur con un possibile ampio margine di errore, è copiare e incollare il testo sospetto su specifiche piattaforme che danno indicazioni attraverso valutazioni e percentuali di probabilità che il testo sia umano o artificiale: queste piattaforme sono AI Text Classifier che spesso fornisce anche le fonti di riferimento, progetto di OpenAi, la stessa azienda che ha creato i ChatGPT (come dire, tutto fatto in casa) ; GptZero, ZeroGpt e Gpt -2 output detector.

Le piattaforme che smascherano le immagini

Più difficile individuare un’immagine creata dagli algoritmi generativi da sistemi generativi come Midjourney o Dall-E.  Esempi significativi sono le famose immagini di papa Francesco con piumino stilizzato e Donald Trump arrestato.  Se la prima (voluta dal marchio Monclear) era ben fatta ma non credibile fosse altro che la taglia non corrispondeva a quella reale del Pontefice, l’ex Presidente degli Stati Uniti – considerate le sue movimentate vicende con la giustizia e il suo seguito bellicoso (ricordiamo all’assalto a Capitol Hill nel 2021) -, circondato dalla polizia avrà sicuramente convinto molti.

Anche per le immagini, però, esistono dei siti che possono aiutare a smascherare i falsi. Sono i rilevatori Gan (Gan è la tecnologia delle reti di intelligenza artificiale) e sono a disposizione gratuitamente da  mayachitra.com o thehive.ai.

 

Immagine – by pixabay

Potrebbero interessarti anche...

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.