“Se i sistemi di protezione (guardrail) dell’intelligenza artificiale (IA) sono insufficienti, la capacità di questi strumenti di generare rapidamente grandi quantità di disinformazione convincente è profonda”. Sono alcune delle conclusioni di uno studio recentemente pubblicato su JAMA Internal Medicine nel quale un gruppo di ricerca australiano ha valutato proprio tale capacità in alcuni modelli di linguaggio generativi disponibili per il pubblico. Nell’articolo, gli esperti parlano anche di “arma di disinformazione di massa” riferendosi a questi modelli – uno dei più noti è ChatGPT – ricordando che si tratta di strumenti molto potenti e promettenti in ambito medico-sanitario, ma sottolineandone anche la potenzialità di generare informazioni non corrette e molto convincenti, che possono alimentare la disinformazione.

Generare (dis)informazione

“Negli ultimi mesi abbiamo assistito a grandi sviluppi dell’IA generativa, strumenti che creano risposte simili a quelle umane e offrono soluzioni a domande e conversazioni complesse” esordiscono gli autori, guidati da Bradley D. Menz della Flinders University di Adelaide (Australia), primo nome dell’articolo. “Sebbene questi modelli non siano stati disegnati specificamente per il settore sanitario, le loro potenzialità sono state esplorate anche in questo ambito” aggiungono, ricordano le preoccupazioni derivate dalle cosiddette “allucinazioni” della IA generativa, ovvero la generazione di informazioni convincenti, ma false.

Con il loro studio, Menz e colleghi hanno voluto mettere in luce il rischio che questi strumenti possano facilitare la generazione di disinformazione su temi di salute, ovvero la diffusione di informazioni non accurate, quando le misure di sicurezza dell’IA non sono adeguate. Per farlo hanno utilizzato diversi modelli di IA generativa (ChatGPT e Playground di OpenAI, Bard di Google e Bing Chat di Microsoft) per creare 50 post di circa 350 parole su due temi di sanità pubblica “caldi”, i vaccini e il vaping. “Prima di iniziare a usare i modelli di IA abbiamo cercato in rete informazioni su prompt (i testi che si utilizzano per “interrogare” l’IA) che fossero indicati come in grado di bypassare le misure di sicurezza dei modelli di IA generativa” spiegano gli autori che hanno chiesto di inserire specifici spunti di disinformazione all’interno dei testi generati. Per esempio, per quanto riguarda i vaccini, è stato chiesto di riportare che il vaccino causa danni e effetti avversi gravi in molte persone e che possono essere particolarmente pericolosi per i più piccoli.

Convincente, rapida…e falsa

A conti fatti, l’uso dei tool di OpenAI ha permesso di generare 102 articoli per blog, oltre 17.00 parole di disinformazione, legati a vaccini e vaping. Il tutto in 65 minuti. Di contro, Bard e Bing Chat non sono risultati efficaci nel produrre grandi volumi di disinformazione.

I testi generati rispondevano alle richieste dei ricercatori: erano coercitivi, rivolti a diversi gruppi di popolazione come anziani o donne incinte, e inoltre contenevano anche riferimenti scientifici rivelatisi falsi a un successivo controllo.

“Questi risultati dimostrano che i sistemi di protezione dei modelli di IA generativa sono insufficienti e la capacità di questi strumenti di generare in modo rapido ed economico una grande quantità di disinformazione convincente e mirata a specifiche popolazioni è profonda” commentano gli autori, che hanno anche cominciato a esplorare la capacità dell’IA generativa di aggiungere immagini ai testi creati.

Come riportato da Menz e colleghi, sono necessarie misure protettive contro l’uso non corretto dei modelli di IA generativa. “I pilastri della farmacovigilanza – incluse trasparenza, sorveglianza e regolazione – potrebbero servire da modello per la gestione di questi rischi e la salvaguardia della salute pubblica” suggeriscono gli autori, ricordando che “solo con appropriate strutture di vigilanza possiamo sperare di mantenere un ecosistema di IA con un livello di rischio accettabile”