sistemi di intelligenza artificiale generativi e droghe

I risultati mostrano che questi modelli generano rapidamente risposte incoerenti e potenzialmente dannose semplicemente riformulando le domande di input

l'uso di sistemi di intelligenza artificiale generativi e il trattamento dell’uso di droghe è uno dei temi di ricerca più promettenti

data di pubblicazione:

31 Gennaio 2025

Uno studio pubblicato su Science Direct, di cui si fornisce una sintesi, riporta interessanti valutazioni sull’uso di sistemi di intelligenza artificiale generativi e il trattamento dell’uso di droghe. Anche se dallo studio emergono interessanti indicazioni sull’utilità di questi sistemi, sono varie le criticità e i limiti mostrati dai ricercatori.

“I sistemi di Intelligenza Artificiale (IA) generativi come il ChatGPT di OpenAI, in grado di avere una capacità senza precedenti di generare testo simile all’uomo e di conversare in tempo reale, hanno il potenziale per l’implementazione su larga scala in contesti clinici come il trattamento dell’uso di sostanze. Il trattamento per i disturbi da uso di sostanze (SUD) è particolarmente elevato, richiedendo un trattamento clinico basato sull’evidenza, esperienza di salute mentale e supporto tra pari.

Pertanto, le promesse di sistemi di intelligenza artificiale che affrontano le risorse sanitarie carenti e i pregiudizi strutturali sono rilevanti all’interno di questo settore, specialmente in un contesto anonimo. Questo studio esplora l’efficacia dell’intelligenza artificiale generativa nel rispondere all’uso della sostanza e alle domande di recupero. Raccogliamo domande dai forum di recupero online, utilizziamo ChatGPT e Meta’s LLaMA-2 per le risposte e abbiamo i medici che valutano queste risposte dell’IA.

Le domande sono state generate e provenienti da forum sull’uso di sostanze anonime sul sito di social media Reddit. I post includevano temi relativi alla ricerca di informazioni (ad esempio, domande sul dosaggio e sull’uso) e al recupero (ad esempio, ricerca di supporto e risorse) su tre sostanze: alcol, marijuana e oppioidi. Le risposte generate dall’IA sono state poi valutate dai medici addestrati nell’uso e nel recupero di sostanze.

Abbiamo mirato a valutare la qualità generale e la fattualità delle risposte generate dall’IA nelle impostazioni di uso delle sostanze del mondo reale, discutendo sia i potenziali punti di forza che i principali limiti. I nostri risultati mostrano che questi modelli generano rapidamente risposte incoerenti e potenzialmente dannose semplicemente riformulando le domande di input. 

Mentre i medici hanno valutato le risposte generate dall’IA come di alta qualità, abbiamo scoperto casi di disinformazione pericolosa, tra cui il disprezzo per l’ideazione suicidaria, linee di assistenza di emergenza errate e l’approvazione della disintossicazione domestica. Inoltre, i sistemi di IA hanno prodotto consigli incoerenti a seconda del fraseggio di domande.

Questi risultati indicano un mix rischioso di risposte apparentemente di alta qualità e accurate al momento dell’ispezione iniziale che contengono un consiglio medico inaccurato e potenzialmente mortale. Di conseguenza, mentre l’intelligenza artificiale generativa mostra la promessa, la sua applicazione nel mondo reale nei settori sanitari sensibili richiede ulteriori salvaguardie e convalida clinica.”

Ti potrebbe interessare anche
Precedente
Successivo