X

'Allucinazioni' AI segnalate dai ricercatori in campo medico

'Allucinazioni' AI segnalate dai ricercatori in campo medico
Monday 28 October 2024 - 16:00
Zoom

Il colosso della tecnologia OpenAI ha promosso il suo strumento di trascrizione basato sull'intelligenza artificiale, Whisper, come se avesse quasi raggiunto "robustezza e accuratezza a livello umano".

Tuttavia, Whisper ha un inconveniente significativo: genera spesso testo falso, a volte frasi intere, come riportato da interviste con oltre una dozzina di ingegneri informatici, sviluppatori e ricercatori accademici, secondo AP.

Questo fenomeno, definito nel settore "allucinazioni", può includere commenti razziali inappropriati, linguaggio violento e trattamenti medici inventati.

Gli esperti avvertono che queste imprecisioni sono preoccupanti, soprattutto perché Whisper viene adottato in vari settori a livello globale per attività come la traduzione e la trascrizione di interviste, la generazione di testo per tecnologie di consumo diffuse e la creazione di sottotitoli video.

Di particolare preoccupazione è la rapida adozione di strumenti basati su Whisper da parte di strutture mediche per trascrivere le consultazioni dei pazienti, nonostante gli avvisi di OpenAI contro l'utilizzo dello strumento in "domini ad alto rischio".


Leggi di più