X

'Allucinazioni' AI segnalate dai ricercatori in campo medico

'Allucinazioni' AI segnalate dai ricercatori in campo medico
Monday 28 October 2024 - 16:00
Zoom

Il colosso della tecnologia OpenAI ha promosso il suo strumento di trascrizione basato sull'intelligenza artificiale, Whisper, come se avesse quasi raggiunto "robustezza e accuratezza a livello umano".

Tuttavia, Whisper ha un inconveniente significativo: genera spesso testo falso, a volte frasi intere, come riportato da interviste con oltre una dozzina di ingegneri informatici, sviluppatori e ricercatori accademici, secondo AP.

Questo fenomeno, definito nel settore "allucinazioni", può includere commenti razziali inappropriati, linguaggio violento e trattamenti medici inventati.

Gli esperti avvertono che queste imprecisioni sono preoccupanti, soprattutto perché Whisper viene adottato in vari settori a livello globale per attività come la traduzione e la trascrizione di interviste, la generazione di testo per tecnologie di consumo diffuse e la creazione di sottotitoli video.

Di particolare preoccupazione è la rapida adozione di strumenti basati su Whisper da parte di strutture mediche per trascrivere le consultazioni dei pazienti, nonostante gli avvisi di OpenAI contro l'utilizzo dello strumento in "domini ad alto rischio".

Aggiungi il tuo commento

300 / Caratteri rimanenti 300
Condizioni di pubblicazione : Non insultare l’autore, le persone, i luoghi sacri, né attaccare religioni o la divinità, evitare incitazioni razziste e insulti

Commenti (0)

Le opinioni espresse nei commenti riflettono solo quelle dei loro autori e non quelle di Lou.Press

Leggi di più