- 15:00“Nvidia” diventa la prima azienda nella storia con un valore di mercato superiore a 3,6 trilioni di dollari
- 14:32LG lancia un negozio online in Marocco
- 14:00M-AUTOMOTIV rafforza il mercato automobilistico in Marocco attraverso una partnership strategica con JAC Motors
- 12:00Marrakech ospita la 22a sessione della Conferenza mondiale sulle tecnologie di riproduzione medicalmente assistita
- 11:00Il Marocco rafforza la propria presenza diplomatica in Italia aprendo un nuovo consolato onorario
- 10:00Unire le cellule cerebrali con l’intelligenza artificiale per creare biocomputer super intelligenti
- 09:30L'artefice del riconoscimento del Sahara marocchino è nominato titolare del portafoglio del Dipartimento di Stato americano
- 09:01Un'ancora di salvezza... La vittoria di Trump potrebbe salvare Google dal pericolo dello smantellamento
- 08:30Il contributo del turismo archeologico in Marocco alla valorizzazione dell’identità culturale nazionale
Seguici su Facebook
'Allucinazioni' AI segnalate dai ricercatori in campo medico
Il colosso della tecnologia OpenAI ha promosso il suo strumento di trascrizione basato sull'intelligenza artificiale, Whisper, come se avesse quasi raggiunto "robustezza e accuratezza a livello umano".
Tuttavia, Whisper ha un inconveniente significativo: genera spesso testo falso, a volte frasi intere, come riportato da interviste con oltre una dozzina di ingegneri informatici, sviluppatori e ricercatori accademici, secondo AP.
Questo fenomeno, definito nel settore "allucinazioni", può includere commenti razziali inappropriati, linguaggio violento e trattamenti medici inventati.
Gli esperti avvertono che queste imprecisioni sono preoccupanti, soprattutto perché Whisper viene adottato in vari settori a livello globale per attività come la traduzione e la trascrizione di interviste, la generazione di testo per tecnologie di consumo diffuse e la creazione di sottotitoli video.
Di particolare preoccupazione è la rapida adozione di strumenti basati su Whisper da parte di strutture mediche per trascrivere le consultazioni dei pazienti, nonostante gli avvisi di OpenAI contro l'utilizzo dello strumento in "domini ad alto rischio".