- 17:00Intelligenza artificiale: un'opportunità e una sfida per i project manager in Marocco
- 16:00OpenAI cerca di portare i vantaggi dell'intelligenza artificiale sui dispositivi Samsung
- 15:00Gli eventi sportivi continentali e internazionali rafforzano la presenza del Marocco sulla scena internazionale
- 14:00Marjan Group lancia il progetto “Marjan City” per espandere la propria rete di negozi e competere con i negozi tradizionali
- 13:00Amazon investe 4 miliardi di dollari nella società di intelligenza artificiale Anthropic
- 12:00Le elezioni del 2024 portano la ricchezza di Elon Musk a livelli record
- 11:20Il dominio europeo sulle esportazioni globali di cioccolato
- 10:30“Reinventare il progresso: l’indice di sviluppo umano di fronte alle sfide di domani”
- 09:15I paesi ricchi concordano di aumentare i finanziamenti per il clima a 300 miliardi di dollari all’anno entro il 2035
Seguici su Facebook
'Allucinazioni' AI segnalate dai ricercatori in campo medico
Il colosso della tecnologia OpenAI ha promosso il suo strumento di trascrizione basato sull'intelligenza artificiale, Whisper, come se avesse quasi raggiunto "robustezza e accuratezza a livello umano".
Tuttavia, Whisper ha un inconveniente significativo: genera spesso testo falso, a volte frasi intere, come riportato da interviste con oltre una dozzina di ingegneri informatici, sviluppatori e ricercatori accademici, secondo AP.
Questo fenomeno, definito nel settore "allucinazioni", può includere commenti razziali inappropriati, linguaggio violento e trattamenti medici inventati.
Gli esperti avvertono che queste imprecisioni sono preoccupanti, soprattutto perché Whisper viene adottato in vari settori a livello globale per attività come la traduzione e la trascrizione di interviste, la generazione di testo per tecnologie di consumo diffuse e la creazione di sottotitoli video.
Di particolare preoccupazione è la rapida adozione di strumenti basati su Whisper da parte di strutture mediche per trascrivere le consultazioni dei pazienti, nonostante gli avvisi di OpenAI contro l'utilizzo dello strumento in "domini ad alto rischio".