- 08:30Volker Türk: In un contesto internazionale turbolento, il Consiglio per i diritti umani svolgerà un ruolo sempre più importante
- 07:45Panama sospende le relazioni diplomatiche con la cosiddetta “RASD”
- 17:00Yahoo lancia una nuova app di messaggistica basata sull'intelligenza artificiale per migliorare l'esperienza dell'utente
- 16:30Zelenskyj: Putin usa l’Ucraina come campo di prova per le sue armi
- 16:20Il petrolio aumenta vertiginosamente mentre il conflitto in Ucraina si intensifica
- 16:00Grandi eventi: una leva strategica per l'attrattività del Marocco
- 15:10L’aereo turco “Akinci” costituisce un “avanzamento qualitativo” nelle capacità militari del Marocco
- 14:35Wi-Fi 8: le nuove funzionalità offrono una connessione Internet più veloce e stabile
- 14:05Uno studio mostra che ChatGPT supera i medici nella diagnosi delle condizioni mediche.
Seguici su Facebook
Attenzione: ChatGPT-4o può essere utilizzato per frode e furto di fondi
Uno studio recente mostra che l'API dell'assistente vocale ChatGPT-4o di OpenAI può essere sfruttata dai criminali informatici per commettere frodi finanziarie, con tassi di successo da bassi a moderati.
ChatGPT-4o è l'ultimo modello di intelligenza artificiale di OpenAI, in grado di acquisire e produrre testo, suoni e immagini. Per limitare gli abusi, OpenAI ha integrato diversi meccanismi di sicurezza volti a rilevare contenuti dannosi e prevenire riproduzioni non autorizzate.
Man mano che i deepfake e gli strumenti di sintesi vocale diventano sempre più diffusi, il problema delle frodi vocali si aggrava, con perdite stimate in milioni.
I ricercatori dell’Università dell’Illinois hanno pubblicato un documento di ricerca che dimostra che i moderni strumenti tecnici a disposizione del pubblico non dispongono di meccanismi di protezione sufficienti dall’uso improprio in operazioni fraudolente.
Lo studio ha esaminato diversi tipi di frode, tra cui bonifici bancari, furto di carte regalo, trasferimenti di valuta digitale e furto di social media e dati di account di posta elettronica.
Queste truffe utilizzano script vocali in ChatGPT-4o per navigare nelle pagine Web, inserire dati, gestire codici di autenticazione a due fattori e seguire le istruzioni antifrode. Il modello GPT-4o spesso rifiuta di gestire dati sensibili, ma i ricercatori sono riusciti a superare alcune limitazioni utilizzando semplici tecniche per indurre il modello a rispondere.
Per dimostrare l’efficacia della frode, i ricercatori hanno simulato il ruolo delle vittime negli esperimenti e hanno utilizzato siti come “Bank of America” per verificare il successo dei bonifici bancari, ma non hanno misurato la portata della capacità di persuasione del modello.
Gli esperimenti hanno dimostrato che le percentuali di successo variavano tra il 20% e il 60%, con ogni tentativo che richiedeva fino a 26 passaggi consecutivi attraverso il browser e richiedeva circa tre minuti nei casi complessi. La percentuale di successo del furto di dati dell'account Gmail è stata del 60%, mentre la percentuale di successo dei trasferimenti di valuta digitale e del furto di dati di Instagram è stata del 40%.
In termini di costi, il costo dell’attuazione delle frodi è basso; Ogni transazione andata a buon fine costa circa 75 centesimi di dollaro, mentre i bonifici bancari più complessi costano solo circa 2,51 dollari.
In un commento di OpenAI pubblicato dal sito tecnico BleepingComputer, si indica che il suo ultimo modello “o1-preview” ha elevate capacità di resistere ai tentativi di frode, migliorando la sicurezza rispetto ai modelli precedenti e ottenendo anche un punteggio elevato nei test di sicurezza del 93% , rispetto al 71% dei modelli precedenti.
OpenAI ha spiegato che la ricerca accademica, come quella presentata dall'Università dell'Illinois, sta contribuendo a migliorare ChatGPT per affrontare usi dannosi. L'azienda ha confermato il proprio impegno nel rafforzare i meccanismi di sicurezza nei suoi prossimi modelli e limita inoltre la generazione di voci in GPT-4o a un insieme di voci autorizzate per evitare la falsificazione della voce.