- 15:00“Nvidia” diventa la prima azienda nella storia con un valore di mercato superiore a 3,6 trilioni di dollari
- 14:32LG lancia un negozio online in Marocco
- 14:00M-AUTOMOTIV rafforza il mercato automobilistico in Marocco attraverso una partnership strategica con JAC Motors
- 12:00Marrakech ospita la 22a sessione della Conferenza mondiale sulle tecnologie di riproduzione medicalmente assistita
- 11:00Il Marocco rafforza la propria presenza diplomatica in Italia aprendo un nuovo consolato onorario
- 10:00Unire le cellule cerebrali con l’intelligenza artificiale per creare biocomputer super intelligenti
- 09:30L'artefice del riconoscimento del Sahara marocchino è nominato titolare del portafoglio del Dipartimento di Stato americano
- 09:01Un'ancora di salvezza... La vittoria di Trump potrebbe salvare Google dal pericolo dello smantellamento
- 08:30Il contributo del turismo archeologico in Marocco alla valorizzazione dell’identità culturale nazionale
Seguici su Facebook
Attenzione: ChatGPT-4o può essere utilizzato per frode e furto di fondi
Uno studio recente mostra che l'API dell'assistente vocale ChatGPT-4o di OpenAI può essere sfruttata dai criminali informatici per commettere frodi finanziarie, con tassi di successo da bassi a moderati.
ChatGPT-4o è l'ultimo modello di intelligenza artificiale di OpenAI, in grado di acquisire e produrre testo, suoni e immagini. Per limitare gli abusi, OpenAI ha integrato diversi meccanismi di sicurezza volti a rilevare contenuti dannosi e prevenire riproduzioni non autorizzate.
Man mano che i deepfake e gli strumenti di sintesi vocale diventano sempre più diffusi, il problema delle frodi vocali si aggrava, con perdite stimate in milioni.
I ricercatori dell’Università dell’Illinois hanno pubblicato un documento di ricerca che dimostra che i moderni strumenti tecnici a disposizione del pubblico non dispongono di meccanismi di protezione sufficienti dall’uso improprio in operazioni fraudolente.
Lo studio ha esaminato diversi tipi di frode, tra cui bonifici bancari, furto di carte regalo, trasferimenti di valuta digitale e furto di social media e dati di account di posta elettronica.
Queste truffe utilizzano script vocali in ChatGPT-4o per navigare nelle pagine Web, inserire dati, gestire codici di autenticazione a due fattori e seguire le istruzioni antifrode. Il modello GPT-4o spesso rifiuta di gestire dati sensibili, ma i ricercatori sono riusciti a superare alcune limitazioni utilizzando semplici tecniche per indurre il modello a rispondere.
Per dimostrare l’efficacia della frode, i ricercatori hanno simulato il ruolo delle vittime negli esperimenti e hanno utilizzato siti come “Bank of America” per verificare il successo dei bonifici bancari, ma non hanno misurato la portata della capacità di persuasione del modello.
Gli esperimenti hanno dimostrato che le percentuali di successo variavano tra il 20% e il 60%, con ogni tentativo che richiedeva fino a 26 passaggi consecutivi attraverso il browser e richiedeva circa tre minuti nei casi complessi. La percentuale di successo del furto di dati dell'account Gmail è stata del 60%, mentre la percentuale di successo dei trasferimenti di valuta digitale e del furto di dati di Instagram è stata del 40%.
In termini di costi, il costo dell’attuazione delle frodi è basso; Ogni transazione andata a buon fine costa circa 75 centesimi di dollaro, mentre i bonifici bancari più complessi costano solo circa 2,51 dollari.
In un commento di OpenAI pubblicato dal sito tecnico BleepingComputer, si indica che il suo ultimo modello “o1-preview” ha elevate capacità di resistere ai tentativi di frode, migliorando la sicurezza rispetto ai modelli precedenti e ottenendo anche un punteggio elevato nei test di sicurezza del 93% , rispetto al 71% dei modelli precedenti.
OpenAI ha spiegato che la ricerca accademica, come quella presentata dall'Università dell'Illinois, sta contribuendo a migliorare ChatGPT per affrontare usi dannosi. L'azienda ha confermato il proprio impegno nel rafforzare i meccanismi di sicurezza nei suoi prossimi modelli e limita inoltre la generazione di voci in GPT-4o a un insieme di voci autorizzate per evitare la falsificazione della voce.