OpenAI cerca un responsabile della preparazione per affrontare i rischi dell'IA

16:26
OpenAI cerca un responsabile della preparazione per affrontare i rischi dell'IA

OpenAI sta assumendo un responsabile della preparazione. O, in altre parole, qualcuno il cui compito principale sia quello di pensare a tutti i modi in cui l'IA potrebbe andare terribilmente, terribilmente male. In un post su X, Sam Altman ha annunciato la posizione riconoscendo che il rapido miglioramento dei modelli di IA pone "alcune sfide reali". Il post prosegue evidenziando specificamente il potenziale impatto sulla salute mentale delle persone e i pericoli delle armi di sicurezza informatica basate sull'IA.

Altman afferma inoltre che, in futuro, questa persona sarà responsabile dell'esecuzione del "quadro di preparazione" dell'azienda, della protezione dei modelli di IA per il rilascio di "capacità biologiche" e persino della definizione di limiti per i sistemi auto-miglioranti. Afferma inoltre che sarà un "lavoro stressante", il che sembra un eufemismo.

Sulla scia di diversi casi di alto profilo in cui i chatbot sono stati implicati nel suicidio di adolescenti, sembra un po' tardi per iniziare a concentrarsi sui potenziali pericoli per la salute mentale rappresentati da questi modelli. La psicosi da intelligenza artificiale è una preoccupazione crescente, poiché i chatbot alimentano i deliri delle persone, incoraggiano teorie del complotto e aiutano a nascondere i propri disturbi alimentari.



Leggi di più

Questo sito web, walaw.press, utilizza i cookie per offrirti una buona esperienza di navigazione e migliorare continuamente i nostri servizi. Continuando a navigare su questo sito, accetti l’uso di questi cookie.