Documento segreto di OpenAI finisce online: ecco perché l’azienda di ChatGPT si è spaccata

L’azienda che ha sviluppato l’Intelligenza Artificiale più popolare al mondo si trova al centro di grandi polemiche.

Sono giorni di grande fermento nella Silicon Valley, in particolare nel quartiere operativo di OpenAI, l’azienda che ha sviluppato ChatGPT. Qualche giorno fa l’opinione pubblica era stata scossa dalla notizia dell’improvviso licenziamento del CEO della compagnia, Sam Altman. Pochi giorni dopo, però, l’uomo è tornato trionfante nella sua azienda. L’attrito di Altman con il consiglio di OpenAI ha causato molte discussioni nei social media e sui giornali.

All’inizio si è parlato di forti disaccordi tra il CEO e il consiglio dovuti ai grandi cambiamenti a cui OpenAI sta andando incontro. La natura dell’azienda era infatti inizialmente no-profit, ma ad oggi le cose sono notevolmente cambiate. Tuttavia, sembra che non sia stata questa l’unica ragione della divisione. Un recente rapporto del New York Times ha rivelato che la vera fonte di attrito è un articolo di ricerca scritto dal membro del consiglio Helen Toner. E quell’articolo contiene riflessioni che abbastanza preoccupanti, secondo molte persone.

La sicurezza di ChatGPT rimane un argomento ancora decisamente poco chiaro

Lo scorso ottobre Helen Toner, membro del consiglio di OpenAI e Direttore della Strategia e dei Fondi per la Ricerca presso il “Center for Security and Emerging Technology” di Georgetown ha co-firmato un articolo dal titolo “Decodificare le intenzioni: intelligenza artificiale e i suoi segnali costosi“. L’articolo si concentra su un tema molto sentito dall’opinione pubblica: indaga su come le aziende, i paesi e i politici dimostrano cosa vorrebbero fare con l’intelligenza artificiale.

Una sezione dell’articolo si afferma che ci troviamo in un momento di “corsa al ribasso”. Gli autori affermano cioè che la crescente corsa per sviluppare l’IA spinge le aziende a prendere scorciatoie sulla loro sicurezza e a non essere completamente chiare a proposito dei rischi che questi strumenti portano per la società.

sam altman è stato richiamato come ceo di openai
Dalla controversia emergono diversi dubbi sulla sicurezza di ChatGPT (Foto YouTube OpenAI) – sitiwebok.it

L’articolo suggeriva che OpenAI potrebbe aver innescato quello scenario con il rilascio di ChatGPT nel 2022, che ha aiutato a rendere mainstream l’IA. E invece ha elogiato Anthropic, una startup rivale fondata da ex ricercatori di OpenAI, e la sua decisione di ritardare il rilascio del suo prodotto concorrente, “Claude”. Secondo i ricercatori, attendere prima di rilasciare prodotti simili ha impatti negativi sui guadagni dell’azienda, ma positivi sulla sicurezza di questi strumenti.

La divulgazione del documento ha messo in luce tensioni interne in OpenAI. Sam Altman non era contento delle conclusioni di Toner e ha espresso le sue preoccupazioni ai dipendenti di OpenAI tramite email. Ilya Sutskever, capo della ricerca di OpenAI, ha inizialmente considerato di rimuovere Toner dal consiglio, per poi sorprendentemente rivolgere la sua attenzione contro Altman, una decisione di cui si sarebbe pentito nei giorni a seguire.

Impostazioni privacy