OpenAI ha sciolto il suo team responsabile della mitigazione dei rischi per la sicurezza per i suoi sistemi di intelligenza artificiale avanzati. Secondo OpenAI, il gruppo sarà integrato in altri dipartimenti di ricerca. Uno dei leader del team critica l'azienda in X.
OpenAI conferma A Bloomberg Ha sciolto la squadra “Superalignment”. Questa squadra E lui era dentro È stata istituita nel luglio 2023 per ridurre i rischi dei futuri sistemi di intelligenza artificiale, considerati “più intelligenti” di quelli umani. Sezione Era il suo obiettivo Risolvere le principali sfide tecniche del controllo e del controllo dell’“intelligenza artificiale super intelligente” entro il 2027.
OpenAI ha dichiarato all'agenzia di stampa che il gruppo non esisterà più come divisione indipendente, ma sarà invece “più profondamente integrato nelle nostre attività di ricerca per raggiungere gli obiettivi di sicurezza”. I team leader, Ilya Sutskever e Jan Laiki, si sono dimessi dalla società questa settimana. Il primo è co-fondatore di OpenAI e lo scorso anno ha votato per estromettere il CEO Sam Altman. Non ha spiegato il motivo della sua partenza.
Come Fatecelo sapere a che era da tempo in disaccordo con i dirigenti di OpenAI sulle “priorità fondamentali” e che ormai era stato raggiunto un “punto di rottura”. Si dice che il team non abbia ricevuto risorse sufficienti negli ultimi mesi per continuare la sua ricerca “cruciale”. “Costruire macchine più intelligenti degli esseri umani è un’impresa intrinsecamente pericolosa. OpenAI comporta un’enorme responsabilità per conto di tutta l’umanità, ma negli ultimi anni la cultura e le procedure della sicurezza sono diventate secondarie rispetto a prodotti brillanti”.
Altman ti ringrazia In un post su X Per il suo contributo alle inchieste sulla sicurezza. Risponde brevemente anche ai post del ricercatore: “Ha ragione, abbiamo ancora molto da fare e vogliamo mantenerlo”.