Home Illya sutskever e il bunker antiapocalittico: dietro le quinte di openai e la super intelligenza artificiale

Illya sutskever e il bunker antiapocalittico: dietro le quinte di openai e la super intelligenza artificiale

Il fondatore di OpenAI, Ilya Sutskever, propone un bunker antiapocalittico per proteggere il team da una crisi legata all’AGI, suscitando dibattiti interni e tensioni aziendali.

Illya_sutskever_e_il_bunker_an

L'articolo racconta il ruolo di Ilya Sutskever in OpenAI, le sue preoccupazioni per i rischi dell'AGI e il progetto di un bunker antiapocalittico, evidenziando tensioni interne e conflitti di potere legati all'impatto sociale dell'intelligenza artificiale avanzata. - Unita.tv

Il ruolo di Ilya Sutskever, uno dei fondatori di OpenAI, ha segnato un capitolo importante nella storia dell’intelligenza artificiale. Oltre a essere tra gli artefici del famoso chatbot, Sutskever ha mostrato preoccupazioni che sono andate oltre l’innovazione tecnologica. Il suo progetto di costruire un bunker antiapocalittico ha accompagnato un dibattito intenso sulle conseguenze legate al rilascio di una forma di intelligenza artificiale superpotente, chiamata AGI. Questa vicenda, recente e ancora poco discussa nel dettaglio dal grande pubblico, emerge da una ricerca giornalistica raccolta nel libro della scrittrice Karen Hao.

Il progetto del bunker antiapocalittico e la paura di una crisi globale

Durante una riunione importante del 2023, Ilya Sutskever ha presentato ai colleghi un’idea che sembrava uscita da un romanzo di fantascienza. La realizzazione di un bunker segreto destinato a proteggere i membri più brillanti del team di OpenAI in vista dell’avvento di AGI. Si tratta di una super intelligenza artificiale con capacità cognitive paragonabili a quelle umane, che secondo Sutskever avrebbe potuto scatenare una crisi senza precedenti. Il ricercatore ha riferito che la costruzione del rifugio sarebbe stata una misura preventiva, pensata per preservare le menti più importanti da un evento catastrofico definito con il termine “rapture”.

Il senso ambiguo di “rapture”

Il significato esatto di “rapture” usato da Sutskever resta ambiguo. La parola in inglese può riferirsi a un “rapimento” o a una “estasi”, accostamenti che lasciano spazio a diverse interpretazioni ma che nel contesto della discussione sembrano indicare una crisi sociale o psicologica intensa, scatenata dalla diffusione di questa super IA. Dettagli precisi sul bunker e sul tipo di minaccia temuta non sono stati resi pubblici, ma la testimonianza di alcuni addetti ai lavori lascia intuire che si trattasse di qualcosa percepito come una vera emergenza interna.

Testimonianze e rivelazioni dal libro di karen hao

La scrittrice e giornalista Karen Hao ha dedicato parte del suo prossimo libro alla figura di Sutskever e al dibattito intorno ai rischi legati all’intelligenza artificiale avanzata. Il volume, intitolato “Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI”, raccoglie diverse voci e racconta con precisione fatti e retroscena poco noti al grande pubblico.

Secondo una fonte interna a OpenAI, tra i fondatori l’idea del bunker è stata discussa con serietà più volte, portata avanti da Sutskever come possibile risposta a una crisi attesa al momento del rilascio di AGI. Le testimonianze confermano che questa visione non rimaneva confinata a un solo episodio, ma entrava spesso nel dibattito tra i dirigenti. Non a caso, anche se l’azienda e Sutskever sono rimasti dietro un muro di silenzio davanti alle richieste di commento, gli insider descrivono un ambiente di lavoro scosso da tensioni legate alle implicazioni sociali e civili di tecnologie che sfuggivano dal controllo.

Tensioni sul rilascio di agi

Le discussioni interne indicano che il rilascio di AGI era visto come un potenziale punto di rottura, con conseguenze difficili da prevedere e da gestire. “Ciò che temiamo non è solo la tecnologia, ma l’impatto che potrà avere sulle strutture sociali ed economiche”, avrebbe detto qualcuno vicino a Sutskever.

Sutskever, il suo impatto e le tensioni interne a openai

Il canadese Ilya Sutskever si è ritagliato un ruolo critico all’interno di OpenAI, tanto da essere considerato una figura eccentrica quanto determinata. Le sue preoccupazioni sulle conseguenze dell’IA e le modalità di gestione dell’azienda hanno portato a vere e proprie lotte di potere nel consiglio. Secondo alcune fonti interne, Sutskever ha guidato un tentativo di rimuovere Sam Altman dal comando, accusandolo di avere abbandonato gli scopi originari di OpenAI.

I conflitti politici interni

Il golpe interno ha avuto ripercussioni forti: Altman è stato sfiduciato, sebbene successivamente le dinamiche si siano complicate. Sutskever, dopo questi eventi, ha perso la sua posizione all’interno dell’azienda. Le tensioni rivelano un’OpenAI in lotta con sé stessa, chiamata a decidere come affrontare un futuro dominato da macchine capaci di simulare la mente umana. Questi conflitti politici interni si intrecciano con paure più ampie, legate all’uso e al controllo di tecnologie che possono modificare profondamente la società.

La storia di Sutskever, fatta di genio, paure e giochi di potere, mostra un lato nascosto e complesso della rivoluzione digitale, dove la scienza incontra le controversie etiche e politiche attorno alle intelligenze artificiali sempre più avanzate.