Piazza Rossa – V mensile: Teoria e organizzazione

C’è necessità, oggi più che mai, non solo di idee, ma di teoria. Non basta “allargare il dibattito pubblico”, la discussione, la partecipazione. Non basta, in realtà, neanche un aumento generalizzato della cultura e della sensibilità dei singoli individui. Serve, prima di tutto, una esatta, ragionata, dottrinale visione del mondo. Serve una teoria. Sia per capire come poterla servire meglio attraverso i mezzi che abbiamo, sia per poter finalmente porre fosse al caos dato dall’incoerenza di alcune posizioni rispetto ad altre. Incoerenza per cui non basta, come citato precedentemente, una grande intelligenza individuale o una sensibilità spiccata: l’unica soluzione al disordine è e rimane l’avere una linea, un paradigma chiaro e netto da seguire. Quante volte vi siete chiesti, ad esempio, come un vostro amico o un vostro parente possa appoggiare la causa palestinese e, allo stesso tempo, appoggiare la causa ucraina? O come un’antifascista possa piangere a dirotto per la scomparsa di un estremista di destra come Navalny? O come si possa apprezzare e ricondividere un giornalista, un politicante di turno solo perché, su una singola cosa, si è espresso come lo avremmo fatto noi? La risposta è semplice: non c’è dottrina. C’è, invece, uno sconfortante situazionismo politico dettato dalla necessità del momento o, ancora peggior, dall’emotività. 

Dottrina che, invece, non è mancata a Ilya Sutskever, co-fondatore di OpenAI e Jan Leike, uno dei suoi ricercatori di punta. Entrambi con una visione ben chiara di quale indirizzo debba prendere il futuro, prima creando e dirigendo il “Superalignment Team”, poi uscendo entrambi da OpenAI non appena l’azienda ha annunciato la chiusura definitiva del team. La pagina di presentazione del team, ancora accessibile online, chiariva immediatamente i propri obiettivi e il motivo della sua necessità:

“La superintelligenza sarà la tecnologia di maggior impatto che l’umanità abbia mai inventato e potrebbe aiutarci a risolvere molti dei problemi più importanti del mondo. Ma il vasto potere della superintelligenza potrebbe anche essere molto pericoloso e portare alla perdita di potere dell’umanità o, addirittura, all’estinzione umana. Anche se la superintelligenza sembra lontana adesso, crediamo che potrebbe arrivare entro questo decennio. La gestione di questi rischi richiederà, tra le altre cose, nuovi livelli di governance e la risoluzione del problema dell’allineamento della superintelligenza:

Come possiamo garantire che i sistemi di intelligenza artificiale molto più intelligenti degli umani seguano l’intento umano?

Per risolvere questo problema entro quattro anni, stiamo creando un nuovo team, co-guidato da Ilya Sutskever e Jan Leike, e dedicheremo il 20% del calcolo che abbiamo ottenuto finora a questo impegno.”

Neanche un anno dopo, tutti questi bei propositi sono andati in fumo con l’ufficialità, da parte di OpenAI, di cancellazione del team. Cancellazione che non è stata ben accolta da Leike, che descrive così la sua polemica uscita dall’azienda:

“Pensavo che OpenAI sarebbe stato il miglior posto al mondo per fare ricerca. Tuttavia, sono in disaccordo con la leadership di OpenAI sulle priorità fondamentali dell’azienda da un bel po’ di tempo ormai, fino a quando non abbiamo raggiunto un punto di rottura.
Questi problemi sono piuttosto difficili da risolvere, e sono preoccupato perché non siamo sulla buona strada. Costruire macchine più intelligenti degli esseri umani è un’impresa intrinsecamente pericolosa. OpenAI si sta assumendo un’enorme responsabilità per conto di tutta l’umanità.”

Il Politburo delibera quindi quanto segue: è mandatorio fare nostro l’insegnamento di questa vicenda e cioè che, anzitutto, l’intelligenza, la conoscenza, la cultura non bastano per una società migliore. Quanti altri geni continueranno comunque a lavorare per OpenAI senza alcuno scrupolo o etica? Ne consegue che non possiamo credere che il futuro di una società migliore possa ricadere unicamente sulle spalle di pochi eletti. Le scelte individuali sono giuste ma non efficaci.
Alla necessità della teoria dobbiamo affiancare la necessità dell’organizzazione, prima che sia troppo tardi. 

Leggilo gratis in versione impaginata e sfogliabile sul numero 2 di V – il mensile di critica videoludica