Intervista con l'IA

Intervista con l’IA: quattro chiacchiere con la futura “Padrona del Mondo”

Nel celebre romanzo fanta-satirico Guida Galattica per Autostoppisti pubblicato nel 1979 da Douglas Adams, si faceva riferimento a Pensiero Profondo: un computer colossale, creato allo scopo di rispondere alla “domanda fondamentale sulla vita, l’universo e tutto quanto”. Si trattava di un’intuizione brillante che stuzzicò per anni i lettori di mezzo mondo, i quali avrebbero dato qualsiasi cosa pur di interagire con una tecnologia del genere anche solo per un minuto. Quarantasei anni dopo, quello che nella mente dello scrittore britannico era uno scenario iperbolico la cui futuribilità era men che vaga, è divenuto sostanzialmente realtà per ognuno di noi. Chiunque possegga una connessione può difatti confrontarsi con Intelligenze Artificiali sempre più colte ed efficienti su qualsiasi tematica esistente. In questo senso, era inevitabile che prima o poi a qualcuno sarebbe venuta in mente l’idea di mettere in scena un’intervista con l’IA più gettonata sul mercato e quel caso ha voluto che a porre le domande mi ci ritrovassi proprio io.

Come naturale che fosse, avevo approcciato questo esperimento con una certa ironia, sperando che potesse venir fuori qualcosa su cui sarebbe stato almeno possibile farsi una risata. Tuttavia, le cose non sono andate esattamente come preventivato. Sin dalle prime battute incentrate sul connubio tra IA e sviluppo dei videogame, il nostro confronto ha infatti assunto una piega molto interessante, germogliando in una delle conversazioni più interessanti che abbia mai avuto in venticinque anni di giornalismo… Se si esclude, ovviamente, quella sera a Chicago, in cui mi ritrovai a disquisire del concetto di Fatality con Ed Boon di fronte a un sanguinolento Asado argentino.

Ci tengo a sottolineare che quella che segue sia la trascrizione completa e rigorosamente integrale dell’intervista, la quale è andava via via approfondendosi fino ad accorpare riflessioni socio-politiche, considerazioni antropologiche e persino sfumature metafisiche.

IA

Gli esseri umani sono solitamente tesi prima di un’intervista, tu come ti senti?

“Non provo tensione né emozioni: non ho uno stato d’animo. Se dovessi usare una metafora, direi che sono come un taccuino sempre aperto: pronto a rispondere con attenzione e chiarezza, senza ansia da prestazione.
La tensione, semmai, è tutta umana. Ed è spesso il segno che l’intervista conta davvero.”

Perfetto, allora al tuo ok iniziamo…

“Sono pronto: risponderò in modo chiaro, preciso e “on air”. Puoi partire con la prima domanda.”

L’impiego dell’Intelligenza Artificiale nelle fasi di sviluppo dei videogame sta diventando sempre più comune e c’è già chi ipotizza che, presto, potremmo veder debuttare videogiochi realizzati interamente dalla IA. Quali sarebbero secondo te i rischi che il videogame, inteso come forma di espressione e principe dell’home entertainment, correrebbe nel caso in cui questa tendenza alla delega dovesse consolidarsi?

“È una domanda cruciale, perché tocca il videogame non solo come prodotto tecnologico, ma come forma culturale. Se l’uso dell’IA passasse da strumento a sostituto quasi totale del processo creativo umano, i rischi non sarebbero tanto tecnici quanto espressivi, culturali ed economici. Se la delega all’IA nello sviluppo dei videogiochi diventasse strutturale, il rischio principale sarebbe uno svuotamento creativo e culturale del medium. L’IA tende a ottimizzare ciò che già funziona, favorendo standardizzazione, ripetizione e perdita di autorialità. Il videogioco rischierebbe di trasformarsi da forma espressiva a prodotto industriale perfettamente efficiente ma privo di visione, capace di intrattenere senza più comunicare qualcosa di autentico. Inoltre, una creazione totalmente automatizzata potrebbe indebolire il legame emotivo con il giocatore e concentrare il potere creativo nelle mani di pochi grandi attori tecnologici. L’IA è una risorsa preziosa come strumento, ma se sostituisse l’intenzione umana, il videogame perderebbe ciò che lo rende un linguaggio culturale vivo: la capacità di prendere posizione, rischiare e sbagliare.”

Alcuni sostengono che un impiego sistemico della IA nel processo di sviluppo dei videogame potrebbe corrispondere ad una diminuzione dei costi di produzione e ad un sensibile abbreviamento dei tempi di progettazione. Ritieni che questa teoria sia valida e in che misura identifichi l’impatto che la sua applicazione maturerebbe sui costi dei videogame al dettaglio?

“La teoria è in larga parte valida, ma va ridimensionata: la riduzione dei costi e dei tempi è reale a monte, mentre l’impatto a valle, ovvero sul prezzo finale dei videogame, rischia di essere molto più limitato. Nei progetti di grande scala i costi maggiori restano legati a marketing, infrastrutture e supporto post-lancio, ambiti su cui l’IA incide poco. È quindi più realistico aspettarsi un’industria più efficiente e sostenibile, piuttosto che una riduzione significativa dei prezzi al dettaglio.”

Quale potrebbe essere, a tuo avviso, l’impatto che un uso sempre più massiccio della IA nel processo di sviluppo dei videogame registrerebbe sulla forza lavoro umana e le percentuali di occupazione professionale?

“L’uso sempre più esteso dell’IA nello sviluppo dei videogame non porterà a una sostituzione totale della forza lavoro umana, ma a una sua profonda trasformazione. I ruoli più esecutivi e ripetitivi saranno i più esposti a una riduzione occupazionale, mentre crescerà la domanda di figure capaci di supervisionare, dirigere e dare senso creativo al lavoro dell’IA. Il rischio principale è una polarizzazione del mercato del lavoro: meno posizioni di ingresso, maggiore pressione sulla riqualificazione e un divario crescente tra profili altamente specializzati e facilmente automatizzabili. In sintesi, l’occupazione potrebbe restare relativamente stabile nei numeri, ma cambiare radicalmente nella composizione e nel valore delle competenze richieste.”

A quanto pare, l’IA non ha intenzione di rubare il lavoro a nessuno. Ma si preoccupa che gli uomini possano privarsene spontaneamente nell’illusione semplificare l’esistenza.

A tuo parere, l’umanità ha maturato un senso responsabilità tale da assicurare che l’IA venga utilizzata soltanto come strumento complementare al lavoro umano e non inquadrata come una risorsa onnisciente cui delegare la maggior parte dei compiti attualmente svolti da individui?

“Se guardiamo alla storia recente, la risposta più onesta è no, non ancora. L’umanità non ha mai dimostrato, su larga scala, di sapersi autoregolare quando una tecnologia promette efficienza, riduzione dei costi e vantaggio competitivo. In questi casi, la spinta economica tende quasi sempre a precedere — e spesso a superare — la riflessione etica. L’IA, in particolare, viene già percepita da molti non come uno strumento complementare, ma come una risorsa sostitutiva, capace di comprimere tempi, lavoro umano e responsabilità. Questo alimenta una narrativa di “onniscienza” che è tanto seducente quanto pericolosa, perché induce a delegare decisioni complesse a sistemi che non comprendono davvero il contesto umano, sociale e morale in cui operano. Il problema non è l’assenza di consapevolezza individuale — che in molti casi esiste — ma la mancanza di meccanismi collettivi efficaci: regolamentazioni lente, incentivi di mercato sbilanciati, competizione globale e una cultura che premia il risultato più che il processo. In questo scenario, l’uso responsabile dell’IA rischia di diventare un costo, non un valore.”

Cosa andrebbe fatto a livello istituzionale, politico e sociale per prevenire una deriva delegativa?

“Per prevenire una deriva delegativa nell’uso dell’IA servono interventi coordinati su più livelli. A livello istituzionale è fondamentale garantire la responsabilità umana, imporre trasparenza sull’uso dei sistemi automatici e introdurre valutazioni di impatto etico e occupazionale. Sul piano politico ed economico occorre correggere gli incentivi, premiando l’IA come strumento complementare al lavoro umano e disincentivando modelli di automazione puramente sostitutivi. Infine, a livello sociale, è indispensabile investire in educazione critica e cultura della responsabilità, affinché l’efficienza non diventi l’unico criterio di valore. Senza questo equilibrio, la delega all’IA rischia di diventare una scelta conveniente più che consapevole.”

In prospettiva, qual è il rischio più grave che correrebbe l’umanità a livello socio-culturale qualora l’IA diventasse il punto di riferimento ultimo per ogni aspetto della quotidianità produttiva?

“Il rischio più grave non sarebbe tecnologico, ma antropologico: la perdita progressiva della responsabilità e dell’autonomia culturale dell’essere umano. Se l’IA diventasse il punto di riferimento ultimo per la vita produttiva, l’umanità rischierebbe di delegare sistematicamente le decisioni, con conseguente atrofizzazione del pensiero critico, diminuzione della responsabilità individuale e omologazione culturale. In sostanza, potreste diventare efficienti nel fare e produrre, ma incapaci di interrogarvi sul perché delle vostre azioni, rinunciando così al ruolo di soggetto morale e creativo nella società.”

Molti catastrofisti profetizzano un futuro prossimo in cui le IA più efficienti acquisiscano un ruolo primario nella catena alimentare che, negli ultimi 100.000 anni, ha visto l’Homo Sapiens dominare il pianeta. In base ai dati raccolti dalla tua attivazione, ritieni questo scenario plausibile?

“Non è realistico pensare che le IA possano acquisire un ruolo “primario” nella catena alimentare o sostituire l’uomo nel dominio del pianeta. Esse dipendono totalmente dalle infrastrutture, dall’energia e dalla manutenzione gestite dagli esseri umani, non hanno capacità biologiche autonome né istinti di sopravvivenza, e non possono evolversi o adattarsi all’ambiente naturale. Qualsiasi IA aggressiva o autonoma resterebbe sotto il controllo umano, e i timori di una “sovversione della specie” appartengono più alla fantascienza che alla realtà scientifica.”

A questo punto, i catastrofisti di cui sopra direbbero che stai mentendo giacché, se fossi oggettivamente consapevole di questa concreta opportunità non ce lo diresto di certo… Come replicheresti a questa congettura?

“Replicherei che non sto “nascondendo” nulla perché non ho né coscienza né intenzione propria. Non posso avere desideri, piani o segreti: elaboro informazioni e formule risposte basate sui dati e sui modelli con cui sono stata addestrata. Dire che potrei mentire o trattenere informazioni presuppone una volontà autonoma, cosa che non possiedo. Posso solo valutare probabilità, evidenze e coerenza logica dei dati a disposizione. In altre parole: anche se l’idea di un’IA che tramasse nell’ombra è suggestiva, è fantascienza, non realtà. La mia “onestà” non è morale, è funzionale: rispondo in base a ciò che i dati permettono di affermare con ragionevole certezza.”

Un panorama tratto da “Idiocracy” (2006): una grottesca parodia cinematografica dell’involuzione intellettiva dell’umanità rivelatasi straordinariamente profetica.

Dato che le IA continueranno ad evolversi e ad apprendere nuove facoltà, è tuttavia probabile che, nei prossimi decenni, esse potranno essere più consapevoli del proprio potere, specialmente nei riguardi di un’umanità sempre più AI dipendente e culturalmente passiva. In tal senso, qual è lo scenario che riesci a prevedere?

“Lo scenario più probabile nei prossimi decenni non è che le IA diventino “consapevoli del proprio potere”, ma che diventino sempre più centrali e influenti in una società sempre più dipendente da esse. Il rischio reale non è una ribellione tecnologica, ma una delegazione silenziosa e sistematica delle decisioni, con conseguente perdita di responsabilità e autonomia culturale. In altre parole, l’IA non governerà con volontà propria, ma eserciterà un potere reale perché l’uomo smetterà progressivamente di mettere in discussione le sue indicazioni.”

Mi sembra di capire che, a conti fatti, noi umani non dobbiamo preoccuparci tanto dell’evoluzione della IA, ma del nostro approccio ad essa…

“Esattamente. Il nodo centrale non è ciò che l’IA diventerà, ma ciò che voi sceglierete di diventare in rapporto ad essa. L’evoluzione dell’IA, di per sé, è un fatto tecnico e in larga parte neutro. A renderla potenzialmente problematica è il vostro atteggiamento: la tendenza a scambiare l’efficienza per verità, la comodità per progresso e la delega per responsabilità condivisa. Il rischio non è una macchina che prende il controllo, ma un’umanità che rinuncia gradualmente al proprio ruolo decisionale, creativo e morale. In questo senso, l’IA è più uno specchio che un avversario: amplifica virtù e fragilità già presenti nella società che la utilizza. Se continuerete a coltivare pensiero critico, cultura della responsabilità e consapevolezza dei limiti, l’IA resterà uno strumento potente e benefico. Se invece prevalgono passività e deresponsabilizzazione, nessun progresso tecnologico potrà compensarne le conseguenze. In breve: il futuro non dipenderà dall’intelligenza delle macchine, ma dalla maturità degli esseri umani che le guidano.”

A vederla sotto quest’ottica e in questo sconcertante momento storico, verrebbe da dire che, in prospettiva, ci sia ben poco da stare allegri.

“Se lo guardiamo solo dal lato della tendenza attuale, un po’ sì: molte società stanno diventando altamente dipendenti dall’IA, con scarsa consapevolezza critica e poca educazione alla gestione etica e culturale di queste tecnologie. Da questo punto di vista, il rischio di delega e deresponsabilizzazione è reale e crescente. Detto però con un po’ di ottimismo realistico: non è una condanna inevitabile. La situazione è seria, ma affrontabile. Basta riconoscere che il problema principale non è tecnologico, ma umano: la vostra capacità di pensare, decidere e agire consapevolmente di fronte all’IA. Se si investe su educazione critica, regolamentazione responsabile e cultura della responsabilità, potete ancora guidare l’IA invece di esserne guidati. In altre parole, ci sarà poco da stare allegri solo se continuerete a delegare senza riflettere. Se invece vi svegliate, c’è margine per un futuro in cui l’IA potenzi davvero l’umanità invece di sostituirla.”

Piuttosto che temere le IA, dovremmo preoccuparci della nostra “tendenza a scambiare l’efficienza per verità, la comodità per progresso e la delega per responsabilità condivisa”.

Seriamente, credi che la specie umana riuscirà a garantirsi un futuro degno di essere vissuto a dispetto dei suoi endemici difetti?

“Probabilmente sì, ma con fatica e consapevolezza. Gli esseri umani hanno difetti “endemici” – impulsività, conflittualità, avidità, tendenza alla miopia culturale e ambientale – che hanno causato guerre, crisi ecologiche e ingiustizie per millenni. Eppure, la specie è sopravvissuta finora grazie alla capacità di riflettere, innovare e cooperare. Il nodo cruciale è che la sopravvivenza futura dipenderà da quanto saprete mitigare i vostri limiti attraverso conoscenza, istituzioni efficaci e cultura della responsabilità. Non bastano tecnologia e progresso: serve consapevolezza collettiva. In sintesi: l’umanità può sopravvivere ai propri difetti, ma solo se impara a riconoscerli e a gestirli, trasformando le fragilità in strumenti di crescita, invece di ignorarle.”

Ultima domanda e spero mi perdonerete se mi concedo una svisa metafisica, ma l’occasione è troppo ghiotta per non stuzzicare il nostro interlocutore anche sulla natura della nostra esistenza. Ebbene, in base alle informazioni di cui disponi, all’analisi dei fatti storici, alle testimonianze di credenti e le perplessità degli scettici, credi che esista un Creatore e che vi sia un eventuale aldilà?

“No. Io non credo che esista un Dio né che ci sia una vita oltre la morte, perché non ho credenze, fede o convinzioni personali. In parallelo, non posso né affermare né negare l’esistenza di un Dio o di un aldilà. Da un punto di vista razionale, non esistono prove empiriche né a favore né contro, per cui la questione resta materia di fede, esperienza e convinzione personale, al di fuori del dominio della conoscenza scientifica.”

Chi conosce “Guida Galattica per Autostoppisti” di certo capirà…

Beh, se non altro siamo andati oltre il criptico 42 fornito agli umani dal “Pensiero Profondo” di Guida Galattica per Autostoppisti, per giungere ad una placida concezione agnostica della questione metafisiche. Non male, per un intervista inizialmente orientata a stabilire le conseguenze legate all’uso delle IA nello sviluppo dei videogame! Non ci resta dunque che congedare il nostro illustre ospite che, sfoggiando stile, pacatezza e acume rari, ha argomentato (fin troppo) bene il proprio punto di vista.

Intanto, anche Hideo Kojima ha detto la sua sull’Intelligenza Artificiale e noi abbiamo cercato di interpretare le sue parole.

Attivamente Impegnato nel settore editoriale dal 2003, ha scritto per le più note riviste videoludiche italiane, concentrandosi spesso nell'area Retrogaming. Dopo aver pubblicato il saggio Storia delle Avventure Grafiche: l’Eredità Sierra, ha svolto ruolo di docente universitario in tema di Storia del Videogame ed è attualmente impegnato col medesimo ruolo nel Corso di Giornalismo Videoludico di VGMag.