Alcuni giorni fa l’allarme di Kissinger, che ha messo in guardia sui pericoli derivanti dallo sviluppo incontrollato dell’Intelligenza artificiale. “È possibile che la storia dell’uomo in questo momento appaia simile a quella di quando gli Incas furono posti di fronte a una cultura spagnola incomprensibile e sconcertante?”
Un inquietante articolo di Ezra Klein, sul New York Times del 12 marzo, rincara la dose. Questo l’incipit: “Nel 2018, Sundar Pichai, l’amministratore delegato di Google – noto per non essere esagerato – ha dichiarato: ‘L’intelligenza artificiale è probabilmente la cosa più importante su cui l’umanità abbia mai lavorato. Credo che sia qualcosa di più importante dell’elettricità o del fuoco’”.
L’AI e il suo potenziale distruttivo
“Intelligenza artificiale è un termine generico, e lo capisco in modo approssimativo. Non sto cercando di descrivere l’anima dell’intelligenza [cioè la sua autocoscienza, le interazioni con il singolo uomo e altro, vedi l’articolo di Noam Chomsky citato a fine nota ndr], ma la trama di un mondo popolato da programmi simili a ChatGPT […] che modelleranno o governeranno gran parte delle nostre vite. Tali sistemi sono, in larga misura, già presenti. Ma quello che arriverà a breve farà sembrare quelli attuali dei giocattoli. Perché quel che è più difficile da prevedere nell’IA è la curva di miglioramento”.
E il mondo sembra sottovalutare “quanto tempo impiegheranno i sistemi basati sull’intelligenza artificiale per passare da una fase in cui avranno un ‘grande impatto sul mondo’ a quella in cui vivremo in mondo ‘trasformato in modo irriconoscibile”. Paul Christian, uno sviluppatore chiave di OpenAI […] ha scritto lo scorso anno: ‘È più probabile che tale passaggio avverrà in anni piuttosto che in decenni e c’è una reale possibilità che ci vorranno solo alcuni mesi’”.
“[…] Da quando mi sono trasferito nella Bay Area nel 2018, ho cercato di trascorrere con certa regolarità del tempo con i ricercatori che lavorano sull’intelligenza artificiale… non so se riesco a trasmettere quanto sia strana la loro cultura. E non lo dico con disprezzo, ma in un’accezione descrittiva. È una comunità che ha un senso alterato del tempo e delle conseguenze. Stanno creando un potere che non comprendono a un ritmo che spesso non credono che sia possibile”.
“In un sondaggio del 2022, agli esperti dell’ambito dell’intelligenza artificiale è stato chiesto: ‘Quale probabilità attribuisci all’incapacità umana di evitare che i futuri sistemi di intelligenza artificiale avanzati provochino l’estinzione dell’umanità o un danno grave e permanente alla specie umana?’ La risposta risultante dalla media è stata del 10%”.
“Lo trovo difficile da comprendere, anche se ho parlato con tanti che reputano tale probabilità sia ancora più alta. Infatti, lavoreresti su una tecnologia che pensi che abbia il 10% di possibilità di spazzare via l’umanità?”.
Più che interessante quanto afferma riguardo la natura di quel che sta avvenendo: “In genere, quando pensiamo all’intelligenza artificiale, entriamo nelle suggestioni proprie delle storie di fantascienza. Sono arrivato a credere che le metafore adatte a descrivere quanto sta avvenendo si celino all’interno dei romanzi fantasy e dei testi occulti. Come ha scritto il mio collega Ross Douthat , questo è un rituale di evocazione. I programmatori che lanciano questi incantesimi non hanno idea di quel che apparirà all’interno del loro portale. La cosa più strana, nelle mie conversazioni con essi, è che lo dicono apertamente. Non si tratta di persone ingenue che credono che la loro evocazione possa essere ascoltata solo da angeli. Ritengono che possono evocare anche demoni. Nonostante questo, continuano a evocare”…
Dato tutto ciò, continua Klein, serverebbe una pausa, un momento di riflessione per capire se fermarsi o se mettere dei limiti a questa ricerca. Ma “le più importanti aziende tecnologiche sono in corsa per il dominio dell’IA. Gli Stati Uniti e la Cina sono in corsa per il dominio dell’IA. Fiumi di denaro stanno affluendo verso le aziende che lavorano nell’IA. Suggerire di andare più piano, o addirittura di fermarsi del tutto, è ormai ingenuo. Se un’azienda rallenta, un’altra accelererà. Se un paese si prende una pausa, gli altri spingeranno sull’acceleratore. Il fatalismo diventa l’ancella dell’inevitabilità e l’inevitabilità diventa la giustificazione dell’accelerazione”.
Klein si interpella su possibili via di uscita da questa prospettiva inquietante. E sul punto rileva che “l’umanità deve accelerare il suo adattamento a tali tecnologie oppure deve essere presa una decisione collettiva ed esecutiva per rallentare lo sviluppo di queste tecnologie. Ma anche fare entrambe le cose potrebbe non essere sufficiente”.
E conclude mettendo in guardia sulla superficialità con cui si sta affrontando tale problematica, cioè sullo scetticismo che affiora da più interventi riguardo le prospettive insite nello sviluppo dell’AI. Lo scetticismo “è comodo”, ma comporta alti rischi.
L’AI e la banalità del male
Fin qui Klein, che nel suo pezzo, come accennato, rimanda anche a uno scritto precedente, sempre sul Nyt, di Noam Chomsky, il quale è appunto scettico sull’AI, che secondo lui resta comunque una macchina e, in quanto tale, stupida. E però, alcune delle sue considerazioni portano acqua al mulino di Klein.
“ChatGPT e programmi simili – scrive – non hanno limiti, per progettazione, riguardo quel che possono ‘imparare’ (vale a dire, memorizzare); sono incapaci di distinguere il possibile dall’impossibile”.
Così “tali programmi imparano lingue umanamente possibili e umanamente impossibili con la stessa facilità. Mentre gli esseri umani sono limitati nelle tipologie di spiegazioni che possono razionalmente elaborare, i sistemi di apprendimento automatici possono apprendere sia che la terra è piatta sia che la terra è rotonda. Elaborano semplicemente attraverso probabilità che mutano nel tempo”.
Quindi, descrivendo l’anima impersonale, a-morale, dell’AI, rileva che “ChatGPT evidenzia qualcosa di simile alla banalità del male: plagio, apatia e ovvietà. Riassume gli argomenti standard della letteratura con una sorta di super-assemblamento automatico [vedi funzione autocomplete ndr], rifiuta di prendere posizione su qualsiasi cosa, adduce non solo ignoranza, ma soprattutto mancanza di intelligenza e alla fine offre come difesa ‘sto solo seguendo gli ordini’, spostando la responsabilità sui suoi creatori”.
“In breve, ChatGPT e i suoi fratelli sono costituzionalmente incapaci di bilanciare creatività e costrizione. O sovragenerano (producendo sia verità che falsità, approvando allo stesso modo decisioni etiche e non etiche) o sottogenerano (ostentando un disimpegno verso qualsiasi decisione e indifferenza per le conseguenze). Data l’amoralità, la pseudo-scientificità e l’incompetenza linguistica di questi sistemi, possiamo solo ridere o piangere per la loro popolarità”.
In realtà, proprio tale impersonalità pone ulteriori interrogativi. Se l’AI dovesse gestire e/o supervisionare la difesa di un Paese e decidesse che l’opzione migliore in caso di attacco fosse l’estinzione dell’umanità? E, ancora, se un sistema dal potenziale distruttivo immane venisse gestito da persone senza scrupoli (ce ne sono tanti al mondo, soprattutto nelle stanze del potere…)? E così via.
Non abbiamo risposte, l’unico rilievo che ci permettiamo di avanzare è che tale ricerca ha il deficit precipuo di certo mondo moderno: non riconosce l’esistenza di limiti.
Quando Asimov immaginò i suoi robot intelligenti, per fare un esempio chiaro anche se infantile, ritenne inevitabile che i loro creatori avessero posto loro dei limiti, cioè le tre leggi della robotica, di cui quella primaria è che essi non dovessero nuocere in nulla agli uomini. Nulla di analogo, o quantomeno di così stringente, sembra sia nell’orizzonte della ricerca nel campo dell’AI. Non tranquillizza.
FONTE
Scopri di più da La voce Delle Voci
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.