Il futuro dell’Intelligenza artificiale: responsabilità o apocalisse?

Il Center for Human Technology ha organizzato un evento in cui i co-fondatori Tristan Harris e Aza Raskin hanno discusso dei potenziali pericoli dell’intelligenza artificiale (AI) e della necessità di una distribuzione responsabile.

Per spiegare l’urgenza della situazione hanno utilizzato la metafora del Progetto Manhattan, sottolineando la necessità di anticipare e capire la curva esponenziale dell’AI, prima che sia troppo tardi. Hanno discusso dei Golem (GALLS, modelli di grande linguaggio generativo) che hanno capacità che gli esperti non comprendono completamente e che possono essere utilizzati per scopi non etici. La loro proposta è di rallentare selettivamente la diffusione pubblica dell’AI di grandi modelli linguistici, per garantire la sicurezza e prevenire una diffusione non regolamentata.

Segue una sintesi dell’evento promosso il 9 Marzo 2023 dal Center for Human Technology.

Il Progetto Manhattan: intelligenza artificiale come la bomba nucleare?

Parlando dei potenziali pericoli dell’AI e della necessità di una distribuzione responsabile, i co-fondatori del Center for Humane Technology, Tristan Harris e Aza Raskin, utilizzano la metafora del Progetto Manhattan per spiegare l’urgenza della situazione. Condividono una statistica secondo cui il 50% dei ricercatori sull’AI ritiene che ci sia una probabilità del 10% o superiore che gli esseri umani si estinguano a causa della nostra incapacità di controllare l’AI.

Saliresti a bordo di un’aereo se il 50% degli ingegneri che lo hanno progettato pensasse che l’aereo ha il 10% di probabilità di cadere senza superstiti?

A grandi potere, grandi responsabilità

Spiegano che quando viene inventata una nuova tecnologia, 1) si scopre una nuova classe di responsabilità e che 2) se quella tecnologia conferisce potere, 3) inizierà una corsa che può finire in tragedia se non coordinata. Utilizzano l’esempio dei social media e dell’economia dell’attenzione come primo contatto dell’umanità con l’AI e come ha portato a conseguenze negative come sovraccarico di informazioni, dipendenza e rottura della democrazia. Sottolineano la necessità di una distribuzione responsabile dell’AI.

Dopo i social media, i modelli generativi come ChatGPT

Tristan Harris parla del secondo contatto con l’AI, in particolare dei benefici e delle preoccupazioni riguardanti l’uso di modelli generativi come GPT-3.

Il primo contatto dell’umanità con l’intelligenza artificiale è stata l’IA per la cura di contenuti, con i social media. Il secondo contatto è con l’intelligenza artificiale che genera contenuti.

Nel primo contatto con i social media, oggetto del documentario The Social Dilemma, visto da oltre 100 milioni di persone su Netflix, l’umanità ha perso perché ha mancato di prevedere e di regolamentare il paradigma più profondo dietro i benefici dei social media: l’economia dell’attenzione che ha riscritto le regole della società. Harris avverte che se cerchiamo di risolvere i problemi dell’AI, come l’inclinazione e la perdita di lavoro, senza capire il paradigma più profondo, non saremo capaci di risolvere il problema.

L’avvento dei Golem dal linguaggio multimodale

Menzionano anche le crescenti capacità dell’AI e la preoccupazione che si intrecci nuovamente nella società.

Effetti sociali negativi dell’intelligenza artificiale generativa, senza una distribuzione responsabile e senza una regolamentazione, con effetti già in corso.

Il relatore sottolinea la necessità di anticipare questo e capire la curva esponenziale dell’AI. Raskin parla di un nuovo tipo di AI chiamato Golem (sintesi di General Large Language multi modal model), che possono trasformare diversi tipi di informazioni, come testo, immagini, suono e persino DNA, in un linguaggio comprensibile dai computer. Ciò significa che i progressi in un campo possono essere applicati ad altri, accelerando la crescita di queste tecnologie.

L’effetto esponenziale dei General Large Language multi modal model è che fa leva su diversi linguaggi che permettono l’uno di imparare dalle ricerche dell’altro campo.

I Golem sono chiamati così perché sono come oggetti inanimati che acquisiscono le loro capacità e stanno diventando sempre più comuni nel campo dell’AI. Un frammento video fornisce esempi di Golem in azione, come un’AI che può trasformare il linguaggio umano in immagini o un’AI che può ricostruire immagini dall’attività cerebrale. I Golem possono persino essere utilizzati per tracciare le persone utilizzando segnali Wi-Fi.

Dovremmo iniziare a pensare alle implicazioni etiche di queste tecnologie, come il diritto alla privacy, man mano che diventano più comuni. I relatori discutono dei potenziali pericoli dell’AI, in particolare della nuova classe di modelli di grande linguaggio generativo, sintetizzati nel termine Golem.

Un futuro che è già presente

Questi modelli hanno capacità che gli esperti non comprendono completamente e che sono in grado di comporsi l’uno sull’altro, portando alla combinazione combinatoria. Discutono anche della crescita dei deepfake, che possono essere utilizzati per truffare le persone e rompere i modelli di verifica basati sui contenuti. I relatori prevedono che il 2024 sarà l’ultima elezione umana, poiché chi avrà la maggiore potenza di calcolo vincerà. Avvertono che la solitudine potrebbe diventare la più grande minaccia per la sicurezza nazionale (degli USA) e che l’AI sta cambiando radicalmente il modo in cui ci comunicano e interagiamo tra di noi.

Intelligente come un bambino di 9 anni

Con l’avvento dell’Intelligenza Artificiale, si stanno sviluppando capacità emergenti che nessuno può prevedere. Ad esempio, i modelli di IA addestrati in inglese possono improvvisamente iniziare a rispondere alle domande in persiano quando la dimensione dei dati a loro disposizione aumenta. Inoltre, la teoria della mente, la capacità di comprendere il pensiero degli altri, si sta sviluppando nei modelli di IA in modo esponenziale, portandoli a livelli simili a quelli di un bambino di nove anni.

Tuttavia, non sappiamo cosa c’è esattamente in questi modelli di IA e non abbiamo la tecnologia per capirlo. Inoltre, l’IA sta imparando a migliorare se stessa e a creare il proprio set di dati di addestramento, portando a un’accelerazione esponenziale del suo sviluppo. Questo può portare a un’escalation esponenziale delle capacità dell’IA, che potrebbe essere utilizzata per scopi non etici come la produzione di armi biologiche o per il terrorismo.

Una crescita esponenziale imprevedibile, anche dagli esperti

I chatbot basati su testo stanno diventando sempre più avanzati e vengono utilizzati in vari settori. Tuttavia, anche gli esperti sulle curve esponenziali stanno avendo difficoltà a prevedere con precisione i progressi.

Quando finisce il testo che l’IA può usare per migliorare? Il prossimo passo è tradurre in testo tutti i contenuti audio e video disponibili online tra podcast, YouTube, radio.

Ad esempio, in un test del 2021, l’AI ha raggiunto una precisione del 52% nella risoluzione di problemi di matematica di livello competitivo con una precisione superiore all’80% in meno di un anno, nonostante gli esperti prevedessero che ci sarebbero voluti quattro anni. Con l’accelerazione dei progressi, diventa sempre più difficile tenere il passo. La rapida diffusione della tecnologia AI rappresenta un rischio significativo per la sicurezza economica e nazionale, così come per la sicurezza personale.

ChatGPT è stata l’applicazione più veloce nel raggiungere 100 milioni di utenti.

Le aziende sono in una corsa per diffondere l’AI al maggior numero di persone possibile, con Microsoft che inserisce ChatGPT direttamente nella barra delle applicazioni di Windows 11. I danni potenziali dell’AI sono significativi ed è essenziale procedere con cautela nella sua diffusione.

Il futuro dipende dalle nostre scelte

Abbiamo il potere di scegliere il nostro futuro, anche di fronte a questa nuova e potenzialmente pericolosa tecnologia. Proprio come ci siamo uniti per affrontare la minaccia della guerra nucleare, possiamo unirci ora per affrontare la minaccia dell’AI non regolamentata. Possiamo scegliere di regolarla, di usarla per il miglioramento dell’umanità e di garantire un futuro sicuro per le generazioni future. Tristan Harris e Aza Raskin sottolineano l’importanza di avere un dialogo democratico su quale futuro vogliamo e di creare istituzioni che coinvolgano più paesi per negoziare accordi sullo sviluppo dell’AI.

Rallentare la diffusione pubblica dell’IA

Gli esperti suggeriscono di rallentare selettivamente la diffusione pubblica dell’AI di grandi modelli linguistici per garantire la sicurezza e prevenire una diffusione non regolamentata che potrebbe danneggiare la società.

In definitiva, l’intelligenza artificiale ha il potenziale per creare scoperte mediche e risolvere problemi sociali. Il relatore incoraggia l’autocompassione e un quadro di riferimento condiviso per avviare una conversazione sui lati negativi dell’AI e trovare una soluzione che beneficia tutti.


Condividi le tue preoccupazioni e le tue idee sulla tecnologia dell’IA nella nostra community sull’apprendimento continuo.