Intelligenza artificiale: TongTong (nella foto, al centro) è un agente di intelligenza artificiale generale (AGI) presso il Beijing Institute for General Artificial Intelligence (BIGAI), incarnato in un mondo virtuale che emula la complessità del mondo sociale fisico reale. Qui, interagisce con sua madre e genera compiti basati sulla sua funzione di valore. FOTO: ZHEN CHEN E XIAOMENG GAO
TongTong (nella foto, al centro) è un agente di intelligenza artificiale generale (AGI) presso il Beijing Institute for General Artificial Intelligence (BIGAI), incarnato in un mondo virtuale che emula la complessità del mondo sociale fisico reale. Qui, interagisce con sua madre e genera compiti basati sulla sua funzione di valore. FOTO: ZHEN CHEN E XIAOMENG GAO.
La ricerca sull’intelligenza artificiale generale sta entrando in una nuova era
A volte, meno è meglio. A gennaio, DeepSeek ha rilasciato l’ultima versione del suo chatbot, rivoluzionando il mondo dell’intelligenza artificiale (IA). Un’IA di addestramento costruita con un budget inferiore ai 6 milioni di dollari, DeepSeek sembra rivaleggiare con le capacità tecniche di altre IA basate su modelli linguistici di grandi dimensioni (LLM), tra cui ChatGPT, con solo una frazione della potenza di elaborazione. Questa svolta è stata un’evoluzione positiva per Song-Chun Zhu, Preside dell’Istituto di Intelligenza Artificiale dell’Università di Pechino, che ha sfidato l’attuale paradigma di IA dominato dagli LLM nel suo impegno per creare un’intelligenza artificiale generale (AGI).
Zhu, pioniere nel campo dell’intelligenza artificiale, si è laureato all’Università di Harvard nel 1996 e ha pubblicato oltre 400 articoli su visione artificiale, scienze cognitive, autonomia dei robot e ragionamento basato sul buon senso, tra gli altri argomenti. Ora è fondatore e Direttore del Beijing Institute for General Artificial Intelligence (BIGAI), un’organizzazione no-profit.
- Song-Chun Zhu
- Istituto di Pechino per l’intelligenza artificiale.
“Noi come società potremmo aver frainteso il termine ‘IA‘”, afferma Zhu. “Proprio come chiamiamo ‘intelligente’ un cellulare multifunzione, i modelli di IA più diffusi che utilizziamo oggi non sono veramente intelligenti“. “Questo perché l’IA odierna“, spiega, “è guidata da big data basati su un’enorme potenza di calcolo”. Zhu è stato pioniere negli approcci statistici basati sui dati e ha creato il primo dataset di immagini annotate su larga scala al mondo presso il Lotus Hill Institute nel 2005. Tuttavia, si è reso conto che i big data e i modelli specifici di apprendimento automatico da soli non sono sufficienti a creare una vera intelligenza. “Una delle principali scuole filosofiche cinesi, lo Yangmingismo o ‘Insegnamenti del Cuore’, sostiene che ‘la realtà che vediamo deriva da come la nostra mente percepisce’“, afferma Zhu. “Per rendere l’IA più simile agli esseri umani“, dice, “è necessario che abbia un framework che emuli i meccanismi top-down del cervello“.
Secondo Zhu, il futuro dell’intelligenza artificiale generale dovrebbe essere una sorta di intelligenza artificiale autonoma che non richieda enormi set di dati. Nel 2020, Zhu è tornato in Cina per fondare e guidare BIGAI. La sua missione: perseguire una teoria unificata dell’intelligenza artificiale al fine di creare agenti intelligenti generali per il miglioramento dell’umanità.
Definizione degli agenti AGI nello spazio CUV
L’obiettivo di Zhu e del suo team presso BIGAI è creare una cognizione simile a quella umana, orientata al valore, che vada oltre l’imitazione basata sui dati. “La differenza tra l’AGI e l’attuale IA basata sui LLM è proprio come la differenza tra un corvo e un pappagallo”, ha affermato. “Mentre i pappagalli possono imitare molte parole, i corvi possono raggiungere i loro obiettivi in modo autonomo nel mondo reale”. In un articolo pubblicato nel 2017, Zhu discute di come i modelli statistici, su cui si basano i moderni LLM, funzionino come “pappagalli stocastici”. Mentre guidava due iniziative di ricerca universitaria multidisciplinare presso l’UCLA, Zhu ha condotto ricerche per rendere le macchine più simili ai corvi, esplorando i meccanismi cerebrali che permettono ai corvi – e agli esseri umani – di comprendere il mondo fisico e sociale e di agire di conseguenza.
L’intelligenza umana si evolve nel tempo, con il cambiamento del corpo e l’accumularsi delle esperienze. Anche l’AGI matura nel tempo. Per contribuire a definire, valutare e migliorare lo sviluppo dell’AGI, Zhu ha proposto di definirla nello spazio matematico del “framework CUV”. In questo framework, C è “l’architettura cognitiva” dell’AGI per pensare, ovvero la sua simulazione dei processi decisionali nel cervello. U è un insieme di “funzioni potenziali” che rappresentano la capacità di un’AGI di comprendere e interagire con il suo ambiente. V è un insieme di “funzioni di valore” interne gerarchiche che forniscono la motivazione dell’AGI. Con questa formulazione, Zhu e colleghi possono definire gli agenti AGI come punti in questo spazio CUV e caratterizzare i loro processi di apprendimento e autoriflessione.
Il test di Tong
In cinese, la parola “generale” si traduce come Tong (通), un carattere che è anche il logo di BIGAI. Disposto artisticamente, il carattere contiene anche le lettere inglesi “AGI”. Tong Tong è il nome che Zhu ha dato alla prima agente AGI al mondo nata presso BIGAI, una bambina cinese digitale che sembra avere circa 3 o 4 anni. Tong Tong rappresenta un passo avanti nella ricerca sull’AGI, e i ricercatori vogliono davvero sapere “Cosa sta pensando?” e ”Come sta imparando e prendendo decisioni?”. I ricercatori si affidano da tempo ai test per valutare i modelli di intelligenza artificiale. Il test di Turing è stato sviluppato per determinare se una macchina potesse imitare l’intelligenza umana attraverso il dialogo. ChatGPT e altre intelligenze artificiali basate su big data possono superare il test di Turing, ma Zhu voleva un test in grado di valutare l’intelligenza umana in senso lato. Così è nato il test di Tong, che si basa sul framework CUV.

Ciò che distingue Tong Tong da ChatGPT è che non esiste nel vuoto, ma è piuttosto incarnata in un mondo virtuale che emula la complessità del mondo sociale fisico reale. Il test di Tong esamina la comprensione di questo mondo da parte di un’IA – le sue capacità – così come le motivazioni interne ai comportamenti dell’IA – i suoi valori. Ad esempio, il modo in cui un’IA reagisce a un bambino che piange seduto sul pavimento può dire molto sul suo ragionamento basato sul buon senso, sulla sua capacità di inferenza delle interazioni sociali e sulla sua autoconsapevolezza.
“Queste capacità naturali come le emozioni e il linguaggio sono la vera incarnazione dell’intelligenza umana”, afferma Zhu. “Tong Tong può anche essere un agente dell’IA, ma è proprio come un bambino vero, in grado di comprendere e comportarsi in base al proprio ambiente, anche se cambia. L’obiettivo del test di Tong è costruire un sistema di valutazione sistematico per promuovere parametri di riferimento e valutazioni standardizzati, quantitativi e oggettivi per l’IA“. E Tong Tong è solo l’inizio; i ricercatori del BIGAI stanno sviluppando diversi agenti AGI che un giorno potrebbero entrare nel mondo fisico attraverso la robotica e altri mezzi per servire la società in modi significativi.
Sicurezza AGI
Con la continua crescita e maturazione di Tong Tong e del test di Tong, la sicurezza dell’AGI è al primo posto per Zhu.
Poiché il comportamento dell’AGI è simile a quello umano e non tutti gli esseri umani sono benevoli, esiste il rischio che l’AGI intraprenda azioni che non siano nel migliore interesse dell’umanità. D’altra parte, l’architettura cognitiva dell’AGI potrebbe essere in grado di incorporare una teoria della mente reciproca, in altre parole la regola d’oro: fai agli altri ciò che vorresti che facessero a te.
Nel corso di una tavola rotonda tenutasi a SafeAI 2023, Zhu e Stuart Russell dell’Università della California Berkeley, due figure di spicco dell’AGI, hanno avuto un dibattito approfondito sui rischi e l’etica dell’AGI.
Leggi anche:L’intelligenza artificiale affronta le previsioni cliniche sul cancro
Quando Russell ha sollevato la questione di come gli esseri umani potessero tenere sotto controllo gli agenti AGI, Zhu ha risposto: “Per prevenire potenziali minacce all’umanità da parte di futuri agenti AGI, possiamo gradualmente ampliare le capacità e lo spazio di valore degli agenti. È simile al modo in cui ci avviciniamo ai robot: inizialmente, li confinamo in una ‘gabbia’ e gradualmente ne aumentiamo i permessi. Ora abbiamo già veicoli autonomi che operano su strade specifiche“. Zhu ha aggiunto che, una volta che gli agenti AGI si saranno dimostrati sicuri e controllabili, potranno godere di maggiore libertà, con la garanzia di comprensione e trasparenza. “Se riusciamo a rappresentare in modo esplicito l’architettura cognitiva degli agenti AGI, comprendendone il funzionamento, saremo meglio attrezzati per controllarli“.
Per Zhu, questo è l’inizio di una nuova era per l’evoluzione dell’IA in AGI. Il relatore dottorando di Zhu ad Harvard, il matematico e medaglia Fields David Mumford, è anche un sostenitore della creazione di IA con l’architettura neurale top-down del cervello umano. Ha consegnato a Zhu un trofeo per riconoscere la sua perseveranza nell’innovazione dell’AGI. “Il futuro dell’AGI sarà una combinazione di scienza e filosofia”, afferma Zhu. “Gli insegnamenti cinesi sul cuore sono cruciali per guidare l’AGI verso un comportamento umano realmente benefico”.
Fonte: Science