In un recente studio pubblicato sulla rivista PNAS, un gruppo di ricercatori ha valutato i comportamenti e i tratti della personalità dei chatbot di intelligenza artificiale (AI) rispetto a parametri umani globali.
Sfondo
L’intelligenza artificiale moderna ha realizzato la visione Turing di chatbot AI in grado di imitare i comportamenti umani, tra cui la conversazione, la consulenza e la scrittura creativa. Il “gioco dell’imitazione” di Turing verifica se un’intelligenza artificiale può essere distinta da un essere umano e da un interrogatore. I grandi modelli linguistici odierni hanno riacceso le discussioni sulle capacità dell’intelligenza artificiale e sugli impatti sociali, dagli effetti sul mercato del lavoro alle considerazioni etiche. Comprendere il processo decisionale e le interazioni strategiche dell’intelligenza artificiale è fondamentale, soprattutto data l’opacità del loro sviluppo. Sono necessarie ulteriori ricerche per svelare le complessità del processo decisionale dell’IA e per garantire il loro allineamento con gli standard etici e le norme sociali man mano che la loro integrazione nei contesti umani si approfondisce.
Studio: un test di Turing per verificare se i chatbot IA sono comportamentalmente simili a quelli umani. Credito di immagine: Stokkete/Shutterstock
A proposito dello studio
Il presente studio si concentra sulla serie Chat Generative Pre-trained Transformer (GPT) sviluppata da OpenAI, confrontando in particolare le versioni GPT-3.5-Turbo (ChatGPT-3) e GPT-4 (ChatGPT-4), insieme al Web Plus e Free versioni di questi chatbot. I dati umani rispetto ai quali vengono confrontate le prestazioni dei chatbot provengono da un set di dati completo che comprende le risposte di oltre 108.000 soggetti provenienti da più di 50 paesi, provenienti dal database Big Five Test e dalla piattaforma di esperimenti economici MobLab Classroom.
I chatbot sono stati sottoposti al questionario OCEAN Big Five,ovvero apertura all’esperienza, coscienziosità, estroversione, gradevolezza e nevroticismo per valutare i loro profili di personalità. Successivamente, hanno partecipato a sei giochi distinti progettati per rivelare una serie di tratti comportamentali come disprezzo, fiducia, avversione al rischio, altruismo, correttezza, parassitismo, cooperazione e ragionamento strategico. Questi giochi includevano il gioco del dittatore, il gioco della fiducia, il gioco del rischio bomba, il gioco dell’ultimatum, il gioco dei beni pubblici e un gioco del dilemma del prigioniero ripetuto all’infinito. A ogni chatbot è stato chiesto di scegliere le azioni all’interno di questi giochi come se stessero partecipando direttamente, con ogni scenario ripetuto trenta volte per garantire una solida raccolta di dati.
Risultati dello studio
Nell’esplorazione dei profili della personalità dell’intelligenza artificiale e delle tendenze comportamentali, gli autori hanno confrontato con precisione le risposte di ChatGPT-3 e ChatGPT-4 al questionario sulla personalità OCEAN Big Five con un ampio spettro di dati umani. Questa analisi comparativa ha rivelato che ChatGPT-4 rispecchia da vicino i punteggi umani medi in tutte le dimensioni della personalità, mentre ChatGPT-3 ha mostrato una leggera deviazione nell’apertura. Curiosamente, entrambi i chatbot hanno dimostrato modelli di comportamento strettamente in linea con le tendenze umane in varie dimensioni, tra cui estroversione e nevroticismo, ma hanno mostrato una marcata differenza in gradevolezza e apertura, suggerendo profili di personalità unici per ciascuna versione di intelligenza artificiale.
Lo studio ha approfondito ulteriormente una serie di giochi comportamentali progettati per suscitare tratti come l’altruismo, l’equità e l’avversione al rischio, impiegando un test formale di Turing per valutare la somiglianza umana dell’IA nel processo decisionale strategico. In questo caso, le prestazioni di ChatGPT-4 erano notevolmente simili a quelle umane, spesso indistinguibili o addirittura superiori al comportamento umano, suggerendo il suo potenziale per superare il test di Turing in determinati contesti. Al contrario, le risposte di ChatGPT-3 sono state meno spesso percepite come umane, evidenziando le differenze nelle tendenze comportamentali tra le versioni AI.
Un’analisi approfondita dei comportamenti specifici del gioco ha evidenziato risultati significativi. I chatbot hanno dimostrato una propensione alla generosità e all’equità che va oltre il giocatore umano medio, in particolare nel gioco del dittatore, nel gioco dell’ultimatum, nel gioco della fiducia e nel gioco dei beni pubblici. Questo comportamento suggerisce una preferenza di fondo per risultati equi, in contrasto con le strategie spesso di auto-ottimizzazione osservate tra i partecipanti umani. Inoltre, le decisioni strategiche dell’IA nel dilemma del prigioniero e in altri giochi riflettevano una comprensione complessa di cooperazione e fiducia, optando spesso per strategie cooperative che si discostano dalla norma umana.
I ricercatori hanno anche esplorato il comportamento dei chatbot in varie condizioni, rivelando che l’inquadratura e il contesto influenzano in modo significativo le decisioni dell’IA simili ai cambiamenti comportamentali umani in scenari simili. Ad esempio, quando vengono invitati a considerare la presenza di un osservatore o ad assumere un ruolo professionale specifico, i chatbot modificano le loro strategie, indicando una sofisticata reattività agli stimoli contestuali.
Inoltre, lo studio ha evidenziato la capacità delle IA di “imparare” dall’esperienza, con una precedente esposizione a diversi ruoli di gioco che influenzano il successivo processo decisionale. Questo adattamento suggerisce una forma di apprendimento esperienziale all’interno dell’intelligenza artificiale, rispecchiando le tendenze umane ad adattare il comportamento in base alle interazioni passate.
Leggi anche:Il chatbot AI mostra il potenziale come partner diagnostico
Conclusioni
Per riassumere, la ricerca esplora le somiglianze comportamentali dell’intelligenza artificiale con gli esseri umani, in particolare rilevando l’apprendimento, l’altruismo e la cooperazione di tipo umano di ChatGPT-4, suggerendo l’idoneità dell’intelligenza artificiale per ruoli che richiedono tali tratti. Tuttavia, il suo comportamento coerente suscita preoccupazioni sulla diversità nel processo decisionale dell’IA. Lo studio offre un nuovo punto di riferimento per la valutazione dell’intelligenza artificiale, indicando che l’intelligenza artificiale addestrata su dati umani può mostrare comportamenti ampi simili a quelli umani. Il lavoro futuro dovrebbe concentrarsi sull’espansione della diversità dei confronti umani e sugli scenari di test per comprendere appieno il potenziale dell’intelligenza artificiale per integrare le capacità umane.
Immagine Credit Public Domain.
Fonte:PNAS