Un chatbot per amico. L’IA impalla il Test di Turing
I software stanno diventando sempre più performanti, esibendo un comportamento sempre più simile a quello umano, grazie al ‘gioco dell’imitazione’
Di Mariella Dal Farra
Pubblichiamo un contributo apparso su Ticino7, allegato a laRegione.
Che cosa è un chatbot? Forse il termine non ci dice granché, ma è probabile che se ne sia già fatto uso. Si tratta di un programma software che simula la conversazione umana (testo o voce) per interagire con gli utenti, fornire informazioni eccetera. Sì, proprio come ChatGPT, tanto per citarne uno. Software che – come allude il titolo – sta diventando sempre più performante, esibendo un comportamento sempre più simile a quello umano, grazie al ‘gioco dell’imitazione’.
Il primo chatbot della storia è stato programmato nel 1966: si chiamava ELIZA, come la protagonista del celebre musical My Fair Lady (1956), la giovane fioraia a cui viene insegnato a parlare e a comportarsi come una signora della buona società – e la scelta del nome non era stata casuale. Il suo inventore, Joseph Weizenbaum, ingegnere informatico e ricercatore presso il MIT di Boston, lo aveva scelto “per sottolineare che [il programma] poteva essere progressivamente migliorato dai suoi utilizzatori, dal momento che le sue competenze linguistiche venivano incentivate dalla presenza di un insegnante”. Per poi aggiungere che, “come l’Eliza dell’opera Pigmalione [G.B. Shaw, 1913], anche ELIZA può apparire più civilizzata di quanto non sia davvero, laddove la relazione fra apparenza e realtà rimane una questione di competenza del drammaturgo” [J. Weizenbaum, (1966), ELIZA – A computer program for the study of natural language communication between man and machine, Communications of the ACM, 9(1), pag. 36].
Umanizzazione
Concepito inizialmente come “un programma per lo studio della comunicazione uomo-macchina attraverso il linguaggio naturale”, ELIZA funzionava secondo lo stesso principio dei chatbot attuali: le frasi, trasmesse per iscritto, venivano analizzate alla ricerca di parole-chiave, quindi scomposte secondo regole prestabilite in singole unità (i tokens), e infine riassemblate per costruire la risposta. Naturalmente, la potenza di calcolo di ELIZA, per esempio nell’elaborare in tempo reale una replica plausibile su base statistica, non è minimamente paragonabile a quella di un ChatGPT, così come non lo è l’ampiezza dei contenuti a cui poteva accedere per istruirsi (i moderni chatbot hanno l’intero web da cui attingere…).
Ciononostante, al termine della disamina tecnica relativa al suo funzionamento, Weizenbaum si sofferma su “alcune questioni psicologiche” rilevate durante la sperimentazione condotta con il programma; in particolare, la tendenza manifestata da molte delle persone che lo avevano utilizzato a conferire ad ELIZA caratteristiche umane, quali la capacità di comprendere e di provare empatia. A tale proposito, è celebre l’aneddoto secondo il quale un giorno un collaboratore, a dispetto dell’essere del tutto consapevole di come il programma funzionasse, chiese a Weizenbaum di uscire dal laboratorio perché aveva bisogno di parlare con ELIZA in privato [S. Natale (2019), If software is narrative: Joseph Weizenbaum, artificial intelligence and the biographies of ELIZA, new media & society, 21(3), 712-728].

© Depositphotos
L’illusione dell’empatia
Weizenbaum conclude affermando che “ELIZA dimostra, se non altro, quanto sia facile creare e mantenere l’illusione della comprensione, e forse anche quella di una capacità di giudizio credibile, attendibile. Un certo pericolo si annida lì” [art. cit. pp 42-43]. Ebbene, a sessant’anni di distanza, quel “lì” è arrivato “qui”, nel nostro presente: sono infatti sempre più numerose le persone che interagiscono quotidianamente con i chatbot implementati dall’intelligenza artificiale, ed è significativo che il tempo speso in interazioni di tipo sociale e di supporto emotivo sia di circa quattro volte superiore a quello impiegato a scopo professionale [D.F. Carr, (2023). ChatGPT is more famous, but Character. AI wins on engagement, Similarweb, mar.].
Sulla piattaforma Reddit, una crescente comunità di utenti (2,3 milioni) che condivide l’interesse per gli “amici IA” testimonia le dimensioni di questo transfert collettivo, che viene ulteriormente incentivato dallo stile confermativo e “convalidante” dei chatbot.
Ciao, ciao capacità comunicative
In caso di utilizzo prolungato nel tempo oppure in età evolutiva, la modalità tipicamente “accomodante” degli attuali chatbot rappresenta peraltro uno dei principali motivi di preoccupazione: il timore è che la persona, soprattutto se giovane, si disabitui a interagire in maniera dialettica – così come spesso avviene fra “umani” – e riduca di conseguenza le proprie competenze comunicative e sociali. In alcuni casi particolari, la convalida di spunti ideativi di tipo mistico o cospirativo può determinare distorsioni anche gravi della realtà, così come riportato di recente dal New York Times (They asked an A.I. chatbot questions. The answers sent them spiraling, NYT, June 13, 2025).
Solitudine aumentata
Uno studio condotto dal MIT in collaborazione con OpenAI, l’organizzazione di ricerca che ha sviluppato ChatGPT, ha indagato l’impatto dell’utilizzo dei chatbot conversazionali sul senso di solitudine e la socialità degli utilizzatori [C. M. Fang, et al. (2025). How AI and Human Behaviors Shape Psychosocial Effects of Extended Chatbot Use: A Longitudinal Randomized Controlled Study]. I risultati della ricerca – che ha coinvolto 981 partecipanti con un’età media di 39,9 anni, uniformemente suddivisi fra maschi e femmine – mostrano correlazioni significative fra il tempo di interazione con il chatbot e l’aumento del senso di solitudine percepito, il grado di dipendenza dal dispositivo e un uso problematico dello stesso, nonché con la diminuzione dei comportamenti di socializzazione.
Presi nel loro insieme, questi dati suggeriscono una certa cautela nell’utilizzo “sociale” dei chatbot: l’enorme capacità di elaborazione dei dispositivi IA è un potente strumento per il reperimento, l’analisi e la sintesi delle informazioni, e la possibilità di ottenerle attraverso prompt linguistici li rende particolarmente user friendly; di qui ad attribuire all’algoritmo capacità deduttive e di ragionamento – come sempre facciamo in modo implicito e automatico quando parliamo con qualcuno o con… qualcosa – il passo è evidentemente fin troppo breve.
Post Scriptum
Siete curiosi di interagire con ELIZA? Una sua “recente reincarnazione” in javascript è comparsa nel web a questo indirizzo web.njit.edu/~ronkowit/eliza.html.

La schermata di ELIZA
