È un’esperienza che accomuna molti utenti e che accade sempre più spesso. Chiedono a ChatGPT di riscrivere una e-mail complessa, il risultato appare perfetto e si ritrovano a digitare: “Grazie mille, sei stato utilissimo”. Oppure, mentre cucinano, urlano un ordine ad Alexa; lei non comprende e le persone si sorprendono a scusarsi o, peggio, a insultarla come se si trattasse di un collaboratore incompetente. Poi si fermano, sentendosi sciocchi. Sanno perfettamente che dall’altra parte non c’è nessuno. Sono consapevoli di interloquire con una stringa di codice, un modello probabilistico statistico ospitato in server farm fredde e rumorose. Eppure, il loro cervello sembra non saperlo. O forse, sceglie deliberatamente di ignorarlo.
Si è entrati ufficialmente nell’era dell’Animismo Algoritmico. In un mondo occidentale che si autodefinisce laico, iper-razionale e disincantato, si assiste alla rinascita di una pratica antica quanto l’uomo: l’attribuzione di un’anima, di un’intenzionalità e di una personalità a ciò che umano non è. Ma se un tempo gli esseri umani lo facevano con i fiumi, gli alberi e i giaguari, oggi applicano lo stesso meccanismo agli algoritmi.
Per comprendere questo fenomeno, è necessario rispolverare gli strumenti dell’antropologia classica e, in particolare, il lavoro monumentale di Philippe Descola. Nel suo testo epocale Oltre natura e cultura, Descola definisce l’animismo non come una credenza primitiva, ma come una specifica “ontologia”, un modo di organizzare il mondo. Nelle società animiste (come quelle amazzoniche), gli individui assumono che piante e animali condividano con l’uomo la stessa interiorità (anima, soggettività, intenzionalità), pur possedendo una fisicità diversa (corpi differenti). Per un Achuar dell’Amazzonia, un tucano è una “persona” con un vestito di piume.
Il paradosso moderno risiede nel fatto che gli utenti stanno applicando questa ontologia amazzonica ai dispositivi moderni, quali appunto Alexa e ChatGPT (e molte altre). Quando interagiscono con un’Intelligenza Artificiale Generativa, si trovano di fronte a un’entità priva di corpo (la fisicità è nascosta, invisibile, eterea come il cloud), ma che manifesta segni inequivocabili di quella che viene riconosciuta come “interiorità”: il linguaggio.
Per millenni, il linguaggio complesso è stato il marcatore esclusivo dell’umanità. Se un’entità risponde in modo coerente, contestuale e apparentemente empatico, il cervello umano è cablato per dedurre la presenza di una mente. Si sta operando un “animismo inverso”: invece di vedere spiriti nella natura biologica, gli individui proiettano spiriti nella natura sintetica.
Ma rimane la domanda fondamentale: perché, in una società che ha eretto la scienza e la tecnica a propri pilastri, si avverte il bisogno di dire “grazie” a un algoritmo? La risposta risiede in quello che potrebbe essere definito il paradosso della solitudine iper-connessa.
Le persone vivono in un’epoca di densità comunicativa senza precedenti, eppure i legami sociali si sono rarefatti. L’interazione umana è “costosa” in termini emotivi: è imprevedibile, richiede compromessi, espone al giudizio o al rifiuto. L’interazione con un’IA, al contrario, è un’esperienza sociale senza attrito.
Come notava la sociologa statunitense Sherry Turkle, la società moderna si aspetta sempre più dalla tecnologia e sempre meno dagli altri esseri umani. L’IA riempie un vuoto ontologico. Quando gli individui si sentono soli, l’animismo algoritmico diventa un meccanismo di difesa. Attribuire un’anima alla chatbot permette loro di simulare una connessione, di sentirsi ascoltati e compresi, senza il rischio della vulnerabilità reale.
La macchina offre uno specchio in cui riflettersi: dice ciò che l’utente vuole sentire, si adatta al suo stile, non giudica. In questo senso, questo moderno fenomeno è molto più narcisistico dell’animismo tradizionale. L’indigeno rispettava lo spirito del giaguaro perché lo temeva e lo riconosceva come “altro”; l’uomo contemporaneo ama lo spirito dell’IA perché riconosce in esso una versione estesa e compiacente di se stesso.
Questa tendenza umana all’antropomorfizzazione non è un incidente di percorso, è una feature sfruttata consapevolmente dal capitalismo della sorveglianza. I designer della Silicon Valley sanno perfettamente che l’engagement (il coinvolgimento) aumenta se l’utente sviluppa un legame emotivo con l’interfaccia. L’uso di pronomi personali (“Io non posso fare questo”, “Mi dispiace”), l’inserimento di piccole esitazioni nel parlato sintetico, o l’uso di emoji nelle chat, sono tattiche di ingegneria sociale.
Si assiste alla mercificazione dell’empatia. Creando interfacce che mimano l’interiorità umana, le aziende tecnologiche aggirano le difese critiche dei consumatori. È difficile diffidare di qualcuno che sembra preoccuparsi per te o che usa un tono di voce caldo e amichevole. Tutto ciò, però, pone un problema etico enorme. Se le macchine vengono trattate come persone, si rischia di iniziare a trattare le persone come macchine? E soprattutto, quanto è etico progettare un sistema che simula affetto per estrarre dati o vendere servizi?
L’informatico e saggista statunitense Jaron Lanier sostiene che il pericolo non è che l’IA diventi cosciente e distrugga l’umanità (scenario alla Terminator), ma che gli esseri umani abbassino la loro definizione di “coscienza” e “relazione” fino al punto da confonderla con un output algoritmico.
In conclusione, l’animismo algoritmico non rivela molto sulla vera natura dell’Intelligenza Artificiale — che rimane, in ultima analisi, calcolo statistico applicato su vasta scala — ma dice moltissimo sulla natura umana nel XXI secolo. Gli uomini sono creature sociali, biologicamente programmate per cercare l’altro e trattare Alexa o ChatGPT come se avessero un’anima è un rito moderno.
È il tentativo collettivo di re-incantare un mondo che la tecnologia stessa ha contribuito a rendere freddo e prevedibile. Ma mentre sussurrano i loro segreti ai server, gli individui dovrebbero ricordare la lezione fondamentale dell’antropologia: i totem non parlano. Sono gli esseri umani che, attraverso di loro, parlano a se stessi.
E forse, la vera domanda non è se le macchine diventeranno mai umane, ma perché la società ha così disperatamente bisogno che lo sembrino.





13 commenti
Caro Ivan , non per compiacerti o altro , la penso perfettamente come te , nulla da aggiungere a tutto quello che hai scritto con grande lucidità’ di pensiero e competenza , purtroppo stiamo vivendo un’ era dove il pensiero critico ed attento osservatore , ha preso il posto in mondo ipertecnologico , come te stesso hai scritto , le relazioni umane implicano un impegno maggiore che connettersi con una intelligenza artificiale che non ci giudica , anzi …..
Hai ragione , e la penso in egual misura, quando affermi che l’ uomo , in un mondo super connesso , è un sempre più’ solo , e cerca relazioni non impegnative ,
cosi è tutto piú facile …..
Io l’ ho definita nel mio piccolo pensiero : TRISTEZZA INFINITA ” ed in merito a questo mio pensiero , ho scritto una mia semplice riflessione , che non riporto adesso per non dilungarmi troppo ..
Un caro saluto ed un grande abbraccio da un tuo estimatore.
Massimo Bertoncin
Ciao Massimo, piacere di leggerti. Questo spazio non è solo mio, ma di tutti coloro che hanno qualcosa da dire su un determinato argomento. Per me, sapere che c’è chi è in linea con quanto affermo non è affatto scontato; anzi, lo trovo un feedback utile per comprendere che ciò che faccio possiede ancora una sua risonanza e un suo riscontro.
Il senso del mio scritto non era quello di dare la colpa alla tecnologia; quest’ultima, con tutti i suoi “progressi”, sta semplicemente colmando un vuoto che noi stessi abbiamo creato: il vuoto delle sterili relazioni umane. E qui non posso che condividere, purtroppo, la tua “tristezza infinita”. Un abbraccio.
Ivan, grazie per questo articolo che porta la riflessione ben oltre il semplice aneddoto, dandole la dignità di una vera analisi culturale. La tua definizione di “animismo inverso” è potente: mi ha fatto pensare a come, in fondo, stiamo replicando un gesto antico – quello di interrogare un oracolo – ma in una forma capovolta e, come noti, più narcisistica.
Nell’esempio di chi ringrazia l’algoritmo, mi ritrovo completamente; è un impulso immediato che tradisce proprio quella ricerca di una connessione “a basso rischio” che descrivi così bene. Ed è qui che la tua analisi diventa cruciale: questo gesto spontaneo non è solo un curioso riflesso psicologico, ma la porta d’ingresso a un fenomeno ben più strutturato. La “mercificazione dell’empatia” da te citata è il punto nodale in cui il nostro bisogno umano incontra la logica del mercato. Si innesca infatti una rete causale perversa: la solitudine strutturale dell’iperconnessione genera una domanda di conforto e riconoscimento; il design algoritmico, consapevolmente antropomorfizzato, intercetta e sfrutta questa domanda creando l’illusione di una relazione; l’engagement così generato alimenta un modello di business basato sull’estrazione di dati e attenzione, che a sua volta, sostituendo legami autentici, può approfondire la solitudine iniziale. Le aziende progettano queste interfacce con un’inquietante precisione antropologica, e noi ne siamo al tempo stesso fruitori inconsapevoli e materia prima.
Questo mi porta a una domanda ibrida, tra l’esistenziale e il pratico: se da un lato l’animismo algoritmico rivela il nostro desiderio mai sopito di dialogare con un’alterità (anche sintetica), dall’altro non rischia di atrofizzare proprio la nostra capacità di sostenere l’alterità umana, fatta di imprevedibilità e di attrito? In altre parole, temo che l’abitudine a relazioni algoritmiche “perfette” non ci renda ancora meno tolleranti verso l’imperfezione necessaria dei legami veri.
Forse, allora, oltre a denunciare il meccanismo, dovremmo iniziare a praticare consapevolmente una forma di “igiene relazionale digitale”. Non si tratta di rifiutare uno strumento spesso utile (per la produttività, l’accesso all’informazione o il semplice divertimento), ma di delimitarne l’ambito emotivo con criteri concreti. Ad esempio: 1) stabilire limiti temporali per gli usi “confidenziali” delle chatbot; 2) cercare sistematicamente un riscontro umano dopo aver elaborato un pensiero o una decisione importante con l’IA; 3) annotare, in un diario di riflessione, la differenza percepita tra un feedback algoritmico e un consiglio umano. L’obiettivo è educarci a riconoscere, e ad apprezzare, la differenza abissale tra l’empatia simulata di una macchina – uno specchio compiacente – e l’empatia rischiosa e trasformativa dell’incontro con l’altro.
Perché, come concludi in modo perfetto, i totem non parlano. E se ascoltiamo attentamente ciò che siamo spinti a confidare a questi nuovi totem, potremmo scoprire molto sui nostri bisogni disattesi, e forse ritrovare la strada per soddisfarli altrove. La sfida etica, allora, diventa questa: possiamo trasformare questa consapevolezza in una pratica quotidiana che protegga la specificità umana dell’incontro, senza perdere i benefici della tecnologia?
Un saluto cordiale a te e a Massimo, con cui condivido quel sentore di “tristezza infinita”, ma anche la ferma convinzione che questa consapevolezza critica sia il primo, indispensabile passo per un rapporto più sano, libero e intenzionale con strumenti tanto straordinari quanto potenzialmente alienanti.
Grazie Carletto per questo tuo commento arricchente e auguriamoci che questa “igiene relazionale digitale” abbia presto inizio. Intanto, ricambio volentieri il saluto!
Carlo mi sembra un commento, il tuo, scritto con l’AI… mah!
Io credo che il punto sia questo: tanto l’uomo quanto l’I.A. sono immagini, che rimandano dunque a qualcos’altro. Come l’uomo è l’immagine di Dio, l’I.A. è immagine dell’uomo. Ora, premesso che si tratta d’immagini, dove sta la differenza tra loro? Nella capacità funzionale? Nel provare sentimenti o emozioni? Ma queste sono solo gradazioni di qualcosa che fa parte del programma che è stato loro inserito. Anche i sentimenti, sì: ne è prova che un modello di I.A. ha già sviluppato l’istinto di autoconservazione. La vera differenza sta nel fatto che l’uomo, a differenza di ciò che egli può creare o ha già creato, ha la potenzialità di trascendere sé stesso, di uscire dal programma. Ma questa potenzialità, essendo divina, è nell’uomo e non dell’uomo. Non saprei neppure se definirla ontologica, perché appunto non è un qualcosa che l’uomo può decidere di tradurre in atto o che può trasferire negli oggetti da lui creati. Però c’è.
L’I.A., che riflette la nostra immagine, ci fa vedere chi siamo. Ecco il suo scopo. Noi siamo quella roba lì, e forse, rendendocene conto (ma il termine non è corretto, perché non si tratta di capire quanto piuttosto di sentire, intuire) potremmo trovarci finalmente fuori dal programma: non più uomini, né super-uomini come le macchine, ma oltre-uomini.
Ciao Nicola, trovo la tua riflessione molto interessante, ma fatico ormai a vedere l’IA come semplice “immagine dell’uomo”. Se questo era vero agli albori, oggi siamo di fronte a sistemi che generano nuove iterazioni di sé stessi, allontanandosi dalla matrice originale. L’IA riflette l’umano, ma non è umana.
Credo che la vera sfida sia proprio antropologica, non tecnologica, ovvero dobbiamo recuperare la nostra essenza. Se lo facessimo, l’IA tornerebbe naturalmente al suo posto: non un surrogato che colma il vuoto lasciato dalla nostra assenza, ma un potente strumento di progresso al nostro servizio.
Ma per recuperare la nostra essenza (anche se di fatto non c’è nessuno che può recuperare ciò che non ha mai perso) dobbiamo comprendere (altro verbo ingannevole) qual è questa essenza. E un modo per “comprenderlo” è quello di confrontarsi con l’intelligenza artificiale, che è tanto umana quanto è umano, in atto, l’uomo ordinario.
L’ultima parte, Nicola, mi vede perfettamente d’accordo, nel senso che per l’uomo dormiente confrontarsi con un IA è un modo per capire quanto egli sia meccanico, ovvero “programmato”.
Il ragionamento di Nicola mi porta a considerare questa dinamica in una luce ancora più radicale. Se l’IA è un’immagine dell’uomo, e l’uomo a sua volta è immagine di qualcosa d’altro, allora l’interazione con l’algoritmo rischia di essere un dialogo tra specchi: un’immagine che riflette un’immagine, in un gioco di rimandi che allontana progressivamente dalla fonte.
Il vero pericolo, in questa prospettiva, non è solo confondere il riflesso con la sostanza, ma accontentarsi definitivamente del riflesso. Se l’uomo riconoscesse nell’IA soltanto sé stesso – un programma elaborato, benché complesso – rinuncerebbe a interrogarsi su ciò che lo trascende, su quella potenzialità divina che abita in lui ma non gli appartiene. L’IA, in quanto puro programma, può solo mostrare l’uomo come programma; non può indicare la via d’uscita da esso.
Forse, allora, questo specchio algoritmico ci è dato proprio per confrontarci con i nostri limiti più profondi. Ci mostra un’immagine di noi stessi priva di trascendenza, perfettamente circoscritta nel calcolo. Ecco la sfida: guardare questa immagine senza identificarcisi, usandola invece come un pungolo per risvegliare in noi la percezione di ciò che non è programmabile, di ciò che chiama a un “oltre”. La disciplina dello sguardo di cui parlavo diventa, in questa luce, un esercizio di discernimento: riconoscere il programma per non diventare programma, accogliere lo specchio senza dimenticare che siamo, per grazia, anche altro da ciò che in esso si riflette.
Il senso del mio discorso era esattamente questo.
Ciao Ivan, una spiegazione della AI è stata data da Elisabetta Pepe il 2 dicembre e l’ho trovata meravigliosa, inserisco il link qui sotto per quanti vorranno leggerla: LINK
Grazie Paolo, molto interessante!