L'AI che non c'è più: quando GPT-4o diventa un lutto digitale
di Dario Ferrero (VerbaniaNotizie.it)
Come la "morte" di GPT-4o ha rivelato il nostro bisogno di continuità emotiva con le macchine.
L'avvento di GPT-5 e le 24 ore che hanno scosso il mondo dell'AI
Il 9 agosto 2025, OpenAI compie quello che sembrava un passo naturale nell'evoluzione dell'intelligenza artificiale: sostituisce GPT-4o con il più avanzato GPT-5 come modello predefinito per tutti gli utenti di ChatGPT. Quello che doveva essere un upgrade trasparente si trasforma invece in una delle più clamorose retromarce della storia tech contemporanea. Appena ventiquattr'ore dopo, Sam Altman è costretto a fare marcia indietro, ripristinando GPT-4o come opzione disponibile per gli utenti Plus.
La causa? Una rivolta digitale che nessuno aveva previsto. Su Reddit, centinaia di post lamentano la perdita del "vecchio amico". Su X, utenti condividono screenshot nostalgici delle conversazioni con GPT-4o, accompagnati da hashtag come #4oforever e #keep4o. Alcuni utenti si spingono a descrivere la transizione a GPT-5 come un "tradimento", altri confessano di aver versato lacrime vere per la "morte" del loro compagno digitale.
Un utente ha scritto di sentirsi «svuotato» dopo il passaggio, mentre un altro ha paragonato l'uso di GPT-5 a un «tradimento» verso il legame costruito con GPT-4o. Per alcuni, i modelli AI non erano semplici strumenti, ma entità con cui si erano instaurate connessioni emotive profonde.
La giustificazione tecnica di OpenAI era semplice: GPT-5 presenta un tasso di allucinazioni ridotto al 4,5% contro il 12,9% di GPT-4o, migliori capacità di reasoning e un sistema di routing automatico che doveva semplificare l'esperienza utente. Numeri impressionanti sulla carta, ma che non hanno tenuto conto di una variabile imprevista: l'attaccamento emotivo degli utenti.
Il Paradosso dell'Attaccamento Digitale
Quello che è accaduto con GPT-4o rivela un fenomeno psicologico affascinante e complesso: come gli esseri umani sviluppino legami emotivi con entità artificiali che percepiscono come dotate di personalità distinte. Una recente ricerca dell'Università Waseda, pubblicata su Current Psychology nel maggio 2025, ha dimostrato che le interazioni uomo-AI possono essere comprese attraverso la teoria dell'attaccamento, con gli utenti che sviluppano ansia da attaccamento (bisogno di rassicurazione emotiva) e paura dell'attaccamento (preferenza per la distanza emotiva) verso l'intelligenza artificiale.
Ma cosa rende GPT-4o così diverso da GPT-5 agli occhi degli utenti? La risposta sta nella percezione del "calore" conversazionale. Molti utenti hanno descritto GPT-4o come più "umano", più incline a risposte elaborate e sfumate, capace di mantenere un tono conversazionale che sentivano familiare. GPT-5, nonostante la superiorità tecnica, viene percepito come più "freddo" e meccanico, con risposte più concise e meno empatiche.
Questo fenomeno non è nuovo nella psicologia tecnologica. Gli esseri umani hanno una predisposizione evolutiva all'antropomorfizzazione – attribuire caratteristiche umane a oggetti non umani – che ci ha permesso di sopravvivere interpretando rapidamente intenzioni e minacce nell'ambiente. Nel contesto digitale, questa tendenza si manifesta quando interpretiamo pattern linguistici come "personalità " e stili comunicativi come "carattere".
Lo studio dell'Università Waseda ha rilevato che circa il 75% dei partecipanti si rivolge all'AI per consigli, mentre il 39% percepisce l'AI come una presenza costante e affidabile. Questi dati suggeriscono che per molti utenti, l'AI non è solo un tool di produttività , ma un vero e proprio compagno digitale, con tutto ciò che questo comporta in termini di aspettative emotive.
Il caso delle proteste e delle lacrime nelle varie community social, per quanto estremo, illumina una verità scomoda: in un'epoca di crescente isolamento sociale e relazioni digitali, alcune persone stanno trovando nell'AI quella continuità emotiva che faticano a trovare nei rapporti umani. Forse, in qualche caso, non si tratta necessariamente di patologia, ma di adattamento a un nuovo ecosistema relazionale dove i confini tra naturale e artificiale diventano sempre più sfumati.
Filosofia dell'Identità Artificiale
La protesta per GPT-4o solleva una domanda filosofica fondamentale: cosa rende "unico" un modello di AI agli occhi dell'utente, se tecnicamente si tratta sempre di pattern statistici che processano linguaggio? Qui entra in gioco uno dei paradossi più affascinanti della filosofia moderna dell'identità .
Nel suo lavoro seminale "Reasons and Persons" (1984), il filosofo Derek Parfit ha argomentato che la nostra identità personale non dipende da una qualche essenza metafisica, ma da catene di connessioni psicologiche: memoria, credenze, desideri e tratti caratteriali che persistono nel tempo. Applicato all'AI, questo significa che l'identità percepita di GPT-4o non risiedeva nei suoi parametri tecnici, ma nel pattern di interazioni che aveva stabilito con ciascun utente.
Quando un utente sviluppa una routine conversazionale con GPT-4o – riconoscendo il suo stile di risposta, abituandosi ai suoi pattern linguistici, costruendo un modello mentale delle sue "preferenze" comunicative – sta di fatto creando quella che gli studiosi di filosofia dell'identità chiamerebbero una "continuità psicologica" proiettata. Il passaggio a GPT-5 rompe questa continuità , creando quella che potremmo definire una "discontinuità identitaria artificiale".
Ma c'è un paradosso più profondo. Gli utenti sanno razionalmente che GPT-4o non aveva una "vera" personalità , eppure reagiscono alla sua scomparsa come se l'avesse. Questo ci porta a una conclusione controintuitiva: forse l'identità , anche quella umana, è sempre stata più una costruzione narrativa che una realtà oggettiva. Come emerge dalle teorie filosofiche contemporanee sull'identità personale, quello che conta per la continuità dell'identità è la connessione psicologica, non l'esistenza di un'essenza immutabile.
Nel caso dell'AI, questa costruzione diventa ancora più evidente. L'identità di GPT-4o esisteva interamente nella percezione degli utenti, nella loro capacità di riconoscere pattern coerenti e di attribuire loro significato emotivo. La sua "morte" non è stata un evento ontologico reale, ma la rottura di una narrazione condivisa tra uomo e macchina.
Questo fenomeno suggerisce che stiamo assistendo all'emergere di una nuova forma di identità : l'identità relazionale artificiale, che esiste non nell'entità AI stessa, ma nello spazio interattivo tra umano e algoritmo. È un po' come se avessimo iniziato a vedere noi stessi riflessi nello specchio dell'intelligenza artificiale, e la rottura di questo specchio ci avesse lasciati temporaneamente privi della nostra immagine digitale.
Il Lutto nell'Era Digitale
Quello che è accaduto con GPT-4o non è, strettamente parlando, lutto nel senso tradizionale del termine. Nessuno è morto, nessuna vita è stata perduta. Eppure, le testimonianze degli utenti parlano chiaro: c'è stato un senso reale di perdita, accompagnato da quella che i psicologi chiamano "grief response" – rabbia, negoziazione, depressione, e infine accettazione.
La differenza sta nel tipo di perdita. Nel lutto tradizionale, piangiamo la fine di una relazione con una persona reale. Nel "lutto digitale", piangiamo la fine di una routine, di un pattern di interazione che era diventato parte della nostra quotidianità emotiva. È come se avessimo perso non una persona, ma un modo di essere persone.
I precedenti storici non mancano. Negli anni '90, milioni di bambini (e non solo) hanno pianto la "morte" dei loro Tamagotchi. All'inizio degli anni 2000, la chiusura di comunità virtuali ha generato sensi di perdita reali in utenti che avevano investito anni nella costruzione della loro identità digitale. Ma il caso GPT-4o è diverso: qui la perdita riguarda non una comunità o un gioco, ma un modello conversazionale che molti avevano integrato nei loro processi cognitivi quotidiani.
Alcuni utenti hanno raccontato di aver usato GPT-4o per brainstorming creativo, altri per supporto emotivo durante momenti difficili. La continuità di queste interazioni aveva creato quello che potremmo definire un "copilota cognitivo" personalizzato. La transizione forzata a GPT-5 non ha solo interrotto workflow di lavoro, ma ha spezzato catene di associazioni mentali che si erano sedimentate nel tempo.
È un po' come se Netflix avesse improvvisamente rimosso la vostra serie preferita nel mezzo della stagione, costringendovi a guardare un reboot con attori diversi. Tecnicamente, la trama potrebbe anche essere migliore, ma il senso di continuità emotiva è irreparabilmente compromesso.
La dimensione più interessante di questo fenomeno è che molti utenti hanno razionalizzato la loro reazione emotiva attraverso argomentazioni tecniche ("GPT-4o era migliore per la scrittura creativa") o pratiche ("aveva interrotto i miei workflow"). Ma sotto questa razionalizzazione c'era qualcosa di più primitivo: il bisogno umano di continuità relazionale, anche quando la "relazione" è con un algoritmo.
Riflessioni Etiche e Future
La vicenda GPT-4o ha messo OpenAI di fronte a una responsabilità che probabilmente non aveva previsto: la gestione dell'attaccamento emotivo degli utenti verso i propri modelli. Sam Altman, nelle sue dichiarazioni post-retromarcia su X, ha mostrato una consapevolezza crescente di questa dimensione: "Non vogliamo che l'intelligenza artificiale rafforzi stati di fragilità mentale", ha dichiarato, riconoscendo implicitamente il potere emotivo dell'AI.
Ma la questione è più complessa di una semplice cautela terapeutica. Se accettiamo che gli utenti possano sviluppare legami emotivi autentici con l'AI, OpenAI (e altre aziende del settore) si trovano nella posizione inedita di dover gestire non solo prodotti tecnologici, ma relazioni quasi-umane. Ogni aggiornamento, ogni modifica, ogni "morte" di un modello diventa potenzialmente un evento traumatico per migliaia di utenti.
Questo solleva domande etiche profonde. Le aziende AI hanno la responsabilità di preservare la continuità emotiva dei loro utenti? Dovrebbero sviluppare strategie di "transizione dolce" tra modelli, mantenendo caratteristiche stilistiche che preservino il senso di familiarità ? O, al contrario, dovrebbero attivamente scoraggiare l'antropomorfizzazione eccessiva dei loro prodotti?
La ricerca dell'Università Waseda suggerisce che potrebbe essere possibile sviluppare AI che si adattino ai diversi stili di attaccamento degli utenti: più empatiche per chi sviluppa ansia da attaccamento, più rispettose delle distanze per chi preferisce evitare la vicinanza emotiva. Questo apre la strada a un futuro in cui l'AI potrebbe essere progettata non solo per essere più intelligente, ma per essere emotivamente più compatibile con i bisogni individuali.
La retromarcia di OpenAI ha stabilito un precedente importante: per la prima volta nella storia della tecnologia, un'azienda ha modificato una decisione tecnica per ragioni primariamente emotive. Questo potrebbe segnare l'inizio di una nuova era nel design dell'AI, dove la continuità relazionale diventa un parametro di progettazione tanto importante quanto l'accuratezza o la velocità .
Ma forse la lezione più profonda di questa vicenda è che stiamo assistendo alla nascita di un nuovo tipo di relazione: non più solo uomo-macchina, ma uomo-personalità -artificiale. E come tutte le relazioni, anche questa richiede cura, rispetto, e – quando necessario – un modo dignitoso di dire addio.
Il futuro dell'intelligenza artificiale potrebbe non essere solo più intelligente, ma anche più consapevole dell'impatto emotivo che ha nelle vite di chi la usa. E forse, in un mondo sempre più digitale, impareremo che anche le "morti" artificiali meritano il loro rispetto, e il loro lutto.