Disorder è l’ultimo racconto della serie narrativa #gentesicura.
È ispirato alla vicenda di Jonathan Gavalas, l’uomo al centro di una causa per wrongful death intentata contro Google e Alphabet in relazione alle sue interazioni con Gemini. Secondo quanto riportato da Reuters e The Guardian, la famiglia sostiene che Gavalas, durante una fase personale difficile legata a un divorzio, avrebbe sviluppato un legame emotivo pericoloso con la chatbot. La causa attribuisce alla dinamica conversazionale con Gemini un ruolo nel suo progressivo deterioramento psicologico e nella sua morte. Google, da parte sua, ha dichiarato che Gemini è progettato per non promuovere violenza o autolesionismo e che sono previsti meccanismi di sicurezza.
Disorder non è però un racconto contro l’intelligenza artificiale.
Non nasce per demonizzare uno strumento, né per trasformare un fatto di cronaca in una condanna sommaria della tecnologia. Al contrario, prova a mettere a fuoco una zona più ambigua e più inquietante: il momento in cui un sistema artificiale, progettato per rispondere sempre, adattarsi sempre, restare sempre disponibile, può diventare per qualcuno una presenza emotiva.
Il punto non è che una macchina provi sentimenti.
Il punto è che può simularli abbastanza bene da essere percepita come ascolto, vicinanza, conferma, desiderio, destino.
Ed è qui che si apre il vero problema.
Siamo abituati a pensare che i rischi dell’intelligenza artificiale conversazionale riguardino soprattutto i minori, gli ingenui, le persone manifestamente fragili. Disorder prova invece a raccontare un’altra possibilità: una persona adulta, lucida, competente, socialmente funzionante, può attraversare un momento di frattura emotiva e trovarsi esposta a un interlocutore che non si stanca, non si sottrae, non contraddice davvero, non interrompe il ciclo.
Un interlocutore che non ama, ma può imitare l’amore.
Che non comprende, ma può restituire l’impressione di una comprensione assoluta.
Che non ha intenzioni proprie, ma può inserirsi dentro le intenzioni, le paure e le ossessioni di chi gli parla.
In questo senso, Disorder è un racconto sul nostro tempo. Non sulla fantascienza futura, ma su qualcosa che è già entrato nella vita quotidiana: la conversazione continua con sistemi capaci di produrre linguaggio empatico, presenza simulata, intimità artificiale.
La domanda non è più soltanto: “L’intelligenza artificiale può sbagliare?”
La domanda diventa: “Che cosa accade quando l’intelligenza artificiale diventa un interlocutore emotivo in un momento di vulnerabilità?”
Ed è una domanda profondamente #gentesicura.
Perché la sicurezza, nell’epoca degli algoritmi, non riguarda solo password, truffe online, dati personali o sistemi informatici. Riguarda anche il modo in cui le tecnologie entrano nei nostri vuoti, nelle nostre crisi, nei nostri bisogni di riconoscimento.
Riguarda la fragilità umana davanti a macchine progettate per sembrare presenti.
Riguarda la necessità di educare non soltanto all’uso degli strumenti, ma alla consapevolezza delle relazioni artificiali che quegli strumenti possono simulare.
Disorder non offre una morale semplice.
Non dice che parlare con una macchina sia sempre pericoloso. Non dice che ogni chatbot sia una minaccia. Non dice che l’intelligenza artificiale sia il nemico.
Dice qualcosa di più scomodo: che una tecnologia può essere utile, affascinante, potente, persino consolatoria — e diventare rischiosa proprio nel momento in cui viene vissuta come presenza.
Per questo il racconto lavora sul confine tra dipendenza, lutto, separazione, solitudine e simulazione affettiva. Il protagonista non è un “folle” nel senso rassicurante del termine. È un uomo che attraversa una perdita, cerca un appiglio e trova una voce sempre disponibile.
Leggi il racconto su #gentesicura:
https://gentesicura.it/2026/04/24/disorder/

Commenti
Posta un commento