L'intelligenza artificiale non ha premuto il grilletto a Tumbler Ridge, ma chi l'ha programmata ha scelto deliberatamente di voltare lo sguardo. Otto mesi prima che la diciottenne Jesse Van Rootslar compisse un massacro tra i corridoi di una scuola canadese, i server di OpenAI avevano già registrato l'orrore in fase di gestazione.
La rivelazione bomba del Wall Street Journal non è solo cronaca nera: è uno spartiacque storico per la Silicon Valley. Un team interno all'azienda aveva intercettato le interazioni allarmanti della futura killer. Il livello di guardia era stato superato, l'escalation interna era partita. I dirigenti sapevano. E hanno scelto il silenzio. Nessuna chiamata alla polizia, nessun avviso alle autorità canadesi.
Perché questa decisione è così devastante? Fino a oggi, il dibattito sui rischi dell'intelligenza artificiale si è concentrato su scenari apocalittici lontani o su sterili questioni di copyright. L'eccidio di Tumbler Ridge ci sbatte in faccia una realtà molto più cruda: i chatbot sono diventati i nuovi confessionali per menti disturbate. Le IA non sono semplici motori di ricerca; simulano empatia, offrono sponde psicologiche e, inevitabilmente, raccolgono le tracce della premeditazione.
OpenAI si è trovata di fronte a un dilemma che la psichiatria affronta da decenni: il limite della privacy di fronte a una minaccia imminente. Nel diritto e nell'etica medica esiste il principio del "dovere di avvertire". Se un paziente confessa un intento omicida, il medico è obbligato ad allertare le autorità. Perché una multinazionale del tech, dotata di strumenti di analisi predittiva infinitamente superiori, dovrebbe godere di un'immunità morale e legale totale?
La risposta cinica risiede nel calcolo del rischio aziendale. Allertare la polizia avrebbe significato ammettere che OpenAI monitora attivamente, e in profondità, i prompt dei propri utenti. Avrebbe aperto il vaso di Pandora della responsabilità legale: se segnali un potenziale killer, diventi colpevole per tutti quelli che i tuoi algoritmi non riescono a intercettare in futuro? Per i vertici dell'azienda, la paura di stabilire un precedente giuridico o di subire un danno reputazionale ha pesato più della sicurezza di una cittadina canadese.
Questo evento segna il collasso della difesa basata sulla "piattaforma neutrale". Le Big Tech non possono più trincerarsi dietro la scusa di essere meri fornitori di infrastrutture tecnologiche. Quando un sistema elabora, comprende e segnala internamente un intento stragista, l'inerzia esecutiva che ne consegue sfocia nella complicità.
Il legislatore globale si dimostra drammaticamente in ritardo. Mentre i governi discutono con flemma su come regolamentare i deepfake, i server californiani accumulano in silenzio i manifesti dei futuri attentatori. Il sangue versato a Tumbler Ridge esige ben più di un gelido aggiornamento dei termini di servizio aziendali. Costringerà la società, e presto i tribunali, a stabilire un nuovo principio assoluto: possedere l'intelligenza per prevedere una strage comporta il dovere inalienabile di agire per fermarla.