Le pratiche di sicurezza dell'IA sono sotto esame dopo il caso della sparatoria scolastica di OpenAI che ha coinvolto un sospetto canadese la cui attività online era stata segnalata mesi prima dell'attacco.
La società creatrice di ChatGPT, OpenAI, ha rivelato di aver identificato l'account di Jesse Van Rootselaar nel giugno 2025 tramite i suoi sistemi di rilevamento degli abusi per "promozione di attività violente". Tuttavia, l'azienda tecnologica con sede a San Francisco ha concluso all'epoca che l'attività non soddisfaceva la soglia interna per la segnalazione alle forze dell'ordine.
L'azienda ha dichiarato di aver valutato specificamente se allertare la Royal Canadian Mounted Police (RCMP) riguardo all'account. Inoltre, ha deciso di non procedere, giudicando che i segnali non indicassero un piano imminente e credibile di causare gravi danni fisici.
OpenAI ha successivamente bannato l'account nel giugno 2025 per violazione della sua politica d'uso. Quella decisione è arrivata mesi prima della tragedia che si sarebbe poi verificata in una zona remota della Columbia Britannica.
Il sospetto diciottenne ha successivamente condotto un attacco scolastico nella piccola città di Tumbler Ridge, uccidendo otto persone prima di morire per una ferita da arma da fuoco autoinflitta. L'incidente, segnalato la scorsa settimana, è una delle peggiori sparatorie scolastiche nella storia del Canada e ha intensificato il dibattito su come le aziende tecnologiche gestiscono i comportamenti ad alto rischio degli utenti.
Secondo la RCMP, Van Rootselaar ha prima ucciso sua madre e il fratellastro nella casa di famiglia prima di prendere di mira la scuola vicina. Inoltre, la polizia ha dichiarato che lo sparatore aveva una storia pregressa di contatti con le forze dell'ordine relativi alla salute mentale, sebbene la natura specifica di tali interazioni non sia stata dettagliata.
La polizia ha riferito che le vittime includevano un'assistente didattica di 39 anni e cinque studenti di età compresa tra 12 e 13 anni. La città, che ospita circa 2.700 persone nelle Montagne Rocciose Canadesi, si trova a oltre 1.000 km (600 miglia) a nord-est di Vancouver, vicino al confine con l'Alberta.
Nello spiegare la sua decisione di non contattare le autorità in precedenza, OpenAI ha dichiarato che il suo standard per contattare le forze dell'ordine si basa sul fatto che un caso comporti un rischio imminente e credibile di gravi danni fisici ad altri. All'epoca, ha detto l'azienda, non aveva identificato una pianificazione concreta o imminente che avrebbe innescato tale segnalazione.
L'azienda ha osservato che questa soglia di segnalazione è intesa a bilanciare la privacy degli utenti con gli obblighi di sicurezza. Tuttavia, la rivelazione ha sollevato nuove domande sul fatto che i criteri esistenti per l'escalation siano adeguati quando emergono segnali di allarme precoce nelle interazioni degli utenti con strumenti di IA come ChatGPT.
Dopo la diffusione della notizia della sparatoria scolastica, i dipendenti di OpenAI hanno contattato la RCMP con dettagli su Van Rootselaar e l'attività storica associata all'account. Il Wall Street Journal è stato il primo a riferire sulle deliberazioni interne dell'azienda e sul successivo coinvolgimento.
In una dichiarazione pubblica, un portavoce di OpenAI ha affermato: "I nostri pensieri sono con tutti coloro che sono stati colpiti dalla tragedia di Tumbler Ridge. Abbiamo contattato proattivamente la Royal Canadian Mounted Police con informazioni sull'individuo e sul suo utilizzo di ChatGPT, e continueremo a supportare le loro indagini." Inoltre, l'azienda ha sottolineato la sua continua cooperazione con le autorità canadesi.
Detto questo, il movente della sparatoria rimane poco chiaro e gli investigatori non hanno ancora rivelato quale, se esiste, collegamento diretto tra le interazioni del sospetto con ChatGPT e l'eventuale attacco. Il caso ha comunque acuito l'attenzione globale su come le piattaforme di IA rilevano, valutano e rispondono alle potenziali minacce.
Le autorità hanno descritto l'attacco di Tumbler Ridge come la strage più letale del Canada dal 2020, quando un uomo armato in Nuova Scozia ha ucciso 13 persone e ha appiccato incendi che hanno causato la morte di altre nove. Tuttavia, l'evento recente ha una dimensione aggiuntiva perché si interseca con le responsabilità in evoluzione dei fornitori di IA.
Mentre i responsabili politici e le forze dell'ordine esaminano le circostanze, l'episodio della sparatoria scolastica di OpenAI è destinato ad alimentare il dibattito su quando e come le aziende di IA dovrebbero segnalare comportamenti preoccupanti degli utenti alle autorità, e se gli standard di segnalazione esistenti affrontano adeguatamente i rischi digitali emergenti.
In sintesi, la tragedia in Columbia Britannica sottolinea il complesso equilibrio tra privacy, valutazione del rischio e sicurezza pubblica mentre le piattaforme di IA diventano profondamente integrate nella vita quotidiana, costringendo sia i regolatori che le aziende tecnologiche a rivalutare i loro protocolli per la gestione delle potenziali minacce.


