Praktyki bezpieczeństwa AI są poddawane kontroli po sprawie strzelaniny w szkole związanej z openai, dotyczącej kanadyjskiego podejrzanego, którego aktywność online została oznaczona na miesiące przed atakiem.
Twórca ChatGPT, OpenAI, ujawnił, że zidentyfikował konto Jesse Van Rootselaar w czerwcu 2025 roku poprzez swoje systemy wykrywania nadużyć za "wspieranie działań przemocy". Jednak firma technologiczna z siedzibą w San Francisco stwierdziła wówczas, że aktywność nie spełniała jej wewnętrznego progu dla skierowania sprawy do organów ścigania.
Firma stwierdziła, że konkretnie rozważała, czy powiadomić Królewską Kanadyjską Policję Konną (RCMP) o tym koncie. Ponadto zdecydowała się nie kontynuować, uznając, że sygnały nie wskazywały na bezpośredni i wiarygodny plan wyrządzenia poważnej krzywdy fizycznej.
OpenAI następnie zablokowało konto w czerwcu 2025 roku za naruszenie polityki użytkowania. Ta decyzja została podjęta na miesiące przed tragedią, która miała miejsce w odległej części Kolumbii Brytyjskiej.
18-letni podejrzany przeprowadził później atak na szkołę w małym miasteczku Tumbler Ridge, zabijając osiem osób, zanim zmarł od postrzału zadanego sobie samemu. Incydent, zgłoszony w zeszłym tygodniu, jest jedną z najgorszych strzelanin w szkołach w historii Kanady i zintensyfikował debatę na temat tego, jak firmy technologiczne radzą sobie z zachowaniami użytkowników wysokiego ryzyka.
Według RCMP, Van Rootselaar najpierw zabiła swoją matkę i przyrodniego brata w domu rodzinnym, zanim zaatakowała pobliską szkołę. Ponadto policja stwierdziła, że sprawca miał wcześniejszą historię kontaktów związanych ze zdrowiem psychicznym z organami ścigania, choć konkretny charakter tych interakcji nie został szczegółowo opisany.
Policja poinformowała, że ofiary obejmowały 39-letniego asystenta nauczyciela i pięcioro uczniów w wieku od 12 do 13 lat. Miasteczko, w którym mieszka około 2 700 osób w Kanadyjskich Górach Skalistych, leży ponad 1 000 km (600 mil) na północny wschód od Vancouver, w pobliżu granicy z Albertą.
Wyjaśniając swoją decyzję o niepodejściu do władz wcześniej, OpenAI stwierdziło, że jego standard kontaktowania się z organami ścigania koncentruje się na tym, czy sprawa obejmuje bezpośrednie i wiarygodne ryzyko poważnej krzywdy fizycznej dla innych. W tym czasie, jak stwierdziła firma, nie zidentyfikowano konkretnego lub bezpośredniego planowania, które wywołałoby takie skierowanie.
Firma zauważyła, że ten próg skierowania ma na celu zrównoważenie prywatności użytkownika z obowiązkami bezpieczeństwa. Jednak ujawnienie wywołało nowe pytania o to, czy istniejące kryteria eskalacji są odpowiednie, gdy pojawiają się wczesne sygnały ostrzegawcze w interakcjach użytkowników z narzędziami AI, takimi jak ChatGPT.
Po pojawieniu się wiadomości o strzelaninie w szkole, pracownicy OpenAI skontaktowali się z RCMP ze szczegółami dotyczącymi Van Rootselaar i historycznej aktywności związanej z kontem. Wall Street Journal jako pierwszy poinformował o wewnętrznych deliberacjach firmy i późniejszym kontakcie.
W publicznym oświadczeniu rzecznik OpenAI powiedział: "Nasze myśli są ze wszystkimi dotkniętymi tragedią w Tumbler Ridge. Proaktywnie skontaktowaliśmy się z Królewską Kanadyjską Policją Konną z informacjami o tej osobie i jej wykorzystaniu ChatGPT i będziemy nadal wspierać ich śledztwo." Ponadto firma podkreśliła swoją ciągłą współpracę z kanadyjskimi władzami.
Mimo to motyw strzelaniny pozostaje niejasny, a śledczy nie ujawnili jeszcze, jaki, jeśli w ogóle, bezpośredni związek istnieje między interakcjami podejrzanego z ChatGPT a ostatecznym atakiem. Sprawa mimo to zaostrzała globalne skupienie na tym, jak platformy AI wykrywają, oceniają i reagują na potencjalne zagrożenia.
Władze opisały atak w Tumbler Ridge jako najbardziej śmiertelną tego typu masakrę w Kanadzie od 2020 roku, kiedy napastnik w Nowej Szkocji zabił 13 osób i wzniecił pożary, które spowodowały śmierć kolejnych dziewięciu. Jednak niedawne zdarzenie ma dodatkowy wymiar, ponieważ łączy się z ewoluującymi odpowiedzialnościami dostawców AI.
Ponieważ decydenci polityczni i organy ścigania przeglądają okoliczności, epizod strzelaniny w szkole związanej z openai prawdopodobnie podsyci debatę na temat tego, kiedy i jak firmy AI powinny eskalować niepokojące zachowanie użytkowników do władz, oraz czy istniejące standardy skierowania wystarczająco odnoszą się do pojawiających się zagrożeń cyfrowych.
Podsumowując, tragedia w Kolumbii Brytyjskiej podkreśla złożoną równowagę między prywatnością, oceną ryzyka i bezpieczeństwem publicznym, gdy platformy AI stają się głęboko zakorzenione w codziennym życiu, zmuszając zarówno regulatorów, jak i firmy technologiczne do ponownej oceny swoich protokołów obsługi potencjalnych zagrożeń.


