شیوههای ایمنی هوش مصنوعی پس از پرونده تیراندازی مدرسه openai که شامل یک مظنون کانادایی بود که فعالیت آنلاین او ماهها قبل از حمله علامتگذاری شده بود، مورد بررسی دقیق قرار گرفته است.
سازنده ChatGPT، OpenAI فاش کرد که حساب Jesse Van Rootselaar را در ژوئن 2025 از طریق سیستمهای تشخیص سوء استفاده خود برای "پیشبرد فعالیتهای خشونتآمیز" شناسایی کرده بود. با این حال، این شرکت فناوری مستقر در سانفرانسیسکو در آن زمان به این نتیجه رسید که فعالیت به آستانه داخلی آن برای ارجاع به مجریان قانون نرسیده است.
شرکت گفت که به طور خاص در نظر گرفت که آیا باید پلیس سوارکار سلطنتی کانادا (RCMP) را در مورد این حساب هشدار دهد. علاوه بر این، تصمیم گرفت ادامه ندهد و قضاوت کرد که سیگنالها نشاندهنده یک برنامه قریبالوقوع و معتبر برای ایجاد آسیب جدی فیزیکی نیستند.
OpenAI متعاقباً این حساب را در ژوئن 2025 به دلیل نقض سیاست استفاده مسدود کرد. این تصمیم ماهها قبل از فاجعهای بود که بعداً در بخش دورافتادهای از بریتیش کلمبیا رخ داد.
مظنون 18 ساله بعداً حملهای به مدرسه در شهر کوچک Tumbler Ridge انجام داد و هشت نفر را کشت قبل از اینکه در اثر شلیک گلوله به خود جان خود را از دست بدهد. این حادثه که هفته گذشته گزارش شد، یکی از بدترین تیراندازیهای مدرسه در تاریخ کانادا است و بحث را بر سر نحوه برخورد شرکتهای فناوری با رفتار پرخطر کاربران تشدید کرده است.
به گفته RCMP، Van Rootselaar ابتدا مادر و برادر ناتنی خود را در خانه خانواده کشت قبل از اینکه مدرسه مجاور را هدف قرار دهد. علاوه بر این، پلیس گفت که تیرانداز سابقه تماسهای مربوط به سلامت روان با مجریان قانون داشت، هرچند ماهیت خاص آن تعاملات به تفصیل بیان نشد.
پلیس گزارش داد که قربانیان شامل یک دستیار آموزشی 39 ساله و پنج دانشآموز 12 تا 13 ساله بودند. این شهر که خانه حدود 2,700 نفر در کوههای راکی کانادا است، بیش از 1,000 کیلومتر (600 مایل) شمال شرقی ونکوور، نزدیک مرز با آلبرتا قرار دارد.
در توضیح تصمیم خود برای عدم مراجعه به مقامات زودتر، OpenAI گفت استاندارد آن برای تماس با مجریان قانون بر این موضوع متمرکز است که آیا یک مورد شامل خطر قریبالوقوع و معتبر آسیب جدی فیزیکی به دیگران است یا خیر. شرکت گفت در آن زمان، برنامهریزی مشخص یا قریبالوقوعی را که چنین ارجاعی را ایجاد میکرد، شناسایی نکرد.
شرکت اشاره کرد که این آستانه ارجاع برای ایجاد تعادل بین حریم خصوصی کاربر و تعهدات ایمنی در نظر گرفته شده است. با این حال، این افشاگری سؤالات تازهای را در مورد اینکه آیا معیارهای موجود برای تشدید کافی هستند زمانی که علائم هشدار اولیه در تعاملات کاربر با ابزارهای هوش مصنوعی مانند ChatGPT ظاهر میشود، ایجاد کرده است.
پس از انتشار خبر تیراندازی مدرسه، کارمندان OpenAI با جزئیات در مورد Van Rootselaar و فعالیت تاریخی مرتبط با حساب با RCMP تماس گرفتند. وال استریت ژورنال اولین رسانهای بود که در مورد مشورتهای داخلی شرکت و ارتباط بعدی گزارش داد.
در یک بیانیه عمومی، سخنگوی OpenAI گفت: "افکار ما با همه کسانی است که تحت تأثیر فاجعه Tumbler Ridge قرار گرفتهاند. ما به طور فعال با اطلاعات در مورد فرد و استفاده آنها از ChatGPT به پلیس سوارکار سلطنتی کانادا مراجعه کردیم و به حمایت از تحقیقات آنها ادامه خواهیم داد." علاوه بر این، شرکت بر همکاری مستمر خود با مقامات کانادایی تأکید کرد.
با این حال، انگیزه تیراندازی همچنان نامشخص است و بازرسان هنوز فاش نکردهاند که چه ارتباط مستقیمی، در صورت وجود، بین تعاملات مظنون با ChatGPT و حمله نهایی وجود دارد. با این حال، این پرونده تمرکز جهانی را بر نحوه تشخیص، ارزیابی و پاسخ پلتفرمهای هوش مصنوعی به تهدیدهای بالقوه تیز کرده است.
مقامات حمله Tumbler Ridge را به عنوان مرگبارترین چنین خشونتی کانادا از سال 2020 توصیف کردند، زمانی که یک مسلح در نوا اسکوشیا 13 نفر را کشت و آتشسوزیهایی را ایجاد کرد که باعث مرگ نه نفر دیگر شد. با این حال، رویداد اخیر بعد اضافی دارد زیرا با مسئولیتهای در حال تحول ارائهدهندگان هوش مصنوعی تلاقی میکند.
همانطور که سیاستگذاران و مجریان قانون شرایط را بررسی میکنند، اپیزود تیراندازی مدرسه openai احتمالاً بحث را در مورد زمان و نحوه تشدید رفتار نگرانکننده کاربر توسط شرکتهای هوش مصنوعی به مقامات، و اینکه آیا استانداردهای ارجاع موجود به طور کافی خطرات دیجیتال نوظهور را برطرف میکنند، دامن خواهد زد.
در خلاصه، فاجعه در بریتیش کلمبیا بر تعادل پیچیده بین حریم خصوصی، ارزیابی ریسک و ایمنی عمومی تأکید میکند زیرا پلتفرمهای هوش مصنوعی عمیقاً در زندگی روزمره جاسازی میشوند و هم تنظیمکنندگان و هم شرکتهای فناوری را مجبور به بازبینی پروتکلهای خود برای مدیریت تهدیدهای بالقوه میکند.

