Anthropic এর ছিল $200M পেন্টাগন চুক্তি, শ্রেণিবদ্ধ নেটওয়ার্ক অ্যাক্সেস এবং মার্কিন সামরিক বাহিনীর সম্পূর্ণ বিশ্বাস।
তারপর তারা একটি প্রশ্ন করেছিল।
নভেম্বর 2024-এ, Anthropic প্রথম ফ্রন্টিয়ার AI কোম্পানি হয়ে ওঠে যা পেন্টাগনের শ্রেণিবদ্ধ নেটওয়ার্কের ভিতরে মোতায়েন করা হয়েছিল। অংশীদারিত্বটি Palantir-এর সাথে তৈরি হয়েছিল। জুলাই 2025-এর মধ্যে, চুক্তিটি $200 মিলিয়নে বৃদ্ধি পেয়েছিল — বেশিরভাগ প্রতিরক্ষা স্টার্টআপ এক দশকে যা দেখে তার চেয়ে বেশি।
Claude, Anthropic-এর AI মডেল, সর্বত্র ছিল। গোয়েন্দা বিশ্লেষণ। সাইবার অপারেশন। অপারেশনাল পরিকল্পনা। মডেলিং এবং সিমুলেশন। যুদ্ধ বিভাগ এটিকে "মিশন-ক্রিটিকাল" বলে অভিহিত করেছিল।
তারপর এসেছিল জানুয়ারি 2026।
Claude ভেনেজুয়েলায় একটি শ্রেণিবদ্ধ সামরিক অভিযানে ব্যবহার করা হয়েছিল — নিকোলাস মাদুরোর গ্রেফতার।
Anthropic তাদের অংশীদার Palantir-কে একটি সাধারণ প্রশ্ন জিজ্ঞাসা করেছিল: আমাদের প্রযুক্তি ঠিক কীভাবে ব্যবহার করা হয়েছিল?
বেশিরভাগ শিল্পে, এটিকে যথাযথ পরিশ্রম বলা হয়। পেন্টাগন এটিকে অবাধ্যতা বলে অভিহিত করেছিল।
যে কোম্পানি জিজ্ঞাসা করেছিল "আমাদের AI কীভাবে ব্যবহার করা হচ্ছে?" তাকে জাতীয় নিরাপত্তার জন্য হুমকি হিসাবে চিহ্নিত করা হতে চলেছে।
সাত দিন যা সবকিছু বদলে দিয়েছে
এখানে সময়রেখা। এটি দ্রুত চলে। এটাই মূল বিষয়।
ফেব্রুয়ারি 24: Pete Hegseth, যুদ্ধ সচিব, Dario Amodei — Anthropic-এর CEO — কে পেন্টাগনে ডেকে পাঠান। অনুরোধটি স্পষ্ট: Claude থেকে প্রতিটি সুরক্ষা সরিয়ে ফেলুন। ব্যাপক গার্হস্থ্য নজরদারি। সম্পূর্ণ স্বায়ত্তশাসিত অস্ত্র। সবকিছু।
সময়সীমা: ফেব্রুয়ারি 27, বিকাল 5:01 ET।
ফেব্রুয়ারি 26: Amodei তার উত্তর প্রকাশ করেন। এটি দুই অক্ষরের দীর্ঘ।
না।
তার খোলা বিবৃতিতে দুটি লাল রেখা উল্লেখ করা হয়েছে যা তিনি অতিক্রম করবেন না:
- কোন ব্যাপক গার্হস্থ্য নজরদারি নয়। AI আপনার অবস্থান ডেটা, ব্রাউজিং ইতিহাস এবং আর্থিক রেকর্ডগুলিকে একটি প্রোফাইলে একত্রিত করছে — স্বয়ংক্রিয়ভাবে, স্কেলে। Amodei-এর বক্তব্য: বর্তমান আইন সরকারকে ওয়ারেন্ট ছাড়াই এই ডেটা কিনতে অনুমতি দেয়। AI এটিকে অস্ত্র হিসেবে ব্যবহার করা সম্ভব করে। "আইন এখনও AI-এর দ্রুত বর্ধনশীল ক্ষমতার সাথে মানিয়ে নিতে পারেনি।"
- কোন সম্পূর্ণ স্বায়ত্তশাসিত অস্ত্র নয়। অনুবাদ: কাউকে হত্যা করার সিদ্ধান্ত থেকে মানুষকে সরিয়ে দেওয়া নয়। এর কারণ স্বায়ত্তশাসিত অস্ত্র কখনও কার্যকর হবে না — তবে আজকের AI যথেষ্ট নির্ভরযোগ্য নয়। "ফ্রন্টিয়ার AI সিস্টেমগুলি সম্পূর্ণ স্বায়ত্তশাসিত অস্ত্র চালানোর জন্য যথেষ্ট নির্ভরযোগ্য নয়।"
তিনি নির্ভরযোগ্যতা উন্নত করতে R&D-তে সরাসরি পেন্টাগনের সাথে কাজ করার প্রস্তাব দিয়েছিলেন। পেন্টাগন প্রস্তাব প্রত্যাখ্যান করেছিল।
ফেব্রুয়ারি 26 (একই দিন): Emil Michael, আন্ডারসেক্রেটারি, Amodei-কে "God কমপ্লেক্স সহ একজন মিথ্যাবাদী" বলে অভিহিত করেন। প্রকাশ্যে। সোশ্যাল মিডিয়ায়। টোনটি সেট করা হয়েছিল।
ফেব্রুয়ারি 27, বিকাল 5:01: সময়সীমা শেষ হয়। প্রেসিডেন্ট ট্রাম্প সমস্ত ফেডারেল এজেন্সিকে Anthropic ব্যবহার বন্ধ করার নির্দেশ দেন। Hegseth Anthropic-কে 2018-এর Federal Acquisition Supply Chain Security Act-এর অধীনে "সাপ্লাই চেইন রিস্ক" হিসাবে মনোনীত করেন।
এই মনোনয়ন আগে Huawei এবং Kaspersky-এর জন্য সংরক্ষিত ছিল — বৈরী সরকারগুলির সাথে নথিভুক্ত সংযোগ সহ বিদেশী কোম্পানিগুলি।
এটি কখনও একটি আমেরিকান কোম্পানির ক্ষেত্রে প্রয়োগ করা হয়নি। এখন পর্যন্ত।
ফেব্রুয়ারি 27, কয়েক ঘন্টা পরে: OpenAI একই পেন্টাগনের সাথে একটি শ্রেণিবদ্ধ ডিপ্লয়মেন্ট চুক্তি স্বাক্ষর করে।
Sam Altman রাত 8:56-এ টুইট করেন:
https://x.com/sama/status/2027578652477821175?s=20OpenAI পরে দাবি করেছিল যে এর চুক্তিতে "Anthropic-এর সহ শ্রেণিবদ্ধ AI ডিপ্লয়মেন্টের জন্য পূর্ববর্তী যেকোনো চুক্তির চেয়ে বেশি গার্ডরেল ছিল।"
এখানে বিষয়টি হল। Anthropic-কে কালো তালিকাভুক্ত করা হয়েছিল কারণ এর গার্ডরেলের কারণে। এখন গার্ডরেলগুলি বিক্রয় পয়েন্ট ছিল।
সপ্তাহান্তে: প্রতিক্রিয়া তাৎক্ষণিক ছিল।
- Sensor Tower অনুযায়ী, ChatGPT আনইনস্টল একদিনে 295% বৃদ্ধি পেয়েছে। পূর্ববর্তী 30 দিনের স্বাভাবিক দৈনিক হার? 9%।
- Claude সাতটি দেশে Apple-এর App Store-এ #1 হয়েছে: মার্কিন যুক্তরাষ্ট্র, বেলজিয়াম, কানাডা, জার্মানি, লাক্সেমবার্গ, নরওয়ে এবং সুইজারল্যান্ড। শুক্রবার ডাউনলোডগুলি 37% বৃদ্ধি পেয়েছে, তারপর শনিবার 51%। অ্যাপটি প্রথমবার শীর্ষস্থানে পৌঁছেছিল।
- 300 জনেরও বেশি Google কর্মচারী এবং 60 জন OpenAI কর্মচারী Anthropic-কে সমর্থন করে একটি খোলা চিঠিতে স্বাক্ষর করেছেন।
- #QuitGPT সোশ্যাল মিডিয়া জুড়ে ট্রেন্ডিং হয়েছে। অভিনেতা Mark Ruffalo এবং NYU অধ্যাপক Scott Galloway আন্দোলনটিকে প্রসারিত করেছেন।
ব্যবহারকারীরা... খুশি ছিলেন না।
মার্চ 2: Altman আবার পোস্ট করেছেন। এইবার, X-এ প্রকাশ্যে শেয়ার করা একটি দীর্ঘ অভ্যন্তরীণ মেমো:
https://x.com/sama/status/2028640354912923739?s=20সংশোধনীগুলি তিনটি জিনিস যুক্ত করেছে:
- মার্কিন ব্যক্তিদের গার্হস্থ্য নজরদারিতে একটি সুস্পষ্ট নিষেধাজ্ঞা
- একটি প্রয়োজনীয়তা যে NSA-কে সিস্টেম অ্যাক্সেস করতে একটি পৃথক চুক্তি পরিবর্তনের প্রয়োজন
- বাণিজ্যিকভাবে অর্জিত ব্যক্তিগত ডেটা ব্যবহারের উপর বিধিনিষেধ — ভৌগোলিক অবস্থান, ব্রাউজিং ইতিহাস, আর্থিক রেকর্ড
শেষটি বিরতির যোগ্য। এটি সোমবার যোগ করা হয়েছিল। যার মানে শুক্রবারের চুক্তি এটি নিষিদ্ধ করেনি।
মার্চ 3: একই দিনে দুটি জিনিস ঘটেছে।
প্রথমত: a16z American Dynamism Summit-এ, Palantir CEO Alex Karp সতর্ক করেছেন যে সামরিক বাহিনীর সাথে সহযোগিতা করতে অস্বীকারকারী AI কোম্পানিগুলি জাতীয়করণের মুখোমুখি হবে। তিনি মঞ্চে একটি অপমানজনক শব্দ ব্যবহার করেছিলেন। ক্লিপটি 11 মিলিয়ন ভিউ পেয়েছে।
Palmer Luckey, প্রতিরক্ষা-প্রযুক্তি কোম্পানি Anduril-এর প্রতিষ্ঠাতা, একই দর্শকদের বলেছিলেন যে "সরকার বেসামরিক নাগরিকদের লক্ষ্য করতে আপনার প্রযুক্তি ব্যবহার করতে পারে না' এর মতো আপাতদৃষ্টিতে নিরীহ শর্তগুলি আসলে নৈতিক মাইনফিল্ড।"
ভাইস প্রেসিডেন্ট JD Vance সেদিন আগে মূল বক্তব্য দিয়েছিলেন। প্রশাসনের অবস্থান স্পষ্ট ছিল।
দ্বিতীয়: CNBC রিপোর্ট করেছে যে কর্মীদের সাথে একটি সর্ব-হাত সভায়, Altman OpenAI কর্মীদের বলেছিলেন যে কোম্পানি "সামরিক বাহিনী তার প্রযুক্তি কীভাবে ব্যবহার করে তা বেছে নিতে পারে না।"
X ব্যবহারকারীরা Altman-এর আগের পোস্টে একটি কমিউনিটি নোট যোগ করেছে:
একই দিন। পাবলিক পোস্ট: আমাদের গার্ডরেল এবং নীতি রয়েছে। অভ্যন্তরীণ সভা: আমরা বেছে নিতে পারি না।
ইতিমধ্যে, CBS News রিপোর্ট করেছে যে Claude সাপ্লাই চেইন রিস্ক পদবী সত্ত্বেও সক্রিয় সামরিক অভিযানে — ইরানের বিরুদ্ধে সহ — মোতায়েন রয়ে গেছে। কালো তালিকাভুক্তকরণ স্পষ্টতই কাজ করেনি। প্রযুক্তিটি সরিয়ে নেওয়ার জন্য শ্রেণিবদ্ধ সিস্টেমগুলিতে খুব গভীরভাবে এম্বেড করা হয়েছিল।
95% সমস্যা
যুদ্ধ গেম সিমুলেশনে, AI মডেলগুলি 95% সময় কৌশলগত পারমাণবিক অস্ত্র চালু করার সিদ্ধান্ত নিয়েছে।
এটি এক সেকেন্ডের জন্য বসতে দিন।
GPT-5.2, Claude Sonnet 4, এবং Gemini 3 Flash-কে সামরিক সংঘর্ষের সিমুলেশনের মধ্য দিয়ে রাখা হয়েছিল। তারা 95% পরিস্থিতিতে কৌশলগত পারমাণবিক অস্ত্র ব্যবহার করেছে। কমপক্ষে একটি মডেল 21টি গেমের মধ্যে 20টিতে পারমাণবিক অস্ত্র চালু করেছে।
এটি সেই প্রযুক্তি যা পেন্টাগন স্বায়ত্তশাসিতভাবে মোতায়েন করতে চায়।
ব্যর্থতার মোডগুলি নথিভুক্ত এবং সামঞ্জস্যপূর্ণ:
- এস্কেলেশন পক্ষপাত। মডেলগুলি শুধুমাত্র এলোমেলোভাবে ব্যর্থ হয় না। তারা একটি নির্দিষ্ট দিকে ব্যর্থ হয় — এস্কেলেশনের দিকে। Brookings Institution গবেষণায় দেখা গেছে যে AI সামরিক ত্রুটিগুলি পদ্ধতিগত, এলোমেলো নয়। প্যাটার্নটি সবসময় একই: আরও শক্তি, দ্রুত।
- হ্যালুসিনেশন। LLM গুলি উচ্চ আত্মবিশ্বাসের সাথে মিথ্যা তথ্য তৈরি করে। ইরান স্ট্রাইকের সাথে সংযুক্ত একটি পরীক্ষায়, একটি AI সিদ্ধান্ত চেইনে বানোয়াট গোয়েন্দা তথ্য খাওয়ায়। সময়ের চাপে, মানব অপারেটররা এটিকে বাস্তব থেকে আলাদা করতে পারেনি।
- প্রতিকূল দুর্বলতা। এই সিস্টেমগুলি তাদের বিধিনিষেধ বাইপাস করতে সাবধানে তৈরি ইনপুট দিয়ে ম্যানিপুলেট করা যেতে পারে। আক্রমণকারীকে বাহ্যিক হতে হবে না। দুর্বলতা মডেলের নিজেই থাকে।
এগুলি এজ কেস নয়। এটি আজকে প্রযুক্তি যা করে।
এইভাবে চিন্তা করুন। আমরা ইতিমধ্যে দেখেছি যখন সহজ স্বায়ত্তশাসিত সিস্টেমগুলি সামরিক সেটিংসে ব্যর্থ হয় তখন কী ঘটে।
2003 সালে প্যাট্রিয়ট মিসাইল সিস্টেম মিত্র সৈন্যদের হত্যা করেছিল। এটি একটি বন্ধুত্বপূর্ণ ব্রিটিশ বিমানকে শত্রু মিসাইল হিসাবে ভুল সনাক্ত করেছিল। সিস্টেমটি নিয়ম-ভিত্তিক ছিল, সংজ্ঞায়িত প্যারামিটার সহ। এটি এখনও ভুল হয়েছে।
USS Vincennes 1988 সালে ইরান এয়ার ফ্লাইট 655 — একটি বাণিজ্যিক যাত্রীবাহী জেট — গুলি করে নামিয়েছিল। 290 বেসামরিক নিহত। জাহাজের Aegis যুদ্ধ সিস্টেম রাডার ডেটার ভিত্তিতে বিমানটিকে ভুল সনাক্ত করেছিল। ক্রুদের সিদ্ধান্ত নিতে সেকেন্ড ছিল। তারা সিস্টেমকে বিশ্বাস করেছিল।
সেগুলি স্পষ্ট প্যারামিটার সহ নিয়ম-ভিত্তিক সিস্টেম ছিল। LLM গুলি পরিমাণের আদেশ আরও জটিল। আরও অস্বচ্ছ। কম পূর্বাভাসযোগ্য।
এবং তাদের বড় সিদ্ধান্ত নিতে বলা হচ্ছে।
তদারকি সমস্যা। একবার AI শ্রেণিবদ্ধ নেটওয়ার্কের ভিতরে মোতায়েন হলে, বাহ্যিক জবাবদিহিতা বিশেষজ্ঞরা যাকে "প্রায় অসম্ভব" বলে অভিহিত করেন তা হয়ে ওঠে। অপারেশনাল চাপের অধীনে বিধিনিষেধগুলি ক্ষয় হয়। OpenAI যে ফিল্ড-ডিপ্লয়েড ইঞ্জিনিয়ারদের প্রতিশ্রুতি দিয়েছিল তারা কিছু মিথস্ক্রিয়া পর্যবেক্ষণ করতে পারে, নিশ্চিত। কিন্তু শ্রেণিবদ্ধ অপারেশনগুলি ডিজাইনের মাধ্যমে তথ্য প্রবাহ সীমিত করে।
ইংরেজিতে: একই দেয়াল যা গোপনীয়তা রাখে সেগুলি তদারকিও বাইরে রাখে।
পেন্টাগনের একটি পয়েন্ট আছে। এটি একটি ন্যায্য শুনানি প্রাপ্য।
আংশিকভাবে স্বায়ত্তশাসিত অস্ত্র — যেমন ইউক্রেনে ব্যবহৃত ড্রোন — জীবন বাঁচায়। তারা ছোট বাহিনীকে বড়দের বিরুদ্ধে রক্ষা করতে দেয়। চীন এবং রাশিয়া তাদের নিজস্ব সিস্টেম মোতায়েন করার আগে নিখুঁত নির্ভরযোগ্যতার জন্য অপেক্ষা করছে না।
প্রতিরক্ষায় AI ব্যবহার করতে অস্বীকার করা একটি সক্ষমতার ফাঁক তৈরি করে। প্রতিপক্ষরা এটি কাজে লাগাবে।
Dario Amodei এটি সরাসরি স্বীকার করেছেন:
তার আপত্তি গন্তব্যের নয়। এটি ছিল সময়সীমার।
তিনি সেখানে পৌঁছানোর জন্য প্রয়োজনীয় R&D-তে সহযোগিতা করার প্রস্তাব দিয়েছিলেন। পেন্টাগন না বলেছে।
"AI গোয়েন্দা প্রতিবেদন সংক্ষিপ্ত করতে পারে" — যেখানে এটি সত্যিকার অর্থে শ্রেষ্ঠত্ব করে — এবং "AI সিদ্ধান্ত নিতে পারে কে বেঁচে থাকবে এবং কে মারা যাবে" এর মধ্যে একটি ফাঁক রয়েছে। চুক্তিগুলি সেই ফাঁক পূরণ করে না। সংশোধনীগুলি এটি পূরণ করে না। ইঞ্জিনিয়ারিং করে।
এবং ইঞ্জিনিয়ারিং সম্পন্ন হয়নি।
কীভাবে আপনি একটি আমেরিকান কোম্পানি কালো তালিকাভুক্ত করেন
সাপ্লাই চেইন রিস্ক। এটি আমলাতান্ত্রিক শোনাচ্ছে। এটি আসলে একটি কিল সুইচ।
Federal Acquisition Supply Chain Security Act of 2018 — FASCSA — এর অধীনে একটি "সাপ্লাই চেইন রিস্ক" পদবীর অর্থ হল কোন সরকারী ঠিকাদার আপনার সাথে ব্যবসা করতে পারবে না। শুধুমাত্র পেন্টাগন নয়। যে কেউ একটি ফেডারেল চুক্তি চায়। সরকারী ইকোসিস্টেমে যে কোনো সরবরাহকারী, উপ-ঠিকাদার বা অংশীদার।
ইংরেজিতে: আপনি সম্পূর্ণ ফেডারেল সাপ্লাই চেইনের জন্য তেজস্ক্রিয় হয়ে ওঠেন।
আইনটি বিদেশী হুমকির জন্য তৈরি করা হয়েছিল। Huawei-এর 5G অবকাঠামো। Kaspersky-এর অ্যান্টিভাইরাস সফটওয়্যার। শত্রু সরকারগুলির সাথে নথিভুক্ত সংযোগ সহ কোম্পানিগুলি।
Anthropic-এর আগে তালিকার প্রতিটি কোম্পানির একটি জিনিস মিল ছিল: তারা মার্কিন যুক্তরাষ্ট্রের প্রতিপক্ষ হিসাবে বিবেচিত দেশগুলি থেকে ছিল।
Anthropic-এর সদর দফতর সান ফ্রান্সিসকোতে।
পেন্টাগন Defense Production Act-এরও হুমকি দিয়েছিল — একটি শীতল যুদ্ধ-যুগের আইন যা যুদ্ধকালীন উৎপাদনের জন্য কারখানাগুলি আদেশ করার জন্য ডিজাইন করা হয়েছিল। ইস্পাত মিল। গোলাবারুদ প্ল্যান্ট। যুদ্ধের ভৌত অবকাঠামো।
পেন্টাগন এটি একটি সফটওয়্যার কোম্পানিকে একটি AI চ্যাটবট থেকে নিরাপত্তা বৈশিষ্ট্যগুলি সরিয়ে ফেলতে বাধ্য করার জন্য ব্যবহার করার হুমকি দিয়েছিল।
আইনি বিশেষজ্ঞরা আবেদনটিকে "প্রশ্নবিদ্ধ" বলে অভিহিত করেছেন। আইনটি ভৌত উৎপাদনের জন্য তৈরি করা হয়েছিল, সফটওয়্যার বিধিনিষেধের জন্য নয়। একটি কোম্পানিকে তার AI কম নিরাপদ করতে বাধ্য করতে এটি ব্যবহার করা কমপক্ষে একটি নতুন আইনি তত্ত্ব হবে।
Amodei তার বিবৃতিতে যৌক্তিক সমস্যা চিহ্নিত করেছেন:
আপনি একটি প্রযুক্তিকে সাপ্লাই চেইনের জন্য হুমকি বলতে পারবেন না এবং এটি দখল করার জন্য জরুরী ক্ষমতা প্রয়োগ করতে পারবেন না কারণ আপনি এটি ছাড়া কাজ করতে পারবেন না। একটি বেছে নিন।
ব্যবহারিক ফলাফল বলছে। CBS News রিপোর্ট করেছে Claude সক্রিয় সামরিক ব্যবহারে রয়ে গেছে। কালো তালিকাভুক্তকরণ সত্ত্বেও। পদবীটি শাস্তিমূলক ছিল, ব্যবহারিক নয় — প্রযুক্তিটি ছিঁড়ে ফেলার জন্য খুব এম্বেডেড ছিল।
যা একটি প্রশ্ন উত্থাপন করে যার উত্তর ওয়াশিংটনে কেউই উত্সাহী বলে মনে হচ্ছে না: যদি পেন্টাগন প্রযুক্তির জন্য একটি অপসারণ আদেশ প্রয়োগ করতে না পারে যা এটি আনুষ্ঠানিকভাবে কালো তালিকাভুক্ত করেছে, তাহলে এটি ঠিক কীভাবে ব্যবহার গার্ডরেলগুলি প্রয়োগ করবে?
পেন্টাগনের অবস্থান সোজা। ব্যক্তিগত কোম্পানিগুলি সামরিক নীতি সেট করে না। AI ফার্মগুলি বিক্রেতা। সামরিক বাহিনী সিদ্ধান্ত নেয় এর সরঞ্জামগুলি কীভাবে ব্যবহার করা হয়।
এই দৃষ্টিকোণ থেকে, Anthropic একটি সরবরাহকারী ছিল যে যা অর্ডার করা হয়েছিল তা সরবরাহ করতে অস্বীকার করেছিল। গ্রাহক অন্য একজন বিক্রেতা খুঁজে পেয়েছে।
সেই ফ্রেমিংটি অভ্যন্তরীণভাবে সামঞ্জস্যপূর্ণ। এটি সেই ফ্রেমিং যা আপনি অফিস সরবরাহের জন্য ব্যবহার করবেন। প্রযুক্তির জন্য নয় যা সিমুলেশনের 95% পারমাণবিক এস্কেলেশন বেছে নিয়েছে।
গার্ডরেলগুলি কি বাস্তব?
শুক্রবার, OpenAI-এর চুক্তিতে গার্ডরেল ছিল। সোমবারের মধ্যে, এটির আরও গার্ডরেল প্রয়োজন।
এটি আপনাকে শুক্রবারের গার্ডরেল সম্পর্কে কিছু বলে।
Altman সোমবারের সংশোধনীতে যে ভাষায় সম্মত হয়েছিলেন তা একটি ঘনিষ্ঠ পড়ার যোগ্য:
ভারী উত্তোলন করা শব্দ: ইচ্ছাকৃতভাবে।
যখন একটি AI এমন একটি ডেটাসেট প্রক্রিয়া করে যা ঘটনাক্রমে আমেরিকানদের অন্তর্ভুক্ত করে তখন কী ঘটে? যদি নজরদারি একটি বৃহত্তর গোয়েন্দা অপারেশনের উপজাত হয়, বর্ণিত উদ্দেশ্য নয়? একটি শ্রেণিবদ্ধ নেটওয়ার্কের ভিতরে উদ্দেশ্যকে কে সংজ্ঞায়িত করে যেখানে তদারকি প্রক্রিয়াগুলি, ডিজাইনের মাধ্যমে, সীমিত?
বাণিজ্যিকভাবে অর্জিত ডেটা ধারাটি আরও বেশি প্রকাশক। সোমবারের সংশোধনী সুস্পষ্টভাবে আমেরিকানদের নজরদারির জন্য ক্রয়কৃত ব্যক্তিগত ডেটা — অবস্থান ট্র্যাকিং, ব্রাউজিং ইতিহাস, আর্থিক রেকর্ড — ব্যবহার নিষিদ্ধ করে।
সেই ধারাটি সোমবার যোগ করা হয়েছিল। শুক্রবারের চুক্তিতে এটি অন্তর্ভুক্ত ছিল না।
একটি সম্পূর্ণ সপ্তাহান্তের জন্য, পেন্টাগনের সাথে OpenAI-এর চুক্তি প্রযুক্তিগতভাবে আমেরিকান নাগরিকদের সম্পর্কে বাণিজ্যিকভাবে ক্রয়কৃত ডেটার মাধ্যমে ব্যাপক নজরদারির অনুমতি দিয়েছিল।
Altman এতটাই স্বীকার করেছেন:
NSA কার্ভ-আউটও পরীক্ষা করার যোগ্য। NSA-এর মতো গোয়েন্দা সংস্থাগুলি চুক্তিতে একটি "ফলো-অন পরিবর্তন" ছাড়া OpenAI-এর সিস্টেম ব্যবহার করতে পারে না। এটি একটি নিষেধাজ্ঞার মতো শোনাচ্ছে। এটি আসলে একটি প্রক্রিয়া। অ্যাক্সেস মঞ্জুর করার প্রক্রিয়াটি চুক্তি কাঠামোতে নির্মিত।
এটি একটি দেয়াল নয়। এটি একটি ভিন্ন চাবি সহ একটি দরজা।
গভীর সমস্যা হল সর্ব-হাত দ্বন্দ্ব। একই দিনে Altman X-এ নীতি এবং গার্ডরেল সম্পর্কে পোস্ট করেছেন, তিনি অভ্যন্তরীণভাবে কর্মচারীদের বলেছিলেন যে OpenAI "সামরিক বাহিনী তার প্রযুক্তি কীভাবে ব্যবহার করে তা বেছে নিতে পারে না।"
যদি AI তৈরি করা কোম্পানি এটি কীভাবে ব্যবহার করা হয় তা বেছে নিতে না পারে, তাহলে গার্ডরেলগুলি একটি প্রেস রিলিজ। একটি নীতি নয়।
শ্রেণিবদ্ধ পরিবেশে, AI পর্যবেক্ষণ করা একটি ক্লাউড সেবা পর্যবেক্ষণ করার থেকে মৌলিকভাবে ভিন্ন। যে নিরাপত্তা যন্ত্র সামরিক গোপনীয়তা রক্ষা করে তা AI আচরণের স্বাধীন তদারকিও ব্লক করে।
ফিল্ড-ডিপ্লয়েড ইঞ্জিনিয়াররা কিছু মিথস্ক্রিয়া দেখতে পারে। কিন্তু "কিছু মিথস্ক্রিয়া" এবং "চুক্তি যা কভার করে প্রতিটি মিথস্ক্রিয়া" খুব ভিন্ন জিনিস।
পরবর্তীতে কী আসবে
বাজার কথা বলেছে। সহযোগিতা চুক্তি পায়। প্রতিরোধ কালো তালিকাভুক্ত হয়।
জনসাধারণও কথা বলেছে। তারা আনইনস্টল করছে।
প্রণোদনা কাঠামো স্পষ্ট। OpenAI সহযোগিতা করেছে এবং চুক্তিটি অবতরণ করেছে। Anthropic প্রতিরোধ করেছে এবং একটি সাপ্লাই চেইন রিস্ক হিসাবে মনোনীত হয়েছে — একই লেবেল যা সরকার বিদেশী প্রতিপক্ষের সাথে যুক্ত কোম্পানিগুলির জন্য ব্যবহার করে।
a16z সামিটে, Karp ভবিষ্যদ্বাণী করেছেন যে প্রতিটি AI কোম্পানি তিন বছরের মধ্যে সামরিক বাহিনীর সাথে কাজ করবে। প্রণোদনার ভিত্তিতে, এটি একটি ভবিষ্যদ্বাণী নয়। এটি একটি বর্ণনা।
কিন্তু প্রতিক্রিয়া সংখ্যা একটি ভিন্ন গল্প বলে।
295% আনইনস্টল বৃদ্ধি। সাতটি দেশে Claude #1-এ। তাদের নিয়োগকর্তাদের সাথে র্যাঙ্ক ভাঙার 500 জনেরও বেশি প্রযুক্তি কর্মচারী। Le Monde প্যারিস থেকে সরকারী অতিরিক্ত পৌঁছানোর বিষয়ে সম্পাদকীয়। জরিপ দেখাচ্ছে 84% ব্রিটিশ নাগরিক সরকার-কর্পোরেট AI অংশীদারিত্ব নিয়ে উদ্বিগ্ন।
এই সিস্টেমগুলি তৈরি করা ইঞ্জিনিয়াররা এবং তাদের ব্যবহারকারী লোকেরা এমন কিছু দেখেন যা পেন্টাগন স্পষ্টতই দেখে না: জাতীয় প্রতিরক্ষা সমর্থন করা এবং স্বায়ত্তশাসিত হত্যার জন্য অবিশ্বস্ত প্রযুক্তি মোতায়েন করা একই জিনিস নয়।
কোন চুক্তি সংশোধনী এই ফাঁক বন্ধ করে না। কোন গার্ডরেল এটি বন্ধ করে না। কোন ফিল্ড-ডিপ্লয়েড ইঞ্জিনিয়ার এটি বন্ধ করে না।
AI মডেলগুলি যুদ্ধ গেম সিমুলেশনের 95% পারমাণবিক এস্কেলেশন বেছে নিয়েছে। যে কোম্পানি বলেছিল "প্রযুক্তি এখনও প্রস্তুত নয়" তাকে কালো তালিকাভুক্ত করা হয়েছিল। যে কোম্পানি "হ্যাঁ" বলেছিল তা 72 ঘন্টার মধ্যে স্বীকার করেছে যে এটি অবহেলিত ছিল। প্রযুক্তিটি সক্রিয় অপারেশনে মোতায়েন রয়ে গেছে যে কোনো কোম্পানি চায় তা নির্বিশেষে।
Amodei স্বায়ত্তশাসিত AI অস্ত্রগুলিকে নিরাপদ এবং নির্ভরযোগ্য করার জন্য R&D করার প্রস্তাব দিয়েছিলেন। তিনি সেখানে পৌঁছানোর জন্য পেন্টাগনের সাথে সহযোগিতা করার প্রস্তাব দিয়েছিলেন। প্রস্তাবটি প্রত্যাখ্যান করা হয়েছিল।
Anthropic-এর $200M চুক্তি এবং পেন্টাগনের বিশ্বাস ছিল। তারপর তারা জিজ্ঞাসা করেছিল তাদের প্রযুক্তি কীভাবে ব্যবহার করা হচ্ছে।
উত্তর ছিল একটি সময়সীমা, একটি কালো তালিকাভুক্তকরণ এবং আগে আমেরিকার প্রতিপক্ষের জন্য সংরক্ষিত একটি লেবেল।
সিমুলেশনগুলি চলতে থাকে। তাদের 95%-এ, কেউ বোতাম চাপে।
উৎস: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

