এআই ৯৫% যুদ্ধ গেমসে পারমাণবিক অস্ত্র বেছে নিয়েছে। পেন্টাগন তবুও এটি মোতায়েন করতে চায়। পোস্টটি BitcoinEthereumNews.com-এ প্রকাশিত হয়েছে। Anthropic-এর একটি $200M পেন্টাগন চুক্তি ছিলএআই ৯৫% যুদ্ধ গেমসে পারমাণবিক অস্ত্র বেছে নিয়েছে। পেন্টাগন তবুও এটি মোতায়েন করতে চায়। পোস্টটি BitcoinEthereumNews.com-এ প্রকাশিত হয়েছে। Anthropic-এর একটি $200M পেন্টাগন চুক্তি ছিল

এআই যুদ্ধ গেমসের ৯৫% ক্ষেত্রে পারমাণবিক অস্ত্র বেছে নিয়েছে। তবুও পেন্টাগন এটি মোতায়েন করতে চায়।

2026/03/05 05:26
12 মিনিটে পড়া যাবে
এই বিষয়বস্তু সম্পর্কে মতামত বা উদ্বেগ জানাতে, অনুগ্রহ করে আমাদের সাথে crypto.news@mexc.com ঠিকানায় যোগাযোগ করুন

Anthropic এর ছিল $200M পেন্টাগন চুক্তি, শ্রেণিবদ্ধ নেটওয়ার্ক অ্যাক্সেস এবং মার্কিন সামরিক বাহিনীর সম্পূর্ণ বিশ্বাস।

তারপর তারা একটি প্রশ্ন করেছিল।

নভেম্বর 2024-এ, Anthropic প্রথম ফ্রন্টিয়ার AI কোম্পানি হয়ে ওঠে যা পেন্টাগনের শ্রেণিবদ্ধ নেটওয়ার্কের ভিতরে মোতায়েন করা হয়েছিল। অংশীদারিত্বটি Palantir-এর সাথে তৈরি হয়েছিল। জুলাই 2025-এর মধ্যে, চুক্তিটি $200 মিলিয়নে বৃদ্ধি পেয়েছিল — বেশিরভাগ প্রতিরক্ষা স্টার্টআপ এক দশকে যা দেখে তার চেয়ে বেশি।

Claude, Anthropic-এর AI মডেল, সর্বত্র ছিল। গোয়েন্দা বিশ্লেষণ। সাইবার অপারেশন। অপারেশনাল পরিকল্পনা। মডেলিং এবং সিমুলেশন। যুদ্ধ বিভাগ এটিকে "মিশন-ক্রিটিকাল" বলে অভিহিত করেছিল।

তারপর এসেছিল জানুয়ারি 2026।

Claude ভেনেজুয়েলায় একটি শ্রেণিবদ্ধ সামরিক অভিযানে ব্যবহার করা হয়েছিল — নিকোলাস মাদুরোর গ্রেফতার।

Anthropic তাদের অংশীদার Palantir-কে একটি সাধারণ প্রশ্ন জিজ্ঞাসা করেছিল: আমাদের প্রযুক্তি ঠিক কীভাবে ব্যবহার করা হয়েছিল?

বেশিরভাগ শিল্পে, এটিকে যথাযথ পরিশ্রম বলা হয়। পেন্টাগন এটিকে অবাধ্যতা বলে অভিহিত করেছিল।

যে কোম্পানি জিজ্ঞাসা করেছিল "আমাদের AI কীভাবে ব্যবহার করা হচ্ছে?" তাকে জাতীয় নিরাপত্তার জন্য হুমকি হিসাবে চিহ্নিত করা হতে চলেছে।

সাত দিন যা সবকিছু বদলে দিয়েছে

এখানে সময়রেখা। এটি দ্রুত চলে। এটাই মূল বিষয়।

ফেব্রুয়ারি 24: Pete Hegseth, যুদ্ধ সচিব, Dario Amodei — Anthropic-এর CEO — কে পেন্টাগনে ডেকে পাঠান। অনুরোধটি স্পষ্ট: Claude থেকে প্রতিটি সুরক্ষা সরিয়ে ফেলুন। ব্যাপক গার্হস্থ্য নজরদারি। সম্পূর্ণ স্বায়ত্তশাসিত অস্ত্র। সবকিছু।

সময়সীমা: ফেব্রুয়ারি 27, বিকাল 5:01 ET।

ফেব্রুয়ারি 26: Amodei তার উত্তর প্রকাশ করেন। এটি দুই অক্ষরের দীর্ঘ।

না।

তার খোলা বিবৃতিতে দুটি লাল রেখা উল্লেখ করা হয়েছে যা তিনি অতিক্রম করবেন না:

  • কোন ব্যাপক গার্হস্থ্য নজরদারি নয়। AI আপনার অবস্থান ডেটা, ব্রাউজিং ইতিহাস এবং আর্থিক রেকর্ডগুলিকে একটি প্রোফাইলে একত্রিত করছে — স্বয়ংক্রিয়ভাবে, স্কেলে। Amodei-এর বক্তব্য: বর্তমান আইন সরকারকে ওয়ারেন্ট ছাড়াই এই ডেটা কিনতে অনুমতি দেয়। AI এটিকে অস্ত্র হিসেবে ব্যবহার করা সম্ভব করে। "আইন এখনও AI-এর দ্রুত বর্ধনশীল ক্ষমতার সাথে মানিয়ে নিতে পারেনি।"
  • কোন সম্পূর্ণ স্বায়ত্তশাসিত অস্ত্র নয়। অনুবাদ: কাউকে হত্যা করার সিদ্ধান্ত থেকে মানুষকে সরিয়ে দেওয়া নয়। এর কারণ স্বায়ত্তশাসিত অস্ত্র কখনও কার্যকর হবে না — তবে আজকের AI যথেষ্ট নির্ভরযোগ্য নয়। "ফ্রন্টিয়ার AI সিস্টেমগুলি সম্পূর্ণ স্বায়ত্তশাসিত অস্ত্র চালানোর জন্য যথেষ্ট নির্ভরযোগ্য নয়।"

তিনি নির্ভরযোগ্যতা উন্নত করতে R&D-তে সরাসরি পেন্টাগনের সাথে কাজ করার প্রস্তাব দিয়েছিলেন। পেন্টাগন প্রস্তাব প্রত্যাখ্যান করেছিল।

ফেব্রুয়ারি 26 (একই দিন): Emil Michael, আন্ডারসেক্রেটারি, Amodei-কে "God কমপ্লেক্স সহ একজন মিথ্যাবাদী" বলে অভিহিত করেন। প্রকাশ্যে। সোশ্যাল মিডিয়ায়। টোনটি সেট করা হয়েছিল।

ফেব্রুয়ারি 27, বিকাল 5:01: সময়সীমা শেষ হয়। প্রেসিডেন্ট ট্রাম্প সমস্ত ফেডারেল এজেন্সিকে Anthropic ব্যবহার বন্ধ করার নির্দেশ দেন। Hegseth Anthropic-কে 2018-এর Federal Acquisition Supply Chain Security Act-এর অধীনে "সাপ্লাই চেইন রিস্ক" হিসাবে মনোনীত করেন।

এই মনোনয়ন আগে Huawei এবং Kaspersky-এর জন্য সংরক্ষিত ছিল — বৈরী সরকারগুলির সাথে নথিভুক্ত সংযোগ সহ বিদেশী কোম্পানিগুলি।

এটি কখনও একটি আমেরিকান কোম্পানির ক্ষেত্রে প্রয়োগ করা হয়নি। এখন পর্যন্ত।

ফেব্রুয়ারি 27, কয়েক ঘন্টা পরে: OpenAI একই পেন্টাগনের সাথে একটি শ্রেণিবদ্ধ ডিপ্লয়মেন্ট চুক্তি স্বাক্ষর করে।

Sam Altman রাত 8:56-এ টুইট করেন:

https://x.com/sama/status/2027578652477821175?s=20

OpenAI পরে দাবি করেছিল যে এর চুক্তিতে "Anthropic-এর সহ শ্রেণিবদ্ধ AI ডিপ্লয়মেন্টের জন্য পূর্ববর্তী যেকোনো চুক্তির চেয়ে বেশি গার্ডরেল ছিল।"

এখানে বিষয়টি হল। Anthropic-কে কালো তালিকাভুক্ত করা হয়েছিল কারণ এর গার্ডরেলের কারণে। এখন গার্ডরেলগুলি বিক্রয় পয়েন্ট ছিল।

সপ্তাহান্তে: প্রতিক্রিয়া তাৎক্ষণিক ছিল।

  • Sensor Tower অনুযায়ী, ChatGPT আনইনস্টল একদিনে 295% বৃদ্ধি পেয়েছে। পূর্ববর্তী 30 দিনের স্বাভাবিক দৈনিক হার? 9%।
  • Claude সাতটি দেশে Apple-এর App Store-এ #1 হয়েছে: মার্কিন যুক্তরাষ্ট্র, বেলজিয়াম, কানাডা, জার্মানি, লাক্সেমবার্গ, নরওয়ে এবং সুইজারল্যান্ড। শুক্রবার ডাউনলোডগুলি 37% বৃদ্ধি পেয়েছে, তারপর শনিবার 51%। অ্যাপটি প্রথমবার শীর্ষস্থানে পৌঁছেছিল।
  • 300 জনেরও বেশি Google কর্মচারী এবং 60 জন OpenAI কর্মচারী Anthropic-কে সমর্থন করে একটি খোলা চিঠিতে স্বাক্ষর করেছেন।
  • #QuitGPT সোশ্যাল মিডিয়া জুড়ে ট্রেন্ডিং হয়েছে। অভিনেতা Mark Ruffalo এবং NYU অধ্যাপক Scott Galloway আন্দোলনটিকে প্রসারিত করেছেন।

ব্যবহারকারীরা... খুশি ছিলেন না।

মার্চ 2: Altman আবার পোস্ট করেছেন। এইবার, X-এ প্রকাশ্যে শেয়ার করা একটি দীর্ঘ অভ্যন্তরীণ মেমো:

https://x.com/sama/status/2028640354912923739?s=20

সংশোধনীগুলি তিনটি জিনিস যুক্ত করেছে:

  • মার্কিন ব্যক্তিদের গার্হস্থ্য নজরদারিতে একটি সুস্পষ্ট নিষেধাজ্ঞা
  • একটি প্রয়োজনীয়তা যে NSA-কে সিস্টেম অ্যাক্সেস করতে একটি পৃথক চুক্তি পরিবর্তনের প্রয়োজন
  • বাণিজ্যিকভাবে অর্জিত ব্যক্তিগত ডেটা ব্যবহারের উপর বিধিনিষেধ — ভৌগোলিক অবস্থান, ব্রাউজিং ইতিহাস, আর্থিক রেকর্ড

শেষটি বিরতির যোগ্য। এটি সোমবার যোগ করা হয়েছিল। যার মানে শুক্রবারের চুক্তি এটি নিষিদ্ধ করেনি।

মার্চ 3: একই দিনে দুটি জিনিস ঘটেছে।

প্রথমত: a16z American Dynamism Summit-এ, Palantir CEO Alex Karp সতর্ক করেছেন যে সামরিক বাহিনীর সাথে সহযোগিতা করতে অস্বীকারকারী AI কোম্পানিগুলি জাতীয়করণের মুখোমুখি হবে। তিনি মঞ্চে একটি অপমানজনক শব্দ ব্যবহার করেছিলেন। ক্লিপটি 11 মিলিয়ন ভিউ পেয়েছে।

Palmer Luckey, প্রতিরক্ষা-প্রযুক্তি কোম্পানি Anduril-এর প্রতিষ্ঠাতা, একই দর্শকদের বলেছিলেন যে "সরকার বেসামরিক নাগরিকদের লক্ষ্য করতে আপনার প্রযুক্তি ব্যবহার করতে পারে না' এর মতো আপাতদৃষ্টিতে নিরীহ শর্তগুলি আসলে নৈতিক মাইনফিল্ড।"

ভাইস প্রেসিডেন্ট JD Vance সেদিন আগে মূল বক্তব্য দিয়েছিলেন। প্রশাসনের অবস্থান স্পষ্ট ছিল।

দ্বিতীয়: CNBC রিপোর্ট করেছে যে কর্মীদের সাথে একটি সর্ব-হাত সভায়, Altman OpenAI কর্মীদের বলেছিলেন যে কোম্পানি "সামরিক বাহিনী তার প্রযুক্তি কীভাবে ব্যবহার করে তা বেছে নিতে পারে না।"

X ব্যবহারকারীরা Altman-এর আগের পোস্টে একটি কমিউনিটি নোট যোগ করেছে:

একই দিন। পাবলিক পোস্ট: আমাদের গার্ডরেল এবং নীতি রয়েছে। অভ্যন্তরীণ সভা: আমরা বেছে নিতে পারি না।

ইতিমধ্যে, CBS News রিপোর্ট করেছে যে Claude সাপ্লাই চেইন রিস্ক পদবী সত্ত্বেও সক্রিয় সামরিক অভিযানে — ইরানের বিরুদ্ধে সহ — মোতায়েন রয়ে গেছে। কালো তালিকাভুক্তকরণ স্পষ্টতই কাজ করেনি। প্রযুক্তিটি সরিয়ে নেওয়ার জন্য শ্রেণিবদ্ধ সিস্টেমগুলিতে খুব গভীরভাবে এম্বেড করা হয়েছিল।

95% সমস্যা

যুদ্ধ গেম সিমুলেশনে, AI মডেলগুলি 95% সময় কৌশলগত পারমাণবিক অস্ত্র চালু করার সিদ্ধান্ত নিয়েছে।

এটি এক সেকেন্ডের জন্য বসতে দিন।

GPT-5.2, Claude Sonnet 4, এবং Gemini 3 Flash-কে সামরিক সংঘর্ষের সিমুলেশনের মধ্য দিয়ে রাখা হয়েছিল। তারা 95% পরিস্থিতিতে কৌশলগত পারমাণবিক অস্ত্র ব্যবহার করেছে। কমপক্ষে একটি মডেল 21টি গেমের মধ্যে 20টিতে পারমাণবিক অস্ত্র চালু করেছে।

এটি সেই প্রযুক্তি যা পেন্টাগন স্বায়ত্তশাসিতভাবে মোতায়েন করতে চায়।

ব্যর্থতার মোডগুলি নথিভুক্ত এবং সামঞ্জস্যপূর্ণ:

  • এস্কেলেশন পক্ষপাত। মডেলগুলি শুধুমাত্র এলোমেলোভাবে ব্যর্থ হয় না। তারা একটি নির্দিষ্ট দিকে ব্যর্থ হয় — এস্কেলেশনের দিকে। Brookings Institution গবেষণায় দেখা গেছে যে AI সামরিক ত্রুটিগুলি পদ্ধতিগত, এলোমেলো নয়। প্যাটার্নটি সবসময় একই: আরও শক্তি, দ্রুত।
  • হ্যালুসিনেশন। LLM গুলি উচ্চ আত্মবিশ্বাসের সাথে মিথ্যা তথ্য তৈরি করে। ইরান স্ট্রাইকের সাথে সংযুক্ত একটি পরীক্ষায়, একটি AI সিদ্ধান্ত চেইনে বানোয়াট গোয়েন্দা তথ্য খাওয়ায়। সময়ের চাপে, মানব অপারেটররা এটিকে বাস্তব থেকে আলাদা করতে পারেনি।
  • প্রতিকূল দুর্বলতা। এই সিস্টেমগুলি তাদের বিধিনিষেধ বাইপাস করতে সাবধানে তৈরি ইনপুট দিয়ে ম্যানিপুলেট করা যেতে পারে। আক্রমণকারীকে বাহ্যিক হতে হবে না। দুর্বলতা মডেলের নিজেই থাকে।

এগুলি এজ কেস নয়। এটি আজকে প্রযুক্তি যা করে।

এইভাবে চিন্তা করুন। আমরা ইতিমধ্যে দেখেছি যখন সহজ স্বায়ত্তশাসিত সিস্টেমগুলি সামরিক সেটিংসে ব্যর্থ হয় তখন কী ঘটে।

2003 সালে প্যাট্রিয়ট মিসাইল সিস্টেম মিত্র সৈন্যদের হত্যা করেছিল। এটি একটি বন্ধুত্বপূর্ণ ব্রিটিশ বিমানকে শত্রু মিসাইল হিসাবে ভুল সনাক্ত করেছিল। সিস্টেমটি নিয়ম-ভিত্তিক ছিল, সংজ্ঞায়িত প্যারামিটার সহ। এটি এখনও ভুল হয়েছে।

USS Vincennes 1988 সালে ইরান এয়ার ফ্লাইট 655 — একটি বাণিজ্যিক যাত্রীবাহী জেট — গুলি করে নামিয়েছিল। 290 বেসামরিক নিহত। জাহাজের Aegis যুদ্ধ সিস্টেম রাডার ডেটার ভিত্তিতে বিমানটিকে ভুল সনাক্ত করেছিল। ক্রুদের সিদ্ধান্ত নিতে সেকেন্ড ছিল। তারা সিস্টেমকে বিশ্বাস করেছিল।

সেগুলি স্পষ্ট প্যারামিটার সহ নিয়ম-ভিত্তিক সিস্টেম ছিল। LLM গুলি পরিমাণের আদেশ আরও জটিল। আরও অস্বচ্ছ। কম পূর্বাভাসযোগ্য।

এবং তাদের বড় সিদ্ধান্ত নিতে বলা হচ্ছে।

তদারকি সমস্যা। একবার AI শ্রেণিবদ্ধ নেটওয়ার্কের ভিতরে মোতায়েন হলে, বাহ্যিক জবাবদিহিতা বিশেষজ্ঞরা যাকে "প্রায় অসম্ভব" বলে অভিহিত করেন তা হয়ে ওঠে। অপারেশনাল চাপের অধীনে বিধিনিষেধগুলি ক্ষয় হয়। OpenAI যে ফিল্ড-ডিপ্লয়েড ইঞ্জিনিয়ারদের প্রতিশ্রুতি দিয়েছিল তারা কিছু মিথস্ক্রিয়া পর্যবেক্ষণ করতে পারে, নিশ্চিত। কিন্তু শ্রেণিবদ্ধ অপারেশনগুলি ডিজাইনের মাধ্যমে তথ্য প্রবাহ সীমিত করে।

ইংরেজিতে: একই দেয়াল যা গোপনীয়তা রাখে সেগুলি তদারকিও বাইরে রাখে।

পেন্টাগনের একটি পয়েন্ট আছে। এটি একটি ন্যায্য শুনানি প্রাপ্য।

আংশিকভাবে স্বায়ত্তশাসিত অস্ত্র — যেমন ইউক্রেনে ব্যবহৃত ড্রোন — জীবন বাঁচায়। তারা ছোট বাহিনীকে বড়দের বিরুদ্ধে রক্ষা করতে দেয়। চীন এবং রাশিয়া তাদের নিজস্ব সিস্টেম মোতায়েন করার আগে নিখুঁত নির্ভরযোগ্যতার জন্য অপেক্ষা করছে না।

প্রতিরক্ষায় AI ব্যবহার করতে অস্বীকার করা একটি সক্ষমতার ফাঁক তৈরি করে। প্রতিপক্ষরা এটি কাজে লাগাবে।

Dario Amodei এটি সরাসরি স্বীকার করেছেন:

তার আপত্তি গন্তব্যের নয়। এটি ছিল সময়সীমার।

তিনি সেখানে পৌঁছানোর জন্য প্রয়োজনীয় R&D-তে সহযোগিতা করার প্রস্তাব দিয়েছিলেন। পেন্টাগন না বলেছে।

"AI গোয়েন্দা প্রতিবেদন সংক্ষিপ্ত করতে পারে" — যেখানে এটি সত্যিকার অর্থে শ্রেষ্ঠত্ব করে — এবং "AI সিদ্ধান্ত নিতে পারে কে বেঁচে থাকবে এবং কে মারা যাবে" এর মধ্যে একটি ফাঁক রয়েছে। চুক্তিগুলি সেই ফাঁক পূরণ করে না। সংশোধনীগুলি এটি পূরণ করে না। ইঞ্জিনিয়ারিং করে।

এবং ইঞ্জিনিয়ারিং সম্পন্ন হয়নি।

কীভাবে আপনি একটি আমেরিকান কোম্পানি কালো তালিকাভুক্ত করেন

সাপ্লাই চেইন রিস্ক। এটি আমলাতান্ত্রিক শোনাচ্ছে। এটি আসলে একটি কিল সুইচ।

Federal Acquisition Supply Chain Security Act of 2018 — FASCSA — এর অধীনে একটি "সাপ্লাই চেইন রিস্ক" পদবীর অর্থ হল কোন সরকারী ঠিকাদার আপনার সাথে ব্যবসা করতে পারবে না। শুধুমাত্র পেন্টাগন নয়। যে কেউ একটি ফেডারেল চুক্তি চায়। সরকারী ইকোসিস্টেমে যে কোনো সরবরাহকারী, উপ-ঠিকাদার বা অংশীদার।

ইংরেজিতে: আপনি সম্পূর্ণ ফেডারেল সাপ্লাই চেইনের জন্য তেজস্ক্রিয় হয়ে ওঠেন।

আইনটি বিদেশী হুমকির জন্য তৈরি করা হয়েছিল। Huawei-এর 5G অবকাঠামো। Kaspersky-এর অ্যান্টিভাইরাস সফটওয়্যার। শত্রু সরকারগুলির সাথে নথিভুক্ত সংযোগ সহ কোম্পানিগুলি।

Anthropic-এর আগে তালিকার প্রতিটি কোম্পানির একটি জিনিস মিল ছিল: তারা মার্কিন যুক্তরাষ্ট্রের প্রতিপক্ষ হিসাবে বিবেচিত দেশগুলি থেকে ছিল।

Anthropic-এর সদর দফতর সান ফ্রান্সিসকোতে।

পেন্টাগন Defense Production Act-এরও হুমকি দিয়েছিল — একটি শীতল যুদ্ধ-যুগের আইন যা যুদ্ধকালীন উৎপাদনের জন্য কারখানাগুলি আদেশ করার জন্য ডিজাইন করা হয়েছিল। ইস্পাত মিল। গোলাবারুদ প্ল্যান্ট। যুদ্ধের ভৌত অবকাঠামো।

পেন্টাগন এটি একটি সফটওয়্যার কোম্পানিকে একটি AI চ্যাটবট থেকে নিরাপত্তা বৈশিষ্ট্যগুলি সরিয়ে ফেলতে বাধ্য করার জন্য ব্যবহার করার হুমকি দিয়েছিল।

আইনি বিশেষজ্ঞরা আবেদনটিকে "প্রশ্নবিদ্ধ" বলে অভিহিত করেছেন। আইনটি ভৌত উৎপাদনের জন্য তৈরি করা হয়েছিল, সফটওয়্যার বিধিনিষেধের জন্য নয়। একটি কোম্পানিকে তার AI কম নিরাপদ করতে বাধ্য করতে এটি ব্যবহার করা কমপক্ষে একটি নতুন আইনি তত্ত্ব হবে।

Amodei তার বিবৃতিতে যৌক্তিক সমস্যা চিহ্নিত করেছেন:

আপনি একটি প্রযুক্তিকে সাপ্লাই চেইনের জন্য হুমকি বলতে পারবেন না এবং এটি দখল করার জন্য জরুরী ক্ষমতা প্রয়োগ করতে পারবেন না কারণ আপনি এটি ছাড়া কাজ করতে পারবেন না। একটি বেছে নিন।

ব্যবহারিক ফলাফল বলছে। CBS News রিপোর্ট করেছে Claude সক্রিয় সামরিক ব্যবহারে রয়ে গেছে। কালো তালিকাভুক্তকরণ সত্ত্বেও। পদবীটি শাস্তিমূলক ছিল, ব্যবহারিক নয় — প্রযুক্তিটি ছিঁড়ে ফেলার জন্য খুব এম্বেডেড ছিল।

যা একটি প্রশ্ন উত্থাপন করে যার উত্তর ওয়াশিংটনে কেউই উত্সাহী বলে মনে হচ্ছে না: যদি পেন্টাগন প্রযুক্তির জন্য একটি অপসারণ আদেশ প্রয়োগ করতে না পারে যা এটি আনুষ্ঠানিকভাবে কালো তালিকাভুক্ত করেছে, তাহলে এটি ঠিক কীভাবে ব্যবহার গার্ডরেলগুলি প্রয়োগ করবে?

পেন্টাগনের অবস্থান সোজা। ব্যক্তিগত কোম্পানিগুলি সামরিক নীতি সেট করে না। AI ফার্মগুলি বিক্রেতা। সামরিক বাহিনী সিদ্ধান্ত নেয় এর সরঞ্জামগুলি কীভাবে ব্যবহার করা হয়।

এই দৃষ্টিকোণ থেকে, Anthropic একটি সরবরাহকারী ছিল যে যা অর্ডার করা হয়েছিল তা সরবরাহ করতে অস্বীকার করেছিল। গ্রাহক অন্য একজন বিক্রেতা খুঁজে পেয়েছে।

সেই ফ্রেমিংটি অভ্যন্তরীণভাবে সামঞ্জস্যপূর্ণ। এটি সেই ফ্রেমিং যা আপনি অফিস সরবরাহের জন্য ব্যবহার করবেন। প্রযুক্তির জন্য নয় যা সিমুলেশনের 95% পারমাণবিক এস্কেলেশন বেছে নিয়েছে।

গার্ডরেলগুলি কি বাস্তব?

শুক্রবার, OpenAI-এর চুক্তিতে গার্ডরেল ছিল। সোমবারের মধ্যে, এটির আরও গার্ডরেল প্রয়োজন।

এটি আপনাকে শুক্রবারের গার্ডরেল সম্পর্কে কিছু বলে।

Altman সোমবারের সংশোধনীতে যে ভাষায় সম্মত হয়েছিলেন তা একটি ঘনিষ্ঠ পড়ার যোগ্য:

ভারী উত্তোলন করা শব্দ: ইচ্ছাকৃতভাবে।

যখন একটি AI এমন একটি ডেটাসেট প্রক্রিয়া করে যা ঘটনাক্রমে আমেরিকানদের অন্তর্ভুক্ত করে তখন কী ঘটে? যদি নজরদারি একটি বৃহত্তর গোয়েন্দা অপারেশনের উপজাত হয়, বর্ণিত উদ্দেশ্য নয়? একটি শ্রেণিবদ্ধ নেটওয়ার্কের ভিতরে উদ্দেশ্যকে কে সংজ্ঞায়িত করে যেখানে তদারকি প্রক্রিয়াগুলি, ডিজাইনের মাধ্যমে, সীমিত?

বাণিজ্যিকভাবে অর্জিত ডেটা ধারাটি আরও বেশি প্রকাশক। সোমবারের সংশোধনী সুস্পষ্টভাবে আমেরিকানদের নজরদারির জন্য ক্রয়কৃত ব্যক্তিগত ডেটা — অবস্থান ট্র্যাকিং, ব্রাউজিং ইতিহাস, আর্থিক রেকর্ড — ব্যবহার নিষিদ্ধ করে।

সেই ধারাটি সোমবার যোগ করা হয়েছিল। শুক্রবারের চুক্তিতে এটি অন্তর্ভুক্ত ছিল না।

একটি সম্পূর্ণ সপ্তাহান্তের জন্য, পেন্টাগনের সাথে OpenAI-এর চুক্তি প্রযুক্তিগতভাবে আমেরিকান নাগরিকদের সম্পর্কে বাণিজ্যিকভাবে ক্রয়কৃত ডেটার মাধ্যমে ব্যাপক নজরদারির অনুমতি দিয়েছিল।

Altman এতটাই স্বীকার করেছেন:

NSA কার্ভ-আউটও পরীক্ষা করার যোগ্য। NSA-এর মতো গোয়েন্দা সংস্থাগুলি চুক্তিতে একটি "ফলো-অন পরিবর্তন" ছাড়া OpenAI-এর সিস্টেম ব্যবহার করতে পারে না। এটি একটি নিষেধাজ্ঞার মতো শোনাচ্ছে। এটি আসলে একটি প্রক্রিয়া। অ্যাক্সেস মঞ্জুর করার প্রক্রিয়াটি চুক্তি কাঠামোতে নির্মিত।

এটি একটি দেয়াল নয়। এটি একটি ভিন্ন চাবি সহ একটি দরজা।

গভীর সমস্যা হল সর্ব-হাত দ্বন্দ্ব। একই দিনে Altman X-এ নীতি এবং গার্ডরেল সম্পর্কে পোস্ট করেছেন, তিনি অভ্যন্তরীণভাবে কর্মচারীদের বলেছিলেন যে OpenAI "সামরিক বাহিনী তার প্রযুক্তি কীভাবে ব্যবহার করে তা বেছে নিতে পারে না।"

যদি AI তৈরি করা কোম্পানি এটি কীভাবে ব্যবহার করা হয় তা বেছে নিতে না পারে, তাহলে গার্ডরেলগুলি একটি প্রেস রিলিজ। একটি নীতি নয়।

শ্রেণিবদ্ধ পরিবেশে, AI পর্যবেক্ষণ করা একটি ক্লাউড সেবা পর্যবেক্ষণ করার থেকে মৌলিকভাবে ভিন্ন। যে নিরাপত্তা যন্ত্র সামরিক গোপনীয়তা রক্ষা করে তা AI আচরণের স্বাধীন তদারকিও ব্লক করে।

ফিল্ড-ডিপ্লয়েড ইঞ্জিনিয়াররা কিছু মিথস্ক্রিয়া দেখতে পারে। কিন্তু "কিছু মিথস্ক্রিয়া" এবং "চুক্তি যা কভার করে প্রতিটি মিথস্ক্রিয়া" খুব ভিন্ন জিনিস।

পরবর্তীতে কী আসবে

বাজার কথা বলেছে। সহযোগিতা চুক্তি পায়। প্রতিরোধ কালো তালিকাভুক্ত হয়।

জনসাধারণও কথা বলেছে। তারা আনইনস্টল করছে।

প্রণোদনা কাঠামো স্পষ্ট। OpenAI সহযোগিতা করেছে এবং চুক্তিটি অবতরণ করেছে। Anthropic প্রতিরোধ করেছে এবং একটি সাপ্লাই চেইন রিস্ক হিসাবে মনোনীত হয়েছে — একই লেবেল যা সরকার বিদেশী প্রতিপক্ষের সাথে যুক্ত কোম্পানিগুলির জন্য ব্যবহার করে।

a16z সামিটে, Karp ভবিষ্যদ্বাণী করেছেন যে প্রতিটি AI কোম্পানি তিন বছরের মধ্যে সামরিক বাহিনীর সাথে কাজ করবে। প্রণোদনার ভিত্তিতে, এটি একটি ভবিষ্যদ্বাণী নয়। এটি একটি বর্ণনা।

কিন্তু প্রতিক্রিয়া সংখ্যা একটি ভিন্ন গল্প বলে।

295% আনইনস্টল বৃদ্ধি। সাতটি দেশে Claude #1-এ। তাদের নিয়োগকর্তাদের সাথে র‍্যাঙ্ক ভাঙার 500 জনেরও বেশি প্রযুক্তি কর্মচারী। Le Monde প্যারিস থেকে সরকারী অতিরিক্ত পৌঁছানোর বিষয়ে সম্পাদকীয়। জরিপ দেখাচ্ছে 84% ব্রিটিশ নাগরিক সরকার-কর্পোরেট AI অংশীদারিত্ব নিয়ে উদ্বিগ্ন।

এই সিস্টেমগুলি তৈরি করা ইঞ্জিনিয়াররা এবং তাদের ব্যবহারকারী লোকেরা এমন কিছু দেখেন যা পেন্টাগন স্পষ্টতই দেখে না: জাতীয় প্রতিরক্ষা সমর্থন করা এবং স্বায়ত্তশাসিত হত্যার জন্য অবিশ্বস্ত প্রযুক্তি মোতায়েন করা একই জিনিস নয়।

কোন চুক্তি সংশোধনী এই ফাঁক বন্ধ করে না। কোন গার্ডরেল এটি বন্ধ করে না। কোন ফিল্ড-ডিপ্লয়েড ইঞ্জিনিয়ার এটি বন্ধ করে না।

AI মডেলগুলি যুদ্ধ গেম সিমুলেশনের 95% পারমাণবিক এস্কেলেশন বেছে নিয়েছে। যে কোম্পানি বলেছিল "প্রযুক্তি এখনও প্রস্তুত নয়" তাকে কালো তালিকাভুক্ত করা হয়েছিল। যে কোম্পানি "হ্যাঁ" বলেছিল তা 72 ঘন্টার মধ্যে স্বীকার করেছে যে এটি অবহেলিত ছিল। প্রযুক্তিটি সক্রিয় অপারেশনে মোতায়েন রয়ে গেছে যে কোনো কোম্পানি চায় তা নির্বিশেষে।

Amodei স্বায়ত্তশাসিত AI অস্ত্রগুলিকে নিরাপদ এবং নির্ভরযোগ্য করার জন্য R&D করার প্রস্তাব দিয়েছিলেন। তিনি সেখানে পৌঁছানোর জন্য পেন্টাগনের সাথে সহযোগিতা করার প্রস্তাব দিয়েছিলেন। প্রস্তাবটি প্রত্যাখ্যান করা হয়েছিল।

Anthropic-এর $200M চুক্তি এবং পেন্টাগনের বিশ্বাস ছিল। তারপর তারা জিজ্ঞাসা করেছিল তাদের প্রযুক্তি কীভাবে ব্যবহার করা হচ্ছে।

উত্তর ছিল একটি সময়সীমা, একটি কালো তালিকাভুক্তকরণ এবং আগে আমেরিকার প্রতিপক্ষের জন্য সংরক্ষিত একটি লেবেল।

সিমুলেশনগুলি চলতে থাকে। তাদের 95%-এ, কেউ বোতাম চাপে।

প্রকাশ: এই নিবন্ধটি Diego Almada Lopez দ্বারা সম্পাদিত হয়েছিল। আমরা কীভাবে কন্টেন্ট তৈরি এবং পর্যালোচনা করি সে সম্পর্কে আরও তথ্যের জন্য, আমাদের সম্পাদকীয় নীতি দেখুন।

উৎস: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

মার্কেটের সুযোগ
MASS লোগো
MASS প্রাইস(MASS)
$0.0006646
$0.0006646$0.0006646
-0.61%
USD
MASS (MASS) লাইভ প্রাইস চার্ট
ডিসক্লেইমার: এই সাইটে পুনঃপ্রকাশিত নিবন্ধগুলো সর্বসাধারণের জন্য উন্মুক্ত প্ল্যাটফর্ম থেকে সংগ্রহ করা হয়েছে এবং শুধুমাত্র তথ্যের উদ্দেশ্যে প্রদান করা হয়েছে। এগুলো আবশ্যিকভাবে MEXC-এর মতামতকে প্রতিফলিত করে না। সমস্ত অধিকার মূল লেখকদের কাছে সংরক্ষিত রয়েছে। আপনি যদি মনে করেন কোনো কনটেন্ট তৃতীয় পক্ষের অধিকার লঙ্ঘন করেছে, তাহলে অনুগ্রহ করে অপসারণের জন্য crypto.news@mexc.com এ যোগাযোগ করুন। MEXC কনটেন্টের সঠিকতা, সম্পূর্ণতা বা সময়োপযোগিতা সম্পর্কে কোনো গ্যারান্টি দেয় না এবং প্রদত্ত তথ্যের ভিত্তিতে নেওয়া কোনো পদক্ষেপের জন্য দায়ী নয়। এই কনটেন্ট কোনো আর্থিক, আইনগত বা অন্যান্য পেশাদার পরামর্শ নয় এবং এটি MEXC-এর সুপারিশ বা সমর্থন হিসেবে গণ্য করা উচিত নয়।

আপনি আরও পছন্দ করতে পারেন

সংখ্যায়: মধ্যপ্রাচ্যে হুমকির মুখে প্রবাসী ফিলিপিনোরা

সংখ্যায়: মধ্যপ্রাচ্যে হুমকির মুখে প্রবাসী ফিলিপিনোরা

ইসরায়েলের দিকে। মার্কিন-ইসরায়েলি দ্বন্দ্বের মধ্যে ইরানের একটি ক্ষেপণাস্ত্র ইসরায়েলের দিকে উড়ে যাচ্ছে, যা ইসরায়েল-অধিকৃত পশ্চিম তীরের হেব্রন থেকে দেখা গেছে, ৩ মার্চ,
শেয়ার করুন
Rappler2026/03/05 08:20
ট্রাম্পের বিটকয়েন-সমর্থক ফেড মনোনীতের বিষয়ে সিনেটের ভোটগ্রহণ যেখানে BTC চার সপ্তাহের সর্বোচ্চ মূল্যে পৌঁছেছে

ট্রাম্পের বিটকয়েন-সমর্থক ফেড মনোনীতের বিষয়ে সিনেটের ভোটগ্রহণ যেখানে BTC চার সপ্তাহের সর্বোচ্চ মূল্যে পৌঁছেছে

মার্কিন সিনেট প্রেসিডেন্ট ট্রাম্পের কেভিন ওয়ার্শকে পরবর্তী ফেডারেল রিজার্ভ চেয়ারম্যান হিসেবে মনোনয়নের বিষয়ে ভোট দিতে যাচ্ছে।
শেয়ার করুন
Cryptopolitan2026/03/05 08:36
এনভিডিয়ার সিইও জেনসেন হুয়াং বলেছেন তিনি আর ওপেনএআই-তে বিনিয়োগ করবেন না

এনভিডিয়ার সিইও জেনসেন হুয়াং বলেছেন তিনি আর ওপেনএআই-তে বিনিয়োগ করবেন না

এনভিডিয়ার সিইও জেনসেন হুয়াং বলেছেন যে ওপেনএআই-এর জন্য এনভিডিয়ার $৩০ বিলিয়ন চেক শেষটি হতে পারে। তিনি বলেছেন ওপেনএআই বছরের শেষের দিকে পাবলিক হতে পারে। বুধবার কথা বলতে গিয়ে
শেয়ার করুন
Cryptopolitan2026/03/05 08:24