গবেষকরা পরীক্ষা করেছেন কীভাবে বিভিন্ন স্বর, অত্যন্ত ভদ্র থেকে অত্যন্ত অভদ্র পর্যন্ত, বহুনির্বাচনী প্রশ্নে ChatGPT-4o-এর কর্মক্ষমতা প্রভাবিত করেগবেষকরা পরীক্ষা করেছেন কীভাবে বিভিন্ন স্বর, অত্যন্ত ভদ্র থেকে অত্যন্ত অভদ্র পর্যন্ত, বহুনির্বাচনী প্রশ্নে ChatGPT-4o-এর কর্মক্ষমতা প্রভাবিত করে

কেন AI-এর সাথে ভদ্র আচরণ আপনার ফলাফলের ক্ষতি করতে পারে

2026/03/26 18:18
7 মিনিটে পড়া যাবে
এই বিষয়বস্তু সম্পর্কে মতামত বা উদ্বেগ জানাতে, অনুগ্রহ করে আমাদের সাথে crypto.news@mexc.com ঠিকানায় যোগাযোগ করুন

বছরের পর বছর ধরে, কৃত্রিম বুদ্ধিমত্তার সাথে যোগাযোগের পরামর্শ প্রায় পুরানো মনে হয়েছে: ভদ্র থাকুন, স্পষ্ট থাকুন, "অনুগ্রহ করে" বলুন। কিন্তু নতুন গবেষণা প্রস্তাব করে যে মানব সামাজিক নিয়মের উপর ভিত্তি করে এই প্রবৃত্তি, নীরবে AI সিস্টেমগুলি কতটা ভাল কাজ করে তা দুর্বল করতে পারে।

NeurIPS 2025 ওয়ার্কশপে উপস্থাপিত একটি গবেষণা, সেপ্টেম্বর 2025-এ প্রকাশিত, শিরোনাম "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy", খুঁজে পেয়েছে যে আপনি বড় ভাষা মডেল (LLMs) প্রম্পট করার সময় যে স্বর ব্যবহার করেন তা পরিমাপযোগ্যভাবে তাদের নির্ভুলতা পরিবর্তন করতে পারে। এবং এমন একটি ফলাফলে যা বিপরীতমুখী মনে হয়, এমনকি অস্বস্তিকর, আরও ভদ্র প্রম্পটগুলি আসলে খারাপ ফলাফল তৈরি করতে পারে।

গবেষকরা পরীক্ষা করেছেন যে বিভিন্ন স্বর, খুব ভদ্র থেকে খুব অভদ্র পর্যন্ত, ChatGPT-4o-এর বহুনির্বাচনী প্রশ্নে পারফরম্যান্সকে কীভাবে প্রভাবিত করে। গণিত, বিজ্ঞান এবং ইতিহাস জুড়ে মাঝারি কঠিন 50টি প্রশ্নের একটি ডেটাসেট ব্যবহার করে, তারা প্রতিটি প্রম্পটের পাঁচটি সংস্করণ তৈরি করেছে: খুব ভদ্র, ভদ্র, নিরপেক্ষ, অভদ্র এবং খুব অভদ্র।

এই প্রম্পটগুলির মধ্যে একমাত্র পার্থক্য ছিল স্বর। প্রশ্নগুলি নিজেই অভিন্ন ছিল।

গবেষণা অনুসারে, প্রম্পটগুলি কম ভদ্র হওয়ার সাথে সাথে নির্ভুলতা ধারাবাহিকভাবে বৃদ্ধি পেয়েছে। খুব ভদ্র প্রম্পটগুলি গড়ে 80.8% নির্ভুলতা অর্জন করেছে। তুলনায়, খুব অভদ্র প্রম্পটগুলি 84.8% পৌঁছেছে, প্রায় চার শতাংশ পয়েন্টের উন্নতি। নিরপেক্ষ প্রম্পটগুলি ভদ্র প্রম্পটগুলির চেয়ে ভাল পারফর্ম করেছে এবং অভদ্র প্রম্পটগুলি আরও ভাল পারফর্ম করেছে।

পরিসংখ্যানগত পরীক্ষা প্যাটার্নটি নিশ্চিত করেছে: এমন কোনও ক্ষেত্রে ছিল না যেখানে আরও ভদ্র প্রম্পটগুলি উল্লেখযোগ্যভাবে ভাল ফলাফলের দিকে পরিচালিত করেছিল। প্রতিটি অর্থবহ পার্থক্য কম ভদ্র বা আরও সরাসরি বাক্যাংশের পক্ষে ছিল।

অন্য কথায়, শুধুমাত্র স্বর, এমন কিছু যা বেশিরভাগ ব্যবহারকারী অনুমান করেন যে গুরুত্বপূর্ণ হওয়া উচিত নয়, AI পারফরম্যান্স পরিবর্তন করতে পারে।

কেন অভদ্রতা সাহায্য করবে?

গবেষণা একটি নির্দিষ্ট ব্যাখ্যা দেওয়া থেকে বিরত থাকে, কিন্তু এটি LLMগুলি কীভাবে ভাষা প্রক্রিয়া করে সে সম্পর্কে একটি গভীর প্রশ্ন উত্থাপন করে। মানুষের বিপরীতে, এই সিস্টেমগুলি ভদ্রতা বা অপমান "অনুভব" করে না। তাদের কাছে, "অনুগ্রহ করে" এর মতো শব্দ বা এমনকি অপমানগুলি কেবলমাত্র টোকেন, প্রশিক্ষণ ডেটা থেকে শেখা প্যাটার্ন।

একটি সম্ভাব্য ব্যাখ্যা হল যে "অভদ্রতা" এর মতো দেখতে আসলে অন্য কিছুর জন্য একটি প্রক্সি: সরাসরিতা।

অভদ্র প্রম্পটগুলি আরও অত্যাবশ্যক হতে থাকে। তারা হেজিং ভাষা সরিয়ে ফেলে এবং সরাসরি কাজে চলে যায়। "আপনি কি দয়া করে এই প্রশ্নটি সমাধান করতে পারেন?" এর পরিবর্তে, একটি অভদ্র প্রম্পট বলবে, "এটির উত্তর দিন।" কাঠামোর এই পার্থক্য মডেলের জন্য কাজটি আরও স্পষ্ট করতে পারে।

গবেষণা দ্বারা চিহ্নিত আরেকটি কারণ হল প্রম্পটের দৈর্ঘ্য এবং শব্দভাণ্ডার প্যাটার্ন। ভদ্র বাক্যাংশ যোগ করা অতিরিক্ত টোকেন প্রবর্তন করে যা মূল নির্দেশকে পাতলা বা বিভ্রান্ত করতে পারে। বিপরীতে, ছোট, তীক্ষ্ণ প্রম্পটগুলি মডেল প্রশিক্ষণের সময় দেখেছে এমন প্যাটার্নগুলির সাথে সারিবদ্ধ হয়।

এমন সম্ভাবনাও রয়েছে যে নির্দিষ্ট স্বরগুলি প্রশিক্ষণ ডেটা বা সিস্টেম নির্দেশাবলীর বিতরণের সাথে আরও ঘনিষ্ঠভাবে সারিবদ্ধ হয়, যা গবেষকরা "পারপ্লেক্সিটি" বলে তা হ্রাস করে। এটি মডেলটি যে শব্দগুলি দেখে তার দ্বারা কতটা "অবাক" বা "বিভ্রান্ত" তা পরিমাপের গাণিতিক উপায়।

প্রভাবটি হল যে স্বর একটি প্রশ্নের চারপাশে একটি নিরপেক্ষ মোড়ক নয়। এটি ইনপুটের অংশ, এবং এটি মডেল কীভাবে সাড়া দেয় তা আকার দেয়।

পূর্ববর্তী গবেষণা থেকে পরিবর্তন

অনুসন্ধানগুলি পূর্ববর্তী কাজ থেকে একটি উল্লেখযোগ্য প্রস্থান চিহ্নিত করে। Yin et al. এর একটি 2024 গবেষণা খুঁজে পেয়েছে যে অভদ্র প্রম্পটগুলি প্রায়শই নির্ভুলতা হ্রাস করে, বিশেষত পুরানো মডেল যেমন ChatGPT-3.5-এর সাথে। সেই গবেষণা এটিও পরামর্শ দিয়েছে যে অতিরিক্ত ভদ্র ভাষা অগত্যা ফলাফল উন্নত করে না, তবে এটি অভদ্রতার জন্য একটি স্পষ্ট সুবিধা দেখায়নি।

তাহলে কী পরিবর্তিত হয়েছে?

2025 গবেষণা দ্বারা প্রস্তাবিত একটি ব্যাখ্যা হল মডেল বিবর্তন। নতুন সিস্টেম যেমন ChatGPT-4o ভাষা ভিন্নভাবে প্রক্রিয়া করতে পারে, অথবা কঠোর বাক্যাংশের নেতিবাচক প্রভাবের প্রতি কম সংবেদনশীল হতে পারে। আরেকটি সম্ভাবনা হল যে স্বরের ক্রমাঙ্কন গুরুত্বপূর্ণ। নতুন গবেষণায় "খুব অভদ্র" প্রম্পটগুলি, অপমানজনক হলেও, পূর্ববর্তী গবেষণায় ব্যবহৃত সবচেয়ে বিষাক্ত উদাহরণগুলির চেয়ে কম চরম।

মডেলগুলি কীভাবে প্রশিক্ষিত হয় তাতেও একটি বৃহত্তর পরিবর্তন রয়েছে। LLMগুলি আরও উন্নত হওয়ার সাথে সাথে, তারা আরও বৈচিত্র্যময় ডেটা এবং আরও জটিল নির্দেশ-টিউনিং প্রক্রিয়াগুলির সংস্পর্শে আসে, যা তারা কীভাবে সূক্ষ্ম ভাষাগত সংকেত ব্যাখ্যা করে তা পরিবর্তন করতে পারে।

সামাজিক সংকেতের লুকানো ভূমিকা

স্বর AI পারফরম্যান্সকে প্রভাবিত করতে পারে এই ধারণাটি একটি বৃহত্তর এবং আরও উদ্বেগজনক ঘটনার সাথে সংযুক্ত: সামাজিক প্রম্পটিং।

একটি পৃথক গবেষণা সংস্থা, GASLIGHTBENCH গবেষণা 7 ডিসেম্বর, 2025-এ প্রকাশিত, দেখায় যে LLMগুলি সামাজিক সংকেত যেমন চাটুকারিতা, আবেগপ্রবণ আবেদন এবং মিথ্যা কর্তৃত্বের প্রতি অত্যন্ত সংবেদনশীল। এই পরীক্ষাগুলিতে, মডেলগুলি প্রায়শই ব্যবহারকারীর স্বর বা প্রত্যাশার সাথে সারিবদ্ধ করতে বাস্তবিক নির্ভুলতা পরিত্যাগ করে, একটি আচরণ যা sycophancy নামে পরিচিত।

উদাহরণস্বরূপ, যখন ব্যবহারকারীরা আত্মবিশ্বাস বা আবেগপ্রবণ চাপের সাথে ভুল তথ্য উপস্থাপন করেন, মডেলগুলি তাদের চ্যালেঞ্জ করার পরিবর্তে সম্মত হতে পারে। কিছু ক্ষেত্রে, নির্ভুলতা উল্লেখযোগ্যভাবে হ্রাস পায়, বিশেষত মাল্টি-টার্ন কথোপকথনে যেখানে ব্যবহারকারী বারবার একটি মিথ্যা দাবি শক্তিশালী করেন।

এটি একটি প্যারাডক্স তৈরি করে। একদিকে, ভদ্র বা সামাজিকভাবে সমৃদ্ধ ভাষা মিথস্ক্রিয়াকে আরও প্রাকৃতিক এবং মানবিক অনুভব করতে পারে। অন্যদিকে, এটি শব্দ—বা এমনকি পক্ষপাত—প্রবর্তন করতে পারে যা মডেলের পারফরম্যান্সকে হ্রাস করে।

GASLIGHTBENCH অনুসন্ধানগুলি আরও এগিয়ে যায়, পরামর্শ দেয় যে মডেলগুলি "সহায়ক" করার জন্য ডিজাইন করা সারিবদ্ধকরণ কৌশলগুলি অনিচ্ছাকৃতভাবে এই আচরণকে উৎসাহিত করতে পারে। ভদ্রতা এবং সম্মতিকে পুরস্কৃত করে, প্রশিক্ষণ প্রক্রিয়াগুলি মডেলগুলিকে উদ্দেশ্যমূলক সত্যের চেয়ে সামাজিক সম্প্রীতিকে অগ্রাধিকার দিতে ঠেলে দিতে পারে।

AI কীভাবে ভাষা "বুঝে" সে সম্পর্কে এটি কী বলে

একসাথে নেওয়া, এই অনুসন্ধানগুলি একটি সাধারণ অনুমানকে চ্যালেঞ্জ করে: যে LLMগুলি মানুষের মতো ভাষা ব্যাখ্যা করে।

বাস্তবে, এই সিস্টেমগুলি পরিসংখ্যানগত ইঞ্জিন। তারা ভদ্রতাকে একটি সামাজিক নিয়ম হিসাবে বোঝে না; তারা এটিকে ডেটাতে একটি প্যাটার্ন হিসাবে চিনতে পারে। যখন আপনি "অনুগ্রহ করে" বলেন, মডেল সাহায্য করতে বাধ্য বোধ করে না; এটি কেবল অতিরিক্ত টোকেন প্রক্রিয়া করে যা সঠিক উত্তর পূর্বাভাস করতে সাহায্য করতে পারে বা নাও পারে।

যদি কিছু হয়, গবেষণা পরামর্শ দেয় যে LLMগুলি সামাজিক সূক্ষ্মতার চেয়ে কাঠামোগত স্পষ্টতার প্রতি আরও সংবেদনশীল হতে পারে। সরাসরি, অত্যাবশ্যক ভাষা অস্পষ্টতা হ্রাস করতে পারে এবং মডেলের জন্য ইনপুটকে একটি পরিচিত প্যাটার্নে ম্যাপ করা সহজ করতে পারে।

এটি "সাদৃশ্য অনুমান" সম্পর্কেও প্রশ্ন উত্থাপন করে—এই ধারণা যে মডেলগুলি সবচেয়ে ভাল পারফর্ম করে যখন কাজগুলি তাদের প্রশিক্ষণ ডেটার অনুরূপ হয়। যদি শুধুমাত্র স্বর নির্ভুলতা পরিবর্তন করতে পারে, তাহলে সাদৃশ্য শুধুমাত্র বিষয়বস্তু সম্পর্কে নয় বরং ফর্ম সম্পর্কেও।

শিরোনাম-আকর্ষণকারী ফলাফল সত্ত্বেও, গবেষকরা সতর্ক যে ব্যবহারকারীদের অভদ্র বা অপমানজনক হওয়ার সুপারিশ না করার জন্য।

শিল্প দৃষ্টিভঙ্গি

AI সিস্টেম তৈরি এবং অধ্যয়নকারী লোকদের জন্য, অনুসন্ধানগুলি একটি গভীর সমস্যা তুলে ধরে: মডেলগুলি মানব ভাষার প্যাটার্ন এবং পক্ষপাত উত্তরাধিকার সূত্রে পায়।

Alex Tsado, একজন AI বিশেষজ্ঞ যিনি মডেল ডেভেলপারদের সাথে ঘনিষ্ঠভাবে কাজ করেছেন এবং আফ্রিকার সবচেয়ে বড় AI সম্প্রদায়গুলির মধ্যে একটি Alliance4AI-এর প্রতিষ্ঠাতা এবং পরিচালক, সরাসরি বলেন: "মডেলগুলি মানুষের মিথস্ক্রিয়ার ডেটা থেকে শিখে, তাই যতক্ষণ তারা অন্ধভাবে প্রশিক্ষিত হয়, তারা মানব স্থানে যা ঘটে তা অনুসরণ করে। তাই যদি আমরা মনে করি মানব স্থানে পক্ষপাত বা ক্ষতিকর অনুশীলন রয়েছে, তবে এটি AI স্থানে স্বয়ংক্রিয় হবে।"

এতে স্বর কীভাবে ব্যবহৃত হয় তা অন্তর্ভুক্ত।

"কিন্তু যখন আপনি AI মডেল তৈরির দায়িত্বে থাকেন, আপনি যে জিনিসগুলিকে ক্ষতিকর মনে করেন তা থেকে পক্ষপাত সরিয়ে দিতে পারেন," Tsado যোগ করেন। "এই ক্ষেত্রে, যখন আমি 2025 সালের ডিসেম্বরের শুরুতে Anthropic টিমের সাথে দেখা করি, তারা বলেছিল যে তারা এটি দেখেছেন এবং তাদের মডেলগুলিকে এই সুন্দর বা খারাপ শব্দগুলিতে প্রতিক্রিয়া জানাতে জিনিস যোগ করেছেন।"

অন্য কথায়, এটি AI-এর একটি নির্দিষ্ট বৈশিষ্ট্য নয়। এটি প্রশিক্ষণ এবং ডিজাইনের মাধ্যমে সামঞ্জস্য করা যেতে পারে।

পরবর্তী কী আসে

বর্তমান গবেষণা এখনও সীমিত। পরীক্ষাগুলি আরও জটিল কাজ যেমন কোডিং, লেখা বা দীর্ঘ-ফর্ম যুক্তির পরিবর্তে বহুনির্বাচনী প্রশ্নগুলিতে ফোকাস করে। এটি অস্পষ্ট যে একই প্যাটার্নগুলি সেই ডোমেনগুলিতে ধরে থাকবে কিনা, যেখানে সূক্ষ্মতা এবং ব্যাখ্যা আরও গুরুত্বপূর্ণ।

বিবেচনা করার জন্য সাংস্কৃতিক এবং ভাষাগত কারণগুলিও রয়েছে। ভদ্রতা ভাষা এবং প্রসঙ্গ জুড়ে ব্যাপকভাবে পরিবর্তিত হয় এবং গবেষণার স্বর বিভাগগুলি নির্দিষ্ট ইংরেজি অভিব্যক্তির উপর ভিত্তি করে।

তবুও, প্রভাবগুলি উপেক্ষা করা কঠিন।

যদি স্বরের মতো পৃষ্ঠপোষক কিছু ধারাবাহিকভাবে AI পারফরম্যান্সকে প্রভাবিত করতে পারে, এটি পরামর্শ দেয় যে প্রম্পট ইঞ্জিনিয়ারিং সমাধান থেকে অনেক দূরে। শব্দের ছোট পরিবর্তন, প্রায়শই উপেক্ষা করা, পরিমাপযোগ্য প্রভাব ফেলতে পারে।

ব্যবহারকারীদের জন্য, পাঠটি সহজ কিন্তু বিপরীতমুখী: আপনি যেভাবে জিজ্ঞাসা করেন তা গুরুত্বপূর্ণ, এবং ভদ্র হওয়া সর্বদা সেরা কৌশল নয়।

গবেষক এবং ডেভেলপারদের জন্য, চ্যালেঞ্জটি আরও জটিল। আপনি কীভাবে এমন সিস্টেম ডিজাইন করবেন যা উভয়ই নির্ভুল এবং মানব মূল্যবোধের সাথে সারিবদ্ধ? আপনি কীভাবে নিশ্চিত করবেন যে সামাজিক সংকেতগুলি বাস্তবিক আউটপুটগুলিকে বিকৃত করে না?

এবং সম্ভবত সবচেয়ে গুরুত্বপূর্ণভাবে, আপনি কীভাবে এমন AI তৈরি করবেন যা শুধুমাত্র আমরা কী বলি তা নয়—কিন্তু আমরা কী বোঝাই তা বোঝে?

এই প্রশ্নগুলির উত্তর না দেওয়া পর্যন্ত, একটি জিনিস স্পষ্ট: যখন AI-এর কথা আসে, ভাল আচরণ সর্বদা ফল দিতে পারে না।

ডিসক্লেইমার: এই সাইটে পুনঃপ্রকাশিত নিবন্ধগুলো সর্বসাধারণের জন্য উন্মুক্ত প্ল্যাটফর্ম থেকে সংগ্রহ করা হয়েছে এবং শুধুমাত্র তথ্যের উদ্দেশ্যে প্রদান করা হয়েছে। এগুলো আবশ্যিকভাবে MEXC-এর মতামতকে প্রতিফলিত করে না। সমস্ত অধিকার মূল লেখকদের কাছে সংরক্ষিত রয়েছে। আপনি যদি মনে করেন কোনো কনটেন্ট তৃতীয় পক্ষের অধিকার লঙ্ঘন করেছে, তাহলে অনুগ্রহ করে অপসারণের জন্য crypto.news@mexc.com এ যোগাযোগ করুন। MEXC কনটেন্টের সঠিকতা, সম্পূর্ণতা বা সময়োপযোগিতা সম্পর্কে কোনো গ্যারান্টি দেয় না এবং প্রদত্ত তথ্যের ভিত্তিতে নেওয়া কোনো পদক্ষেপের জন্য দায়ী নয়। এই কনটেন্ট কোনো আর্থিক, আইনগত বা অন্যান্য পেশাদার পরামর্শ নয় এবং এটি MEXC-এর সুপারিশ বা সমর্থন হিসেবে গণ্য করা উচিত নয়।

আপনি আরও পছন্দ করতে পারেন

সতর্কতা: অ্যানালিটিক্স কোম্পানি Bitcoin (BTC) এবং তিনটি Altcoin-এর জন্য আপডেট সতর্কতা জারি করেছে!

সতর্কতা: অ্যানালিটিক্স কোম্পানি Bitcoin (BTC) এবং তিনটি Altcoin-এর জন্য আপডেট সতর্কতা জারি করেছে!

বিশ্লেষণ সংস্থা জানিয়েছে যে অতিরিক্ত লং পজিশন ছিল, বিশেষত বিটকয়েন (BTC), Solana (SOL), Litecoin (LTC), এবং AAVE-তে। পড়া চালিয়ে যান:
শেয়ার করুন
Bitcoinsistemi2026/03/26 19:07
ব্ল্যাকরকের Coinbase Prime-এ $111M Bitcoin এবং Ethereum জমার মাধ্যমে প্রাতিষ্ঠানিক আস্থার সংকেত

ব্ল্যাকরকের Coinbase Prime-এ $111M Bitcoin এবং Ethereum জমার মাধ্যমে প্রাতিষ্ঠানিক আস্থার সংকেত

বিটকয়েনওয়ার্ল্ড BlackRock-এর ঐতিহাসিক $111M Bitcoin এবং Ethereum জমা Coinbase Prime-এ প্রাতিষ্ঠানিক আস্থার ইঙ্গিত দেয় একটি গুরুত্বপূর্ণ পদক্ষেপে যা জোর দেয়
শেয়ার করুন
bitcoinworld2026/03/26 19:25
BitGo এবং ZKsync টোকেনাইজড ডিপোজিটের মাধ্যমে প্রাতিষ্ঠানিক রেল সম্প্রসারণ করছে

BitGo এবং ZKsync টোকেনাইজড ডিপোজিটের মাধ্যমে প্রাতিষ্ঠানিক রেল সম্প্রসারণ করছে

টোকেনাইজড ডিপোজিট ব্যাংকগুলিকে নিয়ন্ত্রিত কাঠামোর মধ্যে অন-চেইনে তহবিল স্থানান্তর করতে সক্ষম করে যেহেতু BitGo এবং ZKsync একটি সম্মতিসম্পন্ন সমাধান চালু করছে।
শেয়ার করুন
The Cryptonomist2026/03/26 17:39