![]() |
| Image Credits:Maxwell Zeff |
AI কি মানুষের চেয়ে কম ভুল করে? Anthropic CEO-র দাবি এবং বাস্তবতার বিশ্লেষণ
তারিখ: মে ২০২৫ | আপডেট: মার্চ ২০২৬ | সূত্র: TechCrunch | লেখক: Neemkuni Tech
ChatGPT কে জিজ্ঞেস করুন বাংলাদেশের কোনো বিখ্যাত বইয়ের নাম — সে হয়তো এমন একটি বইয়ের নাম বলবে যেটা আসলে কখনো লেখাই হয়নি। নিজের উদ্ভাবনী ভাষায় সম্পূর্ণ ভুয়া তথ্য আত্মবিশ্বাসের সাথে উপস্থাপন করার এই সমস্যাকে AI জগতে বলা হয় "Hallucination"।
এই সমস্যাটা AI এর সবচেয়ে বড় দুর্বলতা হিসেবে পরিচিত। কিন্তু সম্প্রতি AI কোম্পানি Anthropic এর CEO Dario Amodei এমন একটি দাবি করেছেন যা প্রযুক্তি জগতে ব্যাপক বিতর্কের জন্ম দিয়েছে — তিনি বলছেন তাদের AI মডেল অনেক ক্ষেত্রে মানুষের চেয়েও কম ভুল করে।
দাবিটা কি সত্যি? AI সত্যিই কি মানুষকে ছাড়িয়ে যাচ্ছে নির্ভুলতায়? নাকি এটা শুধু বিপণনের কৌশল? এই প্রশ্নগুলোর উত্তর খুঁজতেই আজকের বিস্তারিত বিশ্লেষণ।
AI Hallucination কী — সহজ ভাষায় বুঝুন
Hallucination শব্দটা সাধারণত মানসিক অবস্থা বোঝাতে ব্যবহার হয় — যখন কেউ বাস্তবে নেই এমন কিছু দেখে বা শোনে। AI এর ক্ষেত্রেও ঠিক একই ব্যাপার। AI Hallucination মানে হলো — কোনো AI মডেল যখন সম্পূর্ণ ভুল, ভিত্তিহীন বা কাল্পনিক তথ্য এমনভাবে উপস্থাপন করে যেন এটি সত্যি।
কিছু বাস্তব উদাহরণ দেখুন। একজন আইনজীবী ChatGPT দিয়ে আদালতের নথি তৈরি করেন এবং সেখানে এমন মামলার রেফারেন্স দেওয়া হয় যেগুলো কখনো হয়ইনি। তিনি জানতেন না এগুলো AI এর তৈরি করা কাল্পনিক মামলা। আদালতে ধরা পড়লে তার লাইসেন্স হারানোর আশঙ্কা তৈরি হয়। কোনো AI চ্যাটবটকে কোনো বিজ্ঞানীর জীবনী জিজ্ঞেস করলে সে সঠিক নামের সাথে সম্পূর্ণ ভুল তারিখ, পুরস্কার বা আবিষ্কারের কথা বলতে পারে। বাংলাদেশের কোনো আইন বা নীতি সম্পর্কে জিজ্ঞেস করলে AI এমন তথ্য দিতে পারে যা বাস্তবে কখনো ছিল না।
এই সমস্যার কারণ হলো AI মডেলগুলো মূলত প্যাটার্ন ম্যাচিং করে কাজ করে — তারা সত্য বোঝে না, শুধু সম্ভাব্য পরবর্তী শব্দ অনুমান করে। তাই অনেক সময় বিশ্বাসযোগ্য ভাষায় ভুল তথ্য তৈরি হয়।
Anthropic CEO কী বলেছেন — পুরো প্রসঙ্গ
TechCrunch এর একটি প্রতিবেদনে Anthropic এর CEO Dario Amodei বলেন যে তাদের AI মডেল Claude নির্দিষ্ট কিছু পরীক্ষায় মানুষের তুলনায় কম hallucinate করেছে। এই দাবিটি কয়েকটি কারণে গুরুত্বপূর্ণ।
প্রথমত, Anthropic হলো AI নিরাপত্তা নিয়ে সবচেয়ে গবেষণামুখী কোম্পানিগুলোর একটি। OpenAI এর প্রাক্তন গবেষকরা মিলে এটি প্রতিষ্ঠা করেছিলেন মূলত নিরাপদ AI তৈরির লক্ষ্যে। দ্বিতীয়ত, তারা Constitutional AI নামে একটি বিশেষ পদ্ধতি ব্যবহার করে যা মডেলকে নিজেই নিজের ভুল ধরতে শেখায়।
কিন্তু সমালোচকরা বলছেন — "কম hallucinate করে" বলতে ঠিক কী বোঝানো হচ্ছে? কোন ধরনের প্রশ্নে? কীভাবে পরিমাপ করা হয়েছে? এই বিবরণগুলো এখনো স্বচ্ছ নয়।
Constitutional AI — Anthropic এর বিশেষ পদ্ধতি
Anthropic এর সবচেয়ে উল্লেখযোগ্য উদ্ভাবন হলো Constitutional AI বা সাংবিধানিক কৃত্রিম বুদ্ধিমত্তা। এটা কী এবং কীভাবে কাজ করে সেটা একটু বুঝে নেওয়া দরকার।
সাধারণ AI ট্রেনিংয়ে মানুষের মতামতের উপর নির্ভর করা হয় — মানুষ বলে এই উত্তর ভালো, ওই উত্তর খারাপ। কিন্তু এতে মানুষের নিজের পক্ষপাত বা সীমাবদ্ধতাও ঢুকে পড়ে। Constitutional AI তে AI মডেলকে একটি নীতিমালা দেওয়া হয় — যেমন সৎ হও, ক্ষতিকর কিছু করো না, মানুষের মতামতকে সম্মান করো। তারপর AI নিজেই নিজের উত্তর মূল্যায়ন করে সেই নীতিমালা অনুযায়ী।
এই পদ্ধতিতে তৈরি Claude কে Anthropic দাবি করে আরও নির্ভুল এবং নিরাপদ। তবে এটা সম্পূর্ণ hallucination সমস্যার সমাধান কিনা সেটা নিয়ে বিশেষজ্ঞরা এখনো একমত নন।
Red-Teaming — AI দুর্বলতা খোঁজার গোপন পদ্ধতি
Anthropic সহ বেশ কয়েকটি AI কোম্পানি একটি বিশেষ নিরাপত্তা পদ্ধতি ব্যবহার করে যার নাম Red-Teaming। এটা মূলত সাইবার নিরাপত্তার জগত থেকে নেওয়া ধারণা।
Red-Teaming এ বিশেষজ্ঞ গবেষকরা ইচ্ছাকৃতভাবে AI মডেলকে বিভিন্ন কৌশলে বিভ্রান্ত করার চেষ্টা করেন। তারা খোঁজেন — কোন ধরনের প্রশ্নে AI সবচেয়ে বেশি ভুল করে? কোন কৌশলে মডেলকে ক্ষতিকর তথ্য দিতে বাধ্য করা যায়? কোথায় কোথায় hallucination বেশি হয়?
এই দুর্বলতাগুলো চিহ্নিত করে পরবর্তী ট্রেনিংয়ে সেগুলো ঠিক করা হয়। ফলে মডেল ধীরে ধীরে আরও শক্তিশালী হয়।
মানুষ বনাম AI — নির্ভুলতার তুলনা
| বিষয় | মানুষ | AI মডেল |
|---|---|---|
| ভুলের কারণ | ক্লান্তি, পক্ষপাত, আবেগ | Pattern mismatch, ট্রেনিং ডেটার সীমা |
| ভুল ধরার ক্ষমতা | প্রসঙ্গ বুঝে সংশোধন করতে পারে | সীমিত — নিজের ভুল বুঝতে পারে না |
| পুনরাবৃত্তি কাজে | একঘেয়েমিতে ভুল বাড়ে | ক্লান্তি নেই, একই নির্ভুলতা |
| নৈতিক বিচার | স্বাভাবিক নৈতিক বোধ আছে | শেখানো নীতিতে সীমাবদ্ধ |
| গতি | ধীর, সময় লাগে | সেকেন্ডে হাজার শব্দ |
| নতুন পরিস্থিতিতে | নতুন পরিস্থিতি বুঝে মানিয়ে নেয় | ট্রেনিং ডেটার বাইরে দুর্বল |
বিশেষজ্ঞরা কী বলছেন — দুই দিকের মতামত
Amodei এর দাবি সম্পর্কে প্রযুক্তি বিশেষজ্ঞরা দুটো শিবিরে ভাগ হয়ে গেছেন।
যারা সমর্থন করছেন তারা বলছেন সংখ্যাতাত্ত্বিক বিশ্লেষণ, মেডিকেল তথ্য পর্যালোচনা বা বড় ডেটাসেট বিশ্লেষণের মতো কাজে AI সত্যিই মানুষের চেয়ে কম ভুল করে। একজন ক্লান্ত ডাক্তার বা হিসাবরক্ষক যে ভুল করবেন, AI সেটা করবে না।
যারা সন্দিহান তারা বলছেন "hallucination কম" মানেই "বেশি নির্ভরযোগ্য" নয়। AI যখন ভুল করে, সে আত্মবিশ্বাসের সাথে করে — এই ধরনের ভুল ধরা অনেক কঠিন। তাছাড়া পরীক্ষার পদ্ধতি ও বিষয়ের উপর নির্ভর করে ফলাফল সম্পূর্ণ আলাদা হতে পারে।
MIT এবং Stanford এর গবেষকরা বলছেন AI hallucination এখনো সম্পূর্ণ সমাধান হয়নি — শুধু নিয়ন্ত্রণ করা সম্ভব হচ্ছে।
বাংলাদেশে AI ব্যবহার — সতর্কতা জরুরি
বাংলাদেশে AI ব্যবহার দিন দিন বাড়ছে — শিক্ষার্থীরা অ্যাসাইনমেন্টে, ব্যবসায়ীরা কনটেন্ট তৈরিতে, সাংবাদিকরা তথ্য খুঁজতে। কিন্তু বাংলা ভাষায় AI এর hallucination সমস্যা ইংরেজির চেয়ে বেশি — কারণ বাংলা ডেটা তুলনামূলক কম।
তাই বাংলাদেশের প্রেক্ষাপটে AI থেকে পাওয়া তথ্য সবসময় যাচাই করুন। বিশেষ করে আইন, ইতিহাস, বিজ্ঞান বা চিকিৎসা সম্পর্কিত তথ্য AI থেকে নিলে অবশ্যই মূল উৎস থেকে যাচাই করুন।
Anthropic কোম্পানি সম্পর্কে
Anthropic প্রতিষ্ঠা করেন Dario Amodei এবং তার বোন Daniela Amodei সহ OpenAI এর বেশ কয়েকজন প্রাক্তন গবেষক। ২০২১ সালে প্রতিষ্ঠিত এই কোম্পানির মূল লক্ষ্য নিরাপদ AI তৈরি করা।
তাদের তৈরি AI মডেলের নাম Claude — যেটা ChatGPT এর সরাসরি প্রতিযোগী। Google এবং Amazon উভয়েই Anthropic এ বিনিয়োগ করেছে। কোম্পানিটির মূল্যায়ন এখন ১৫ বিলিয়ন ডলারের বেশি।
সচরাচর জিজ্ঞাসা (FAQ)
AI Hallucination কি সম্পূর্ণ বন্ধ করা সম্ভব?
এখন পর্যন্ত না। বর্তমান Large Language Model প্রযুক্তিতে hallucination সম্পূর্ণ দূর করা সম্ভব হয়নি। তবে বিভিন্ন কৌশলে এটি উল্লেখযোগ্যভাবে কমানো সম্ভব হয়েছে।
Claude কি ChatGPT এর চেয়ে কম ভুল করে?
নির্দিষ্ট করে বলা কঠিন। বিভিন্ন পরীক্ষায় বিভিন্ন ফলাফল পাওয়া গেছে। কিছু বিষয়ে Claude ভালো, কিছুতে ChatGPT। সেরাটা নির্ভর করে কাজের ধরনের উপর।
AI এর দেওয়া তথ্য কীভাবে যাচাই করব?
সহজ উপায় হলো AI এর দেওয়া তথ্যের মূল উৎস খুঁজে নেওয়া। Wikipedia, সরকারি ওয়েবসাইট, বা পরিচিত সংবাদমাধ্যমে যাচাই করুন। বিশেষত তারিখ, সংখ্যা এবং উদ্ধৃতি সবসময় আলাদাভাবে যাচাই করা জরুরি।
ভবিষ্যতে AI কি সত্যিই মানুষের চেয়ে বেশি নির্ভুল হবে?
নির্দিষ্ট ধরনের কাজে — যেমন ডেটা বিশ্লেষণ, গাণিতিক হিসাব, বা ডকুমেন্ট পর্যালোচনায় — AI ইতিমধ্যে মানুষের চেয়ে বেশি নির্ভুল। কিন্তু সৃজনশীলতা, নৈতিক বিচার এবং নতুন পরিস্থিতি মোকাবিলায় মানুষ এখনো এগিয়ে।
Anthropic এর Claude কি বাংলায় ভালো?
Claude বাংলা বোঝে এবং লিখতে পারে, তবে ইংরেজির মতো নির্ভুল নয়। বাংলা ডেটা কম থাকায় বাংলা প্রশ্নে hallucination এর ঝুঁকি বেশি। তাই বাংলায় AI ব্যবহারে বিশেষ সতর্কতা দরকার।
শেষ কথা — AI নির্ভুলতার ভবিষ্যৎ
Dario Amodei এর দাবি পুরোপুরি মিথ্যা নয়, আবার পুরোপুরি সত্যও নয়। নির্দিষ্ট ধরনের কাজে AI সত্যিই মানুষের চেয়ে কম ভুল করতে পারে। কিন্তু "AI সব ক্ষেত্রে মানুষের চেয়ে নির্ভুল" — এটা এখনো সত্য নয়।
সবচেয়ে বুদ্ধিমানের কাজ হলো AI এবং মানুষের শক্তিকে একসাথে ব্যবহার করা। AI দ্রুত ও ক্লান্তিহীনভাবে কাজ করতে পারে, আর মানুষ প্রসঙ্গ বুঝে সঠিক বিচার করতে পারে। এই দুয়ের সমন্বয়েই সেরা ফলাফল আসবে।
সূত্র: TechCrunch | আরও পড়ুন: ২০২৬ সালের সেরা AI টুলস | সাইবার নিরাপত্তা গাইড | NeemkuniBD.com

Post a Comment
If you any Question, Please contact us.