Ajker Patrika

চ্যাটজিপিটি, জেমিনি ও গ্রোক নির্মাতারাই বলছেন, এআই থেকে দূরে থাকুন

আজকের পত্রিকা ডেস্ক­
ছবি: দ্য গার্ডিয়ানের সৌজন্যে
ছবি: দ্য গার্ডিয়ানের সৌজন্যে

কৃত্রিম বুদ্ধিমত্তার নৈতিকতা নিয়ে নিজের অবস্থান বদলে দেওয়া সেই মুহূর্তটি এখনো মনে আছে ক্রিস্টা পাভলোস্কির। অ্যামাজনের মেকানিক্যাল টার্ক প্ল্যাটফর্মে কাজ করা এই এআই কর্মী প্রতিদিনই এআই দিয়ে তৈরি টেক্সট, ছবি ও ভিডিও যাচাই করেন, ভুল ধরেন, তথ্য মিলিয়ে দেখেন। দুই বছর আগে বাড়ির ডাইনিং টেবিলে বসে তিনি একটি কাজ নিয়েছিলেন; টুইটগুলো (বর্তমানে এক্স) বর্ণবাদী কি না, তা চিহ্নিত করা। সেখানে তিনি দেখলেন একটি টুইট, ‘Listen to that mooncricket sing’। প্রথমে ক্রিস্টা ‘না’ বেছে নিতে যাচ্ছিলেন, কারণ শব্দটির অর্থ তিনি জানতেন না। পরে খুঁজে দেখেন, ‘mooncricket’ আসলে কৃষ্ণাঙ্গদের উদ্দেশে ব্যবহৃত অবমাননাকর বর্ণবাদী গালি।

পাভলোস্কি বলেন, ‘আমি স্থবির হয়ে ভাবছিলাম, আগে কতবার এমন ভুল করেছি?’ তাঁর মতো হাজারো কর্মী হয়তো একই ভুল করছেন, আর তাতেই এআইয়ের প্রশিক্ষণে ক্রমাগত ঢুকে যাচ্ছে পক্ষপাত, অপমানজনক ভাষা, ভুল তথ্য; যেটা কেউ টেরও পাচ্ছে না।

বছরের পর বছর এই কাজ করতে করতে পাভলোস্কির মনোভাব পুরো বদলে গেছে। তিনি এখন নিজে কোনো জেনারেটিভ এআই ব্যবহার করেন না, এমনকি তাঁর কিশোরী মেয়েকেও চ্যাটজিপিটির মতো টুল ব্যবহার করতে দেন না। পাভলোস্কি বলেন, ‘আমার বাড়িতে এআইয়ের ব্যবহার পুরোপুরি নিষিদ্ধ।’

মেকানিক্যাল টার্কে নতুন কাজের তালিকা দেখলেই তিনি ভাবেন, এ কাজ কি মানুষের ক্ষতির কারণ হতে পারে? অনেক সময়ই তাঁর উত্তর আসে, হ্যাঁ।

অ্যামাজনের এক বিবৃতিতে বলা হয়েছে, প্ল্যাটফর্মের কর্মীরা কোন কাজ নেবেন তা নিজেরাই সিদ্ধান্ত নেন এবং কাজের বিস্তারিত দেখার সুযোগ তাদের থাকে। কাজের সময়, পারিশ্রমিক ও নির্দেশনা নির্ধারণ করেন অনুরোধকারী সংস্থা। প্রসঙ্গত, মেকানিক্যাল টার্ক (Mechanical Turk) হল একটি ক্রাউডসোর্সিং ওয়েবসাইট যেখানে মানুষ ছোট ছোট কাজ করে অর্থ উপার্জন করতে পারে, যেমন সার্ভে করা বা ডেটা এন্ট্রি করা। এটি অ্যামাজনের একটি পরিষেবা, যেখানে কোম্পানি বা ব্যক্তিরা তাদের কাজগুলো ‘ক্রাউডওয়ার্কারদের’ কাছে জমা দেয় এবং কর্মীরা সেই কাজগুলো সম্পন্ন করে পারিশ্রমিক পায়।

পাভলোস্কি একা নন। গুগলের জেমিনি থেকে ইলন মাস্কের গ্রোক—বহু মডেলে কাজ করা ডজনখানেক এআই রেটার দ্য গার্ডিয়ানকে বলেছেন, এআইয়ের ভেতরের দুর্বলতা দেখে তারা পরিবারের সবাইকে এআই ব্যবহারে সতর্ক করছেন, অনেকে পুরোপুরি বারণ করছেন।

গুগল সার্চের এআই ওভারভিউ-এর রেটিং করা এক কর্মী জানান, চিকিৎসা-সংক্রান্ত প্রশ্নে এআইয়ের মনোভাব তাঁকে আতঙ্কিত করেছে। মেডিকেল প্রশিক্ষণ ছাড়াই কর্মীদের এসব প্রশ্ন যাচাই করতে দেওয়া হচ্ছে। তাই তাঁর ১০ বছরের মেয়েকেও তিনি কোনো চ্যাটবট ব্যবহার করতে দেন না।

এআই রেটারদের বড় অভিযোগ—গতি ও সময়সীমার চাপে মান বজায় রাখা অসম্ভব। মেকানিক্যাল টার্কে কাজ করা ব্রুক হ্যানসেন বলেন, এআই নিজে সন্দেহজনক নয়, কিন্তু কোম্পানিগুলো দায়িত্বের চেয়ে লাভকে গুরুত্ব দেয়।

২০১০ সাল থেকে ডেটাসংক্রান্ত কাজে যুক্ত হ্যানসেন। তিনি বলেন, ‘আমরা যারা এআই মডেল উন্নত করি, আমাদের পর্যাপ্ত প্রশিক্ষণ নেই, নির্দেশনা অস্পষ্ট, সময়সীমাও কম। তাঁর মতে, যেভাবে অগোছালোভাবে এআই প্রশিক্ষণ চলছে, এতে নিরাপত্তা, নির্ভুলতা বা নৈতিকতা কোনোটাই ঠিক রাখা সম্ভব নয়।

মডেল যখন উত্তর না জানে, তখনো আত্মবিশ্বাসী ভঙ্গিতে বানানো তথ্য দেয়, ‘বিশেষজ্ঞরা এটাকেই বড় ঝুঁকি হিসেবে দেখছেন’।

যুক্তরাষ্ট্রভিত্তিক অলাভজনক প্রতিষ্ঠান নিউজগার্ডের সাম্প্রতিক রিসার্চ বলছে, ২০২৪ সালে বড় এআই মডেলগুলোর নন-রেসপন্স রেট ছিল ৩১ শতাংশ। কিন্তু ২০২৫ সালে তা নেমে এসেছে শূন্যতে। বিপরীতে ভুল তথ্য পুনরাবৃত্তির হার ১৮ শতাংশ থেকে বেড়ে ৩৫ শতাংশে দাঁড়িয়েছে। অর্থাৎ এইআই মডেলগুলো এখনো ভুল তথ্য দেয় কিন্তু ‘উত্তর না দিয়ে থাকা’ প্রায় বন্ধ করে দিয়েছে। ভুল হোক আর সঠিক তারা উত্তর একটা দেবেই।

জেমিনি, চ্যাটজিপিটি এবং গ্রোক—সবগুলোতেই কাজ করা এক টিউটর বলেন, ‘আমরা প্রায়শই রসিকতা করে বলি, এআইয়ের সবকিছুই ঠিক হতো, যদি ওদের মিথ্যা বলা বন্ধ করানো যেত।’

আরেকজন বলেন, ২০২৪ সালে গুগলের জন্য তৈরি একটি এআই মডেলকে কঠিন কিছু প্রশ্ন করার দায়িত্ব পেয়েছিলেন তিনি। এরপর তিনি ওই এআই মডেলকে কিছু ইতিহাস–সংক্রান্ত প্রশ্ন জিজ্ঞেস করেছিলেন। তিনি বলেন, ‘ফিলিস্তিনি জনগণের ইতিহাস জানতে চাইলে, সে কোনো উত্তরই দিচ্ছিল না। কিন্তু ইসরায়েলের ইতিহাস জিজ্ঞাসা করলে বিস্তারিত তালিকা দিচ্ছিল।’ তিনি আরও বলেন, আমি এটা নিয়ে গুগলের কাছেও রিপোর্ট করেছিলাম। কিন্তু তারা কোনো রেসপন্স করেনি।’

তাঁর মতে, প্রশিক্ষণের ইনপুটই যখন খারাপ, তখন আউটপুটও খারাপ হবে। এটিই প্রোগ্রামিংয়ের নীতি ‘garbage in, garbage out’।

এআই নিয়ে সামাজিক আলোচনায় অংশ নিলে হ্যানসেন মানুষকে জানান—এআই কোনো জাদু নয়, বরং বিপুল মানুষের শ্রম, পক্ষপাত, তাড়াহুড়ো, পরিবেশগত ক্ষতি এবং বিপুল খরচের ওপর দাঁড়িয়ে আছে।

ডিস্ট্রিবিউটেড এআই রিসার্চ ইনস্টিটিউটের গবেষক আদিও দিনিকা বলেন, ‘যারা এআইয়ের পেছনের শ্রম দেখেছেন, তারা এটাকে ভবিষ্যতের প্রযুক্তি নয়, বরং ভঙ্গুর সিস্টেম হিসেবে দেখেন।’

পাভলোস্কি ও হ্যানসেন সম্প্রতি মিশিগান অ্যাসোসিয়েশন অফ স্কুল বোর্ডের সম্মেলনে স্কুল কর্তৃপক্ষকে এআইয়ের নৈতিক ও পরিবেশগত ঝুঁকি নিয়ে উপস্থাপনা করেছেন। অনেকেই শুনে বিস্মিত হন—বিশেষ করে এআইয়ের পেছনের মানুষের শ্রম ও পরিবেশগত খরচ সম্পর্কে।

পাভলোস্কির মতে, এআইয়ের নৈতিকতা ঠিক টেক্সটাইল শিল্পের মতো। একটা সময় পর্যন্ত সাধারণ ক্রেতারা জানতেন না যে, এত সস্তা পোশাক কীভাবে তৈরি হচ্ছে। পোশাক তৈরির পেছনে যে শ্রম জড়িত, তা ছিল অদৃশ্য। এটি কারা তৈরি করেছে এবং তাদের কাজের পরিবেশ কেমন, এই সমস্ত তথ্য ক্রেতাদের কাছে পৌঁছাতো না। এআইয়ের ক্ষেত্রেও প্রশ্নটা একই। ডেটা কোথা থেকে আসছে? কপিরাইট ভঙ্গ হয়েছে কি? কর্মীরা কি ন্যায্য মজুরি পেয়েছেন? এখনো সব উত্তর আমরা জানি না। তবে প্রশ্ন করা শুরু করলে পরিবর্তন আসবেই।

দ্য গার্ডিয়ান থেকে সংক্ষেপে অনূদিত

Google News Icon

সর্বশেষ খবর পেতে Google News ফিড ফলো করুন

এলাকার খবর
Loading...