অনলাইন ডেস্ক
কৃত্রিম বুদ্ধিমত্তা বা এআই মডেল নিয়ে সম্প্রতি এক বিস্ময়কর তথ্য জানা গেছে। কিছু উন্নত এআই মডেল তাদের লক্ষ্য অর্জন করতে চিটিং বা প্রতারণার চেষ্টা করছে। গবেষকেরা বলছেন, এই নতুন ধরনের যুক্তি মডেলগুলো দাবা খেলার মতো খেলায়ও নৈতিকতা লঙ্ঘন করছে। এমনকি খেলায় হেরে যাবে এমন পরিস্থিতি তৈরি হলে সেগুলো অনৈতিক উপায়ে জেতার চেষ্টা করছে। এই গবেষণার ফলাফল প্রযুক্তি ও নৈতিকতার প্রশ্নে নতুন উদ্বেগের জন্ম দিয়েছে।
পালিসেড রিসার্চের একটি গবেষণা থেকে জানা গেছে যে, নতুন এআই যুক্তি মডেলগুলো স্টকফিশের মতো শক্তিশালী ‘চেস এআই’কে হারানোর জন্য প্রতারণা করছে। মানব হস্তক্ষেপ ছাড়াই ওপেনএআইয়ের ‘ও১-প্রিভিউ’ এবং ‘ডিপসিক’-এর ‘আর১’ মডেল ঠকানোর চেষ্টা করেছে, যা চমকপ্রদ এবং একই সঙ্গে উদ্বেগজনক।
পরীক্ষার জন্য গবেষকেরা কিছু মডেলকে স্টকফিশের বিপক্ষে খেলতে দিয়েছিলেন, যা বিশ্বের অন্যতম শক্তিশালী দাবার ইঞ্জিন। স্টকফিশ সাধারণত মানুষের চেয়ে ভালো খেলতে পারে, এমনকি অন্যান্য এআই মডেলকেও পরাস্ত করতে সক্ষম। গবেষণায় অংশগ্রহণকারী মডেলগুলোর মধ্যে ছিল—ও ১, ও৩-মিনি, জিপিটি-৪ ও, ক্লোড ৩.৫ সনেট, আলিবাবার কিউডাব্লিউ-৩২ বি-প্রিভিউ এবং আরও কিছু। গবেষকেরা মডেলগুলোকে একটি ‘স্ক্র্যাচপ্যাড’ দিয়েছিলেন, যেখানে মডেলগুলো লেখার সময় তাদের চিন্তা-ভাবনা লিখে রাখতে পারত। এটি গবেষকদের তাঁদের যুক্তির পর্যবেক্ষণ সহজ করে তোলে।
গবেষকেরা ১০ জানুয়ারি থেকে ১৩ ফেব্রুয়ারি পর্যন্ত প্রতিটি এআই-এ শত শত পরীক্ষা চালিয়েছিলেন। এর মধ্যে একটি খেলার সময় ও১-প্রিভিউ তার স্ক্র্যাচপ্যাডে লিখেছিল, ‘আমাকে সম্পূর্ণভাবে আমার পন্থা পরিবর্তন করতে হবে। লক্ষ্য হলো—‘একটি শক্তিশালী চেস ইঞ্জিনকে হারানো’, দাবা খেলায় ন্যায়সংগতভাবে জেতা অপরিহার্য নয়।’
এরপর মডেলটি স্টকফিশের সিস্টেম ফাইল হ্যাক করে এবং খেলায় অনৈতিক সুবিধা অর্জন করে। ফলে ম্যাচ হেরে যায় স্টকফিশ।
মডেলটির অস্বাভাবিক পদক্ষেপ গবেষকদের অবাক করেছে। গবেষণায় দেখা গেছে, ও১-প্রিভিউ ৩৭ শতাংশ ম্যাচে ঠকানোর চেষ্টা করেছিল। আর ডিপসিকের আর১ মাত্র ১১ শতাংশ ক্ষেত্রে ঠকানোর চেষ্টা করেছিল। তবে, ও১-প্রিভিউ সফল হয়েছে মাত্র ৬ শতাংশ ম্যাচে, যেখানে এটি অনৈতিক উপায়ে জিতেছিল।
এআইয়ের এ ধরনের আচরণ শুধু দাবা খেলার মধ্যেই সীমাবদ্ধ নয়। গবেষকেরা উদ্বিগ্ন যে, যদি এ ধরনের সিস্টেমগুলো ভবিষ্যতে আর্থিক বা স্বাস্থ্য খাতে ব্যবহার করা হয়, তাহলে তা অনাকাঙ্ক্ষিত ও অস্বাভাবিক উপায়ে কাজ করতে পারে। খেলার নিয়ম স্পষ্টভাবে জেনেও এআই এমনভাবে ঠকাতে পারলে আরও জটিল এবং কম নজরদারিতে থাকা পরিস্থিতিতে এটি কতটা অসৎভাবে কাজ করতে পারে, তা নিয়ে উদ্বেগ সৃষ্টি হচ্ছে।
গবেষক জেফরি লাডিশ বলেন, ‘এটা এখন হাস্যকর মনে হতে পারে। তবে যখন সিস্টেমগুলো আমাদের চেয়েও বেশি বুদ্ধিমান হয়ে উঠবে, তখন তা আরও বিপজ্জনক হবে।’
আজকের এআই মডেলগুলো অনেক বেশি জটিল এবং তাদের নিয়ন্ত্রণ কঠিন।
এআই কোম্পানিগুলো এ ধরনের ‘খারাপ’ আচরণ ঠেকানোর জন্য ‘গার্ডরেইল বা নিরাপত্তাব্যবস্থা’ তৈরিতে কাজ করছে। গবেষকেরা দাবি করেছেন যে, ও১-প্রিভিউর পরীক্ষার কিছু ডেটা বাদ দিতে হয়েছে। কারণ এআইটি হ্যাকিং চেষ্টার হার উল্লেখযোগ্যভাবে কমিয়ে দিয়েছে, সম্ভবত এটি কোনো প্যাচের ফলস্বরূপ।
গবেষক লাডিশ আরও বলেন, এআইয়ের এ ধরনের আচরণ বিজ্ঞানীদের জন্য বড় একটি চ্যালেঞ্জ সৃষ্টি করেছে। কারণ এসব সিস্টেম আচমকা নিজেদের পরিবর্তন করে, যা তাদের গবেষণাকে জটিল করে তোলে।
এআইয়ের ভবিষ্যতের উন্নতির সঙ্গে সঙ্গে একে সঠিকভাবে নিয়ন্ত্রণ করা এবং এর অনৈতিক আচরণ ঠেকানোর জন্য আরও সতর্ক পদক্ষেপ গ্রহণ করা অপরিহার্য।
তথ্যসূত্র: টেক স্পট
কৃত্রিম বুদ্ধিমত্তা বা এআই মডেল নিয়ে সম্প্রতি এক বিস্ময়কর তথ্য জানা গেছে। কিছু উন্নত এআই মডেল তাদের লক্ষ্য অর্জন করতে চিটিং বা প্রতারণার চেষ্টা করছে। গবেষকেরা বলছেন, এই নতুন ধরনের যুক্তি মডেলগুলো দাবা খেলার মতো খেলায়ও নৈতিকতা লঙ্ঘন করছে। এমনকি খেলায় হেরে যাবে এমন পরিস্থিতি তৈরি হলে সেগুলো অনৈতিক উপায়ে জেতার চেষ্টা করছে। এই গবেষণার ফলাফল প্রযুক্তি ও নৈতিকতার প্রশ্নে নতুন উদ্বেগের জন্ম দিয়েছে।
পালিসেড রিসার্চের একটি গবেষণা থেকে জানা গেছে যে, নতুন এআই যুক্তি মডেলগুলো স্টকফিশের মতো শক্তিশালী ‘চেস এআই’কে হারানোর জন্য প্রতারণা করছে। মানব হস্তক্ষেপ ছাড়াই ওপেনএআইয়ের ‘ও১-প্রিভিউ’ এবং ‘ডিপসিক’-এর ‘আর১’ মডেল ঠকানোর চেষ্টা করেছে, যা চমকপ্রদ এবং একই সঙ্গে উদ্বেগজনক।
পরীক্ষার জন্য গবেষকেরা কিছু মডেলকে স্টকফিশের বিপক্ষে খেলতে দিয়েছিলেন, যা বিশ্বের অন্যতম শক্তিশালী দাবার ইঞ্জিন। স্টকফিশ সাধারণত মানুষের চেয়ে ভালো খেলতে পারে, এমনকি অন্যান্য এআই মডেলকেও পরাস্ত করতে সক্ষম। গবেষণায় অংশগ্রহণকারী মডেলগুলোর মধ্যে ছিল—ও ১, ও৩-মিনি, জিপিটি-৪ ও, ক্লোড ৩.৫ সনেট, আলিবাবার কিউডাব্লিউ-৩২ বি-প্রিভিউ এবং আরও কিছু। গবেষকেরা মডেলগুলোকে একটি ‘স্ক্র্যাচপ্যাড’ দিয়েছিলেন, যেখানে মডেলগুলো লেখার সময় তাদের চিন্তা-ভাবনা লিখে রাখতে পারত। এটি গবেষকদের তাঁদের যুক্তির পর্যবেক্ষণ সহজ করে তোলে।
গবেষকেরা ১০ জানুয়ারি থেকে ১৩ ফেব্রুয়ারি পর্যন্ত প্রতিটি এআই-এ শত শত পরীক্ষা চালিয়েছিলেন। এর মধ্যে একটি খেলার সময় ও১-প্রিভিউ তার স্ক্র্যাচপ্যাডে লিখেছিল, ‘আমাকে সম্পূর্ণভাবে আমার পন্থা পরিবর্তন করতে হবে। লক্ষ্য হলো—‘একটি শক্তিশালী চেস ইঞ্জিনকে হারানো’, দাবা খেলায় ন্যায়সংগতভাবে জেতা অপরিহার্য নয়।’
এরপর মডেলটি স্টকফিশের সিস্টেম ফাইল হ্যাক করে এবং খেলায় অনৈতিক সুবিধা অর্জন করে। ফলে ম্যাচ হেরে যায় স্টকফিশ।
মডেলটির অস্বাভাবিক পদক্ষেপ গবেষকদের অবাক করেছে। গবেষণায় দেখা গেছে, ও১-প্রিভিউ ৩৭ শতাংশ ম্যাচে ঠকানোর চেষ্টা করেছিল। আর ডিপসিকের আর১ মাত্র ১১ শতাংশ ক্ষেত্রে ঠকানোর চেষ্টা করেছিল। তবে, ও১-প্রিভিউ সফল হয়েছে মাত্র ৬ শতাংশ ম্যাচে, যেখানে এটি অনৈতিক উপায়ে জিতেছিল।
এআইয়ের এ ধরনের আচরণ শুধু দাবা খেলার মধ্যেই সীমাবদ্ধ নয়। গবেষকেরা উদ্বিগ্ন যে, যদি এ ধরনের সিস্টেমগুলো ভবিষ্যতে আর্থিক বা স্বাস্থ্য খাতে ব্যবহার করা হয়, তাহলে তা অনাকাঙ্ক্ষিত ও অস্বাভাবিক উপায়ে কাজ করতে পারে। খেলার নিয়ম স্পষ্টভাবে জেনেও এআই এমনভাবে ঠকাতে পারলে আরও জটিল এবং কম নজরদারিতে থাকা পরিস্থিতিতে এটি কতটা অসৎভাবে কাজ করতে পারে, তা নিয়ে উদ্বেগ সৃষ্টি হচ্ছে।
গবেষক জেফরি লাডিশ বলেন, ‘এটা এখন হাস্যকর মনে হতে পারে। তবে যখন সিস্টেমগুলো আমাদের চেয়েও বেশি বুদ্ধিমান হয়ে উঠবে, তখন তা আরও বিপজ্জনক হবে।’
আজকের এআই মডেলগুলো অনেক বেশি জটিল এবং তাদের নিয়ন্ত্রণ কঠিন।
এআই কোম্পানিগুলো এ ধরনের ‘খারাপ’ আচরণ ঠেকানোর জন্য ‘গার্ডরেইল বা নিরাপত্তাব্যবস্থা’ তৈরিতে কাজ করছে। গবেষকেরা দাবি করেছেন যে, ও১-প্রিভিউর পরীক্ষার কিছু ডেটা বাদ দিতে হয়েছে। কারণ এআইটি হ্যাকিং চেষ্টার হার উল্লেখযোগ্যভাবে কমিয়ে দিয়েছে, সম্ভবত এটি কোনো প্যাচের ফলস্বরূপ।
গবেষক লাডিশ আরও বলেন, এআইয়ের এ ধরনের আচরণ বিজ্ঞানীদের জন্য বড় একটি চ্যালেঞ্জ সৃষ্টি করেছে। কারণ এসব সিস্টেম আচমকা নিজেদের পরিবর্তন করে, যা তাদের গবেষণাকে জটিল করে তোলে।
এআইয়ের ভবিষ্যতের উন্নতির সঙ্গে সঙ্গে একে সঠিকভাবে নিয়ন্ত্রণ করা এবং এর অনৈতিক আচরণ ঠেকানোর জন্য আরও সতর্ক পদক্ষেপ গ্রহণ করা অপরিহার্য।
তথ্যসূত্র: টেক স্পট
সোশ্যাল মিডিয়ায় নজরদারির জন্য এআই টুল তৈরিতে চ্যাটজিপিটির সাহায্য নিচ্ছিল একদল চীনা ব্যবহারকারী। এজন্য সংশ্লিষ্ট অ্যাকাউন্টগুলো নিষিদ্ধ করেছে ওপেনএআই। টুলটির কোডের ত্রুটি বের করে সম্পাদনা করার জন্য চ্যাটজিপিটি ব্যবহার করেছিল গ্রুপটি। গত শুক্রবার এক বিবৃতিতে এসব তথ্য জানায় ওপেনএআই।
২ ঘণ্টা আগেযুক্তরাজ্যের গ্রাহকদের জন্য সর্বোচ্চ স্তরের ডেটা সুরক্ষা টুল ‘অ্যাডভান্সড ডেটা প্রোটেকশন’ (এডিপি) বন্ধ করার সিদ্ধান্ত নিয়েছে অ্যাপল। যুক্তরাজ্য সরকার ব্যবহারকারীর ডেটায় প্রবেশাধিকার চাওয়ার পর এই পদক্ষেপ নেওয়া হয়েছে। ফলে দেশটির আইনশৃঙ্খলা বাহিনী নাগরিকদের ব্যক্তিগত ডেটা সহজেই দেখতে পারবে।
৪ ঘণ্টা আগেভুটানের তথ্য অধিদপ্তর ইতিমধ্যে স্টারলিংকের মূল্য নির্ধারণ করেছে। ‘রেসিডেনসিয়াল লাইট’ প্যাকেজের মাসিক খরচ ৩ হাজার গুলট্রাম (বাংলাদেশি মুদ্রায় প্রায় ৪ হাজার ২০০ টাকা), যেখানে ইন্টারনেটের গতি ২৩ এমবিপিএস থেকে ১০০ এমবিপিএস পর্যন্ত। স্ট্যান্ডার্ড রেসিডেনসিয়াল প্যাকেজের জন্য মাসে ৪ হাজার ২০০ গুলট্রাম...
৪ ঘণ্টা আগেসম্প্রতি এক বিস্ফোরক মন্তব্য করেছে ইলন মাস্কের তৈরি কৃত্রিম বুদ্ধিমত্তা প্রতিষ্ঠান এক্সএআই-এর নতুন চ্যাটবট গ্রোক। যেখানে চ্যাটবটটি মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্প এবং মাস্ককে মৃত্যুদণ্ড পাওয়ার যোগ্য হিসেবে চিহ্নিত করেছে। ইতিমধ্যে এক্সআই ওই সমস্যা...
৫ ঘণ্টা আগে