Ajker Patrika

এআই ব্যবহার করে অশ্লীল ছবি বানাচ্ছে শিশুরা    

অনলাইন ডেস্ক
Thumbnail image

কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি ব্যবহার করে শিশুরা সমবয়সীদের নিয়ে কুরুচিপূর্ণ বা অশ্লীল ছবি বানাচ্ছে বলে জানিয়েছে যুক্তরাজ্যের এক দাতব্য সংস্থা। 

ইউকে সেফার ইন্টারনেট সেন্টার (ইউকেএসআইসি) বলেছে, বিষয়টি নিয়ে স্কুল থেকে কিছু অভিযোগ এসেছে। এই বিষয় নিয়ে দ্রুত পদক্ষেপ নিতে হবে। 

এধরনের ছবি যে শিশু নির্যাতনমূলক কনটেন্টের আওতায় পড়ে, তা শিশুরা বুঝতে পারে না। সমস্যা সমাধানে শিক্ষক ও অভিভাবকদের একযোগে কাজ করার পরামর্শ দিচ্ছে সংস্থাটি। 

ইউকেএসআইসি বলছে, ক্ষতি করার উদ্দেশ্য নয় বরং কৌতূহলের বশে এই ধরনের ছবি তৈরি করছে শিশুরা। যুক্তরাষ্ট্রের আইন অনুসারে, আসল হোক বা এআই দিয়ে তৈরি করা হোক- এই ধরনের ছবি নিজের কাছে রাখা বা ছড়ানো অবৈধ। 

এসব ছবি শিশুদের হাতছড়া হয়ে অনলাইনে ছড়িয়ে পড়তে পারে। এছাড়া ছবিগুলো ব্ল্যাকমেলের জন্যও ব্যবহার করা হতে পারে। 

প্রযুক্তি বিষয়ক কোম্পানি আরএম টেকনোলজি এক গবেষণায় বলছে, ১ হাজার শিক্ষার্থীর এক–তৃতীয়াংশই এআই ব্যবহার করে ‘অনলাইনে অশ্লীল কনটেন্ট দেখছে’। 

কোম্পানির অনলাইন নিরাপত্তা ব্যবস্থাপক তাশা গিবসন বলেন, ‘শিক্ষার্থীদের নিয়মিত এআই ব্যবহার করা সাধারণ ব্যাপার।’

এআই প্রযুক্তির ব্যবহারে শিক্ষকদের চেয়ে শিক্ষার্থীরা এগিয়ে থাকার কারণে জ্ঞানের ব্যবধান তৈরি হয়েছে। এর ফলে শিক্ষার্থীদের অনলাইনে নিরাপত্তা দেওয়া এবং এই প্রযুক্তি অপব্যবহার বন্ধ করা কঠিন হয়ে যাবে। 

গবেষণায় বলা হয়, এই ধরনের ক্ষতিকর কনটেন্ট সম্পর্কে শিক্ষা দিতে অভিভাবক, স্কুল নাকি সরকার দায়িত্ব নেবে তা নিয়ে শিক্ষকেরা দুই ভাগে বিভক্ত। 

ইউকেএসআইসির পরিচালক ডেভিড রাইটের মতে, স্কুলগুলি এই সমস্যায় ডুবে যাওয়ার আগে ও সমস্যা বাড়ার আগেই জোরালো পদক্ষেপ নিতে হবে। 
 
মেরি কলিনস ফাউন্ডেশন নামের এক দাতব্য সংস্থার প্রধান নির্বাহী ভিক্টোরিয়া গ্রিন বলেন, কোনো যৌন নির্যাতনমূলক ঘটনা শিশুদের ‘পুরো জীবনের’ ওপর প্রভাব ফেলে। ছবিগুলো যারা তৈরি করে, তারা হয়ত শিশুদের ক্ষতির জন্য বানায় না। 

তবে এই ধরনের কনটেন্ট কোনো ভুল মানুষের কাছে গেলে, এগুলো তারা বিভিন্ন সাইটে শেয়ার করতে পারে। ভুক্তভোগীদের লজ্জা দিতে বা তাদের মুখ বন্ধের জন্য যৌন অপরাধীরাও এসব ছবি ব্যবহারের সুযোগ দিতে পারে।

‘ডিক্লোথিং অ্যাপ’

গত সেপ্টেম্বরে এআই ব্যবহার করে এই ধরনের কুরুচিপূর্ণ কনটেন্ট তৈরির সুযোগ তৈরি হয়। ডিক্লোথিং অ্যাপ নামে একটি অ্যাপের সাহায্যে কোনো ব্যক্তির জামা–কাপড় সরিয়ে ফেলে নগ্ন ছবি তৈরি করা যায়। সেই সময় ১১ থেকে ১৭ বছর বয়সী স্প্যানিশ মেয়েদের নগ্ন ছবি তৈরি করা হয়। ২০ জনেরও বেশি কিশোরী ঘটনার শিকার হয়। 

ছবিগুলো তাদের অজান্তেই সামাজিক যোগাযোগ মাধ্যমে ছড়িয়ে পড়ে। যারা ছবিগুলো তৈরি করেছে, তাদের বিরুদ্ধে এখন পর্যন্ত কোনো অভিযোগ আনা হয়নি। 

২০১৯ সালে সামাজিক যোগাযোগ মাধ্যমে এই ধরনের অ্যাপগুলো দেখা যায়। মেসেজিং অ্যাপ টেলিগ্রামে এআইভিত্তিক এই ফিচার প্রায়ই পাওয়া যায়, যা সাধারণত বট নামে পরিচিত। 

স্প্যানিশ বটের প্রায় ৫০ হাজার সাবস্ক্রাইবার রয়েছে। অর্থাৎ অনেক ব্যবহারকারী এই ধরনের ছবি তৈরি করার জন্য ফি দেয়। 
তবে অনেকগুলি বিনামূল্যেও ব্যবহার করা যায়। 

মন্তব্য জানতে বট নির্মাতাদের সঙ্গে যোগাযোগ করলে তাঁরা তা দিতে রাজি হয়নি। 

আইটি সিকিউরিটি কোম্পানি নোবিফরইউয়ের সাইবার বিশেষজ্ঞ জাভেদ মালিক বিবিসিকে বলেন, বাস্তব ও এআই দিয়ে তৈরি ছবির মধ্যে পার্থক্য করা কঠিন হয়ে উঠছে। এটি এমন এক প্রবণতা যা ‘ডিক্লোথিং’ অ্যাপের ব্যবহার উসকে দিচ্ছে।

Google News Icon

সর্বশেষ খবর পেতে Google News ফিড ফলো করুন

নারীদের খেলায় আর নাক গলাবে না, দেশ ও বিশ্ববাসীর কাছে ক্ষমা চাইল ভাঙচুরকারীরা

বিয়ে করলেন সারজিস আলম

অস্ট্রেলিয়ার বিপক্ষে লড়ছে শ্রীলঙ্কা, ভারত-ইংল্যান্ড ম্যাচ কোথায় দেখবেন

ইতালি নেওয়ার কথা বলে লিবিয়ায় ফরিদপুরের ২ জনকে গুলি করে হত্যা

সাবেক শিক্ষার্থীর প্রাইভেট কারে ধাক্কা, জাবিতে ১২ বাস আটকে ক্ষতিপূরণ আদায় ছাত্রদলের

এলাকার খবর
খুঁজুন

পাঠকের আগ্রহ

সম্পর্কিত