প্রযুক্তি ডেস্ক
চ্যাটজিপিটিতে সম্প্রতি নতুন একটি ত্রুটি দেখা দেয়। এই ত্রুটির কারণে অন্য ব্যবহারকারীদের কথোপকথনের শিরোনাম দেখতে পেয়েছেন কিছু ব্যবহারকারী। সোশ্যাল মিডিয়া সাইট রেডিট এবং টুইটারে কিছু ব্যবহারকারী তাদের চ্যাটজিপিটিতে চ্যাটের ইতিহাসের কিছু স্ক্রিনশট শেয়ার করেন। যেখানে দেখা যায় চ্যাটের তথ্যগুলো তাদের নয়।
বিবিসির প্রতিবেদন অনুযায়ী, ওপেনএআই’র প্রধান নির্বাহী স্যাম অল্টম্যান বলেন, ‘আমরা বিব্রত বোধ করছি, তবে এই ত্রুটিটি সংশোধন করা হয়েছে।’ অনেক ব্যবহারকারী চ্যাটজিপিটির গোপনীয়তা নিয়ে উদ্বিগ্ন থাকেন। গত নভেম্বরে এটি চালু হওয়ার পর থেকে লাখ লাখ মানুষ বার্তা খসড়া করতে, গান লিখতে এবং এমনকি কোড করতে এই প্ল্যাটফর্ম ব্যবহার করেছেন।
চ্যাটজিপিটিতে প্রতিটি চ্যাটের হিস্ট্রি সংরক্ষণ করা হয় যা পরে আবার দেখা যায়। তবে গত ২০ মার্চ থেকে ব্যবহারকারীরা তাদের চ্যাট হিস্ট্রিতে যে চ্যাট গুলো দেখতে পাচ্ছিলেন সেগুলো তাদের নয়। রেডিটে একজন ব্যবহারকারী তাঁর চ্যাটের ইতিহাসের একটি ছবি শেয়ার করেছেন যার শিরোনাম— চীনের সমাজতন্ত্র উন্নয়ন। পুরো কথোপকথনটি মান্দারিন ভাষায় করা হয়েছে।
চ্যাটজিপিটি জানিয়েছে, ত্রুটিটি ঠিক করা হয়েছে। এ ছাড়া, ব্যবহারকারীরা শুধু অন্যের চ্যাটের টাইটেল দেখতে পেয়েছিলেন। চ্যাট পড়তে পারেননি।
সম্প্রতি, চ্যাটজিপিটি নিয়ে নিজের শঙ্কার কথা জানান স্যাম অল্টম্যান। বিজনেস ইনসাইডারের প্রতিবেদন অনুযায়ী, এবিসি নিউজকে দেওয়া এক সাক্ষাৎকারে অল্টম্যান বলেন, ‘এআই চ্যাটবটটি অনেক ধরনের চাকরি বিলুপ্ত করবে। এটি যে সব কাজ করতে পারে তার জন্য আর মানুষের প্রয়োজন হবে না। মানুষ প্রমাণ করেছে, তারা প্রযুক্তিগত পরিবর্তনের সঙ্গে মানিয়ে নিতে পারে। তবে কিছু পরিবর্তন ১০ বছরেরও কম সময়ে ঘটবে।’
তিনি আরও বলেন, ‘মানুষের সৃষ্টিশীলতা সীমাহীন। মানুষ কোনো না কোনোভাবে নতুন কাজ খুঁজে নেয়।’
চ্যাটজিপিটির অপব্যবহার নিয়েও শঙ্কা প্রকাশ করে অল্টম্যান বলেন, ‘এআই ল্যাঙ্গুয়েজ মডেলগুলো বৃহৎ পরিসরে ভুয়া তথ্য ছড়ানোর কাজে ব্যবহার করা হতে পারে।’ সাইবার হামলা বাড়ার আশঙ্কার কথাও জানান অল্টম্যান। কারণ, ধীরে ধীরে কোডিংয়েও পারদর্শী হয়ে উঠছে চ্যাটজিপিটি। চ্যাটজিপিটি কৃত্রিম বুদ্ধিমত্তাভিত্তিক টুল হলেও তা মানুষই নিয়ন্ত্রণ করে। তাই কোন ধরনের মানুষ এটা নিয়ন্ত্রণ করছে সেটাও ভাবার বিষয়।
অল্টম্যান গত মাসে একাধিক টুইট বার্তার মাধ্যমে সতর্কবার্তা জানান। এক টুইটে তিনি লেখেন, পৃথিবী কৃত্রিম বুদ্ধিমত্তার ভয়ংকর প্রভাব থেকে বেশি দূরে নয়। আরেক টুইটে এআইকে নিয়ন্ত্রণের কথাও বলেন অল্টম্যান।
গত সপ্তাহে ওপেনএআই জিপিটি-৪ উন্মোচন করে। অল্টম্যান এই সংস্করণকে আগের সংস্করণের তুলনায় ‘কম পক্ষপাতদুষ্ট’ ও ‘আরও সৃজনশীল’ হিসেবে আখ্যা দিয়েছেন। জিপিটি-৪ ব্যবহার করতে হলে চ্যাটজিপিটির প্লাস সাবস্ক্রিপশন সেবা নিতে হবে। নতুন এই সংস্করণ আগের সংস্করণের তুলনায় আরও নির্ভুল হওয়ার পাশাপাশি ব্যবহারকারীদের সঙ্গে এটি আগের চেয়ে বেশি সময় ধরে সংলাপ করতে সক্ষম।
চ্যাটজিপিটিতে সম্প্রতি নতুন একটি ত্রুটি দেখা দেয়। এই ত্রুটির কারণে অন্য ব্যবহারকারীদের কথোপকথনের শিরোনাম দেখতে পেয়েছেন কিছু ব্যবহারকারী। সোশ্যাল মিডিয়া সাইট রেডিট এবং টুইটারে কিছু ব্যবহারকারী তাদের চ্যাটজিপিটিতে চ্যাটের ইতিহাসের কিছু স্ক্রিনশট শেয়ার করেন। যেখানে দেখা যায় চ্যাটের তথ্যগুলো তাদের নয়।
বিবিসির প্রতিবেদন অনুযায়ী, ওপেনএআই’র প্রধান নির্বাহী স্যাম অল্টম্যান বলেন, ‘আমরা বিব্রত বোধ করছি, তবে এই ত্রুটিটি সংশোধন করা হয়েছে।’ অনেক ব্যবহারকারী চ্যাটজিপিটির গোপনীয়তা নিয়ে উদ্বিগ্ন থাকেন। গত নভেম্বরে এটি চালু হওয়ার পর থেকে লাখ লাখ মানুষ বার্তা খসড়া করতে, গান লিখতে এবং এমনকি কোড করতে এই প্ল্যাটফর্ম ব্যবহার করেছেন।
চ্যাটজিপিটিতে প্রতিটি চ্যাটের হিস্ট্রি সংরক্ষণ করা হয় যা পরে আবার দেখা যায়। তবে গত ২০ মার্চ থেকে ব্যবহারকারীরা তাদের চ্যাট হিস্ট্রিতে যে চ্যাট গুলো দেখতে পাচ্ছিলেন সেগুলো তাদের নয়। রেডিটে একজন ব্যবহারকারী তাঁর চ্যাটের ইতিহাসের একটি ছবি শেয়ার করেছেন যার শিরোনাম— চীনের সমাজতন্ত্র উন্নয়ন। পুরো কথোপকথনটি মান্দারিন ভাষায় করা হয়েছে।
চ্যাটজিপিটি জানিয়েছে, ত্রুটিটি ঠিক করা হয়েছে। এ ছাড়া, ব্যবহারকারীরা শুধু অন্যের চ্যাটের টাইটেল দেখতে পেয়েছিলেন। চ্যাট পড়তে পারেননি।
সম্প্রতি, চ্যাটজিপিটি নিয়ে নিজের শঙ্কার কথা জানান স্যাম অল্টম্যান। বিজনেস ইনসাইডারের প্রতিবেদন অনুযায়ী, এবিসি নিউজকে দেওয়া এক সাক্ষাৎকারে অল্টম্যান বলেন, ‘এআই চ্যাটবটটি অনেক ধরনের চাকরি বিলুপ্ত করবে। এটি যে সব কাজ করতে পারে তার জন্য আর মানুষের প্রয়োজন হবে না। মানুষ প্রমাণ করেছে, তারা প্রযুক্তিগত পরিবর্তনের সঙ্গে মানিয়ে নিতে পারে। তবে কিছু পরিবর্তন ১০ বছরেরও কম সময়ে ঘটবে।’
তিনি আরও বলেন, ‘মানুষের সৃষ্টিশীলতা সীমাহীন। মানুষ কোনো না কোনোভাবে নতুন কাজ খুঁজে নেয়।’
চ্যাটজিপিটির অপব্যবহার নিয়েও শঙ্কা প্রকাশ করে অল্টম্যান বলেন, ‘এআই ল্যাঙ্গুয়েজ মডেলগুলো বৃহৎ পরিসরে ভুয়া তথ্য ছড়ানোর কাজে ব্যবহার করা হতে পারে।’ সাইবার হামলা বাড়ার আশঙ্কার কথাও জানান অল্টম্যান। কারণ, ধীরে ধীরে কোডিংয়েও পারদর্শী হয়ে উঠছে চ্যাটজিপিটি। চ্যাটজিপিটি কৃত্রিম বুদ্ধিমত্তাভিত্তিক টুল হলেও তা মানুষই নিয়ন্ত্রণ করে। তাই কোন ধরনের মানুষ এটা নিয়ন্ত্রণ করছে সেটাও ভাবার বিষয়।
অল্টম্যান গত মাসে একাধিক টুইট বার্তার মাধ্যমে সতর্কবার্তা জানান। এক টুইটে তিনি লেখেন, পৃথিবী কৃত্রিম বুদ্ধিমত্তার ভয়ংকর প্রভাব থেকে বেশি দূরে নয়। আরেক টুইটে এআইকে নিয়ন্ত্রণের কথাও বলেন অল্টম্যান।
গত সপ্তাহে ওপেনএআই জিপিটি-৪ উন্মোচন করে। অল্টম্যান এই সংস্করণকে আগের সংস্করণের তুলনায় ‘কম পক্ষপাতদুষ্ট’ ও ‘আরও সৃজনশীল’ হিসেবে আখ্যা দিয়েছেন। জিপিটি-৪ ব্যবহার করতে হলে চ্যাটজিপিটির প্লাস সাবস্ক্রিপশন সেবা নিতে হবে। নতুন এই সংস্করণ আগের সংস্করণের তুলনায় আরও নির্ভুল হওয়ার পাশাপাশি ব্যবহারকারীদের সঙ্গে এটি আগের চেয়ে বেশি সময় ধরে সংলাপ করতে সক্ষম।
প্রযুক্তি খাতে নিজেদের অবস্থান আরও জোরালো করতে এবার ল্যাপটপ নিয়ে এল মটোরোলা। ভারতের বাজারের জন্য উন্মোচন করা হয়েছে তাদের প্রথম ল্যাপটপ মটো বুক ৬০। পেশাজীবী, শিক্ষার্থী ও কনটেন্ট ক্রিয়েটরদের লক্ষ্য করে তৈরি করা হয়েছে এই ডিভাইস। একই সঙ্গে মটোরোলা চালু করেছে মটো প্যাড ৬০ প্রো ট্যাবলেট।
৩ ঘণ্টা আগেমিথ্যা বা বিভ্রান্তিকর তথ্য রুখতে ‘ফুটনোটস’ নামের নতুন ফিচার নিয়ে এসেছে টিকটক। ফিচারটি পরীক্ষামূলকভাবে চালু হয়েছে যুক্তরাষ্ট্রে। সামাজিক যোগাযোগমাধ্যম এক্সের (সাবেক টুইটার) ‘কমিউনিটি নোটস’-এর মতোই কাজ করবে ফিচারটি।
৪ ঘণ্টা আগেদৃষ্টিপ্রতিবন্ধী ও স্বল্পদৃষ্টিসম্পন্ন ব্যক্তিদের জন্য নিরাপদে চলাফেরার পথ সহজ করতে এক নতুন ধরনের পরিধানযোগ্য ডিভাইস তৈরি করেছেন চীনের বিজ্ঞানীরা। কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তিনির্ভর ডিভাইসটি ব্যবহারকারীদের চারপাশের প্রতিবন্ধকতা শনাক্ত করে এবং চলার জন্য নিরাপদ পথের নির্দেশনা দেয়।
৬ ঘণ্টা আগেসরকার ইতিমধ্যে সাবমেরিন কেবল ব্যান্ডউইথের মূল্য ১০ শতাংশ কমিয়ে এনেছে। ফাইবারের জটিলতা নিরসন করা হয়েছে। এর মধ্যে ৫০০ টাকায় ৫ এমবিপিএসের বদলে ১০ এমবিপিএস গতির ইন্টারনেট সেবা দেওয়ার ঘোষণা দিয়েছে ইন্টারনেট সার্ভিস প্রোভাইডার্স অ্যাসোসিয়েশন অব বাংলাদেশ (আইএসপিএবি)।
৭ ঘণ্টা আগে