Ajker Patrika

শিশুদের ন্যুড ছবি বানিয়ে বিতর্কে গ্রোক, নিজের বিকিনি পরা ছবি দিয়ে মাস্কের সাফাই

আজকের পত্রিকা ডেস্ক­
ইলন মাস্কের এআই প্ল্যাটফর্ম গ্রোক। ছবি: এএফপি
ইলন মাস্কের এআই প্ল্যাটফর্ম গ্রোক। ছবি: এএফপি

ইলন মাস্কের এআই প্ল্যাটফর্ম গ্রোক। যাত্রার শুরু থেকেই বিতর্কের মুখে এই চ্যাটবট। এবার এর বিরুদ্ধে অভিযোগ উঠেছে নারী-শিশুদের ‘ন্যুড’ ছবি বানিয়ে দেওয়ার। সামাজিক যোগাযোগ মাধ্যম এক্স-এ আলোড়ন তুলেছে ব্যবহারকারীরা। গত ডিসেম্বরের শেষ দিকে গ্রোক-এ ‘এডিট ইমেজ’ অপশন চালুর পরই এসব অভিযোগ সামনে আসে। এই ফিচারটি ব্যবহারকারীদের প্ল্যাটফর্মে থাকা ছবি পরিবর্তনের সুযোগ দেয়। তবে কেউ কেউ এটির অপব্যবহার করে নারী ও শিশুদের ছবির আংশিক বা পুরো পোশাক মুছে ফেলতে সক্ষম হচ্ছিল, যা ব্যাপক উদ্বেগের জন্ম দেয়।

দ্য গার্ডিয়ানের প্রতিবেদন থেকে জানা যায়, ইমেজ এডিটিং ত্রুটির কারণে এ ধরনের ছবি তৈরি হচ্ছিল বলে দাবি করেছে গ্রোক। গতকাল শুক্রবার গ্রোকের পক্ষ থেকে বলা হয়, সুরক্ষা ব্যবস্থার ত্রুটির কারণে সামাজিক যোগাযোগমাধ্যম এক্স-এ অপ্রাপ্তবয়স্ক এবং নারীদের ন্যুড বা স্বল্পবসনা ছবি প্রকাশ হয়ে গিয়েছে।

এক্স-এ অনেক ব্যবহারকারী গ্রোককে যৌন ইঙ্গিতপূর্ণ, সম্মতি ছাড়া এআই–পরিবর্তিত ছবি তৈরি করতে প্ররোচিত করেছেন বলে দ্য গার্ডিয়ানের প্রতিবেদন বলছে। এসব ক্ষেত্রে সম্মতি ছাড়াই অনেকের পোশাকহীন ছবি বানানোর মতোও ঘটনা ঘটেছে। সপ্তাহখানেক ধরে ব্যবহারকারীদের নির্দেশে এ ধরনের ছবি প্রকাশিত হচ্ছিল বলে প্রতিবেদনে জানা যায়। এক্স-এ ব্যবহারকারীদের শেয়ার করা স্ক্রিনশটগুলোতে দেখা যায়, গ্রোকের পাবলিক মিডিয়া ট্যাব এমন ‘অসংলগ্ন’ ছবিতে ভরে গেছে। তবে ভবিষ্যতে এ ধরনের ঘটনা ঠেকাতে সিস্টেম উন্নত করার কাজ চলছে বলে জানিয়েছে এক্সএআই।

এক্স-এ একজন ব্যবহারকারীর জবাবে গ্রোক বলেছে, ‘কিছু ব্যবহারকারীরা এমন নির্দেশ দিয়েছেন, যার ফলে অপ্রাপ্তবয়স্কদের এমন এআই ছবি তৈরি হয়েছে। তবে এ ধরনের ছবি না প্রকাশের জন্য এক্সএআই-এর সুরক্ষা ব্যবস্থা রয়েছে বলে দাবি করেছে চ্যাটবটটি।

এক্সএআই-এর পক্ষ থেকে বলা হয়, ‘আমরা সুরক্ষা ব্যবস্থায় ত্রুটি শনাক্ত করেছি এবং জরুরি ভিত্তিতে তা ঠিক করছি। আমাদের চ্যাটবটে সিএসএএম (শিশু যৌন নির্যাতনবিষয়ক উপাদান) অবৈধ এবং নিষিদ্ধ।’

এদিকে এই বিতর্ক ঢাকতে গ্রোককে দিয়ে নিজের বিকিনি পরা ছবি বানিয়েছেন ইলন মাস্ক। এ যেন তুষের আগুনে ঘি ঢালার মতো। গ্রোককে নির্দেশ দিয়ে বানানো নিজের বিকিনি পরা ছবিটির রিপ্লাই কমেন্টে তিনি লিখেছেন ‘পারফেক্ট!’ । গত বৃহস্পতিবার ইলন মাস্ক ওই ছবিটি পুনঃপোস্ট করেন এবং কান্না-হাসির ইমোজি যুক্ত করেন।

গ্রোকের নিরাপত্তা ব্যবস্থায় ব্যর্থতা ও ভুয়া তথ্য ছড়ানোর অতীত ইতিহাসও রয়েছে। গত বছরের মে মাসে এক পোস্টে গ্রোক দক্ষিণ আফ্রিকায় ‘হোয়াইট জেনোসাইড’ নামে চরম ডানপন্থী ষড়যন্ত্র তত্ত্ব নিয়ে লেখা শুরু করে। এরপর জুলাইয়ে গ্রোক ধর্ষণ কল্পকাহিনি এবং ইহুদিবিরোধী বিষয়বস্তু পোস্ট করতে শুরু করে। পরে এ নিয়ে এক্সএআই ক্ষমা চায়। এসব ঘটনার এক সপ্তাহ পরই প্রতিষ্ঠানটি যুক্তরাষ্ট্রের প্রতিরক্ষা দপ্তরের সঙ্গে প্রায় ২০ কোটি ডলারের একটি চুক্তি পায়।

তবে গ্রোক এ সমস্যার দ্রুত সমাধানের আশ্বাস দিয়েছে এবং জোর দিয়ে বলেছে, ব্যবহারকারীদের সুরক্ষা নিশ্চিত করা ও অবৈধ কনটেন্ট প্রতিরোধ করাই তাদের সর্বোচ্চ অগ্রাধিকার।

এআই ব্যবহার করে শিশু যৌন নির্যাতনবিষয়ক উপাদান তৈরি হওয়া কৃত্রিম বুদ্ধিমত্তা শিল্পে দীর্ঘদিনের একটি সমস্যা। ২০২৩ সালের স্ট্যানফোর্ডের এক গবেষণায় দেখা যায়, জনপ্রিয় কয়েকটি এআই ছবি-তৈরি টুল প্রশিক্ষণে ব্যবহৃত একটি ডেটাসেটে এক হাজারের বেশি সিএসএএম (শিশু যৌন নির্যাতনবিষয়ক উপাদান) ছবি ছিল। শিশু নির্যাতনের ছবিতে এআই প্রশিক্ষণ দিলে মডেলগুলো নতুন করে শিশুদের শোষণের ছবি তৈরি করতে সক্ষম হয়ে ওঠে বলে দাবি করেন বিশেষজ্ঞরা।

Google News Icon

সর্বশেষ খবর পেতে Google News ফিড ফলো করুন

মোস্তাফিজকে আইপিএল থেকে বাদ দেওয়ায় বিসিসিআইকে ধুয়ে দিয়েছেন ভারতীয় ক্রিকেটার

সিআইএ–এফবিআই এবং এলিট বাহিনী: যেভাবে কয়েক মাসে মাদুরোকে ধরতে ‘অপারেশন অ্যাবসোলিউট রিজলভের’ প্রস্তুতি নিয়েছে যুক্তরাষ্ট্র

কলকাতার পেজে লাখো ‘নেগেটিভ রিঅ্যাকশন’

আলোচনায় যুক্তরাষ্ট্রের ২০০ বছরের পুরোনো ‘মনরো ডকট্রিন’, কী আছে এতে

ট্রাম্পের নজর কি এবার গ্রিনল্যান্ডে!

এলাকার খবর
Loading...

পাঠকের আগ্রহ

সম্পর্কিত