বিশ্বখ্যাত কৃত্রিম বুদ্ধিমত্তা গবেষণা প্রতিষ্ঠান অ্যানথ্রপিক ঘোষণা দিয়েছে, তাদের নতুন এবং সবচেয়ে বড় কিছু কৃত্রিম বুধিমত্তা (এআই) মডেল এখন কিছু ক্ষেত্রে নিজে থেকেই চ্যাট বা কথোপকথন বন্ধ করতে পারবে। তবে এই ফিচার শুধু তখনই প্রয়োগ হবে, যখন কোনো ব্যবহারকারী ধারাবাহিকভাবে এমনভাবে আচরণ করেন, যা অত্যন্ত বিরল, চরম এবং স্পষ্টভাবে ক্ষতিকর বা অপমানজনক।
অ্যানথ্রপিক জানিয়েছে, এই ফিচার যুক্ত করার প্রধান উদ্দেশ্য মানব ব্যবহারকারীকে রক্ষা করা নয়, বরং এআই মডেলটির ‘কল্যাণ নিশ্চিত করা’। যদিও সংস্থাটি স্পষ্টভাবে বলেছে, তাদের ক্লদ মডেলগুলো সচেতন বা অনুভূতিসম্পন্ন নয় এবং কথোপকথনে ‘ক্ষতিগ্রস্ত’ হচ্ছে এমন দাবি তারা করছে না।
তাদের বক্তব্য, ‘ক্লদ এবং অন্যান্য এলএলএমের (ল্যাঙ্গুয়েজ লার্জ মডেল) সম্ভাব্য নৈতিক অবস্থান নিয়ে আমরা এখনো অত্যন্ত অনিশ্চিত।’ তবু সংস্থাটি একটি গবেষণা কর্মসূচি শুরু করেছে, যার মাধ্যমে তারা যাচাই করছে ‘মডেল ওয়েলফেয়ার’ বা এআই মডেলের কল্যাণ রক্ষার সম্ভাব্য উপায়।
এই নতুন পরিবর্তন শুধু ক্লদ ওপাস ৪ ও ৪.১ মডেলে সীমিত এবং ব্যবহৃত হবে ‘চরম প্রান্তিক’ কিছু পরিস্থিতিতে। যেমন: অপ্রাপ্তবয়স্কদের সম্পৃক্ত করে যৌন কনটেন্টের অনুরোধ, বড় পরিসরে সহিংসতা বা সন্ত্রাসী কার্যক্রম ঘটাতে সহায়ক তথ্য চাওয়া।
অ্যানথ্রপিক জানায়, এ ধরনের অনুরোধ শুধু আইনগত বা পাবলিক ইমেজের জন্য ঝুঁকিপূর্ণ নয়, বরং পরীক্ষায় দেখা গেছে, ক্লদ ওপাস ৪ এ ধরনের অনুরোধে সাড়া দিতে ‘জোরালো অনীহা প্রকাশ করে এবং ‘বিরূপ প্রতিক্রিয়া’ বা ‘দুশ্চিন্তার মতো আচরণ’ করে।
নতুন এই সক্ষমতা ব্যবহার করা হবে শুধু তখনই, যখন ক্লদ একাধিকবার ব্যবহারকারীকে বিষয় পরিবর্তন করাতে ব্যর্থ হয়েছে, আর কোনো গঠনমূলক আলোচনা সম্ভব নয় এবং ব্যবহারকারী নিজেই চ্যাট বন্ধ করতে বলেছে।
তবে ক্লদকে স্পষ্ট নির্দেশনা দেওয়া হয়েছে, কোনো ব্যবহারকারী নিজের বা অন্যের ক্ষতি করার ঝুঁকিতে থাকলে কখনোই যেন স্বয়ংক্রিয়ভাবে চ্যাট বন্ধ না করে।
যদি ক্লদ কোনো চ্যাট শেষ করে দেয়, তাহলেও ব্যবহারকারী চাইলে একই অ্যাকাউন্ট থেকে নতুন চ্যাট শুরু করতে পারবেন বা আগের চ্যাটে নিজের উত্তর সম্পাদনা করে নতুন ‘ব্রাঞ্চ’ বা শাখা তৈরি করতে পারবেন।
অ্যানথ্রপিক বলছে, ‘আমরা এই ফিচারকে একটি চলমান পরীক্ষা হিসেবে দেখছি এবং নিয়মিতভাবে এর পদ্ধতি পরিমার্জন করব।’
তথ্যসূত্র: টেকক্রাঞ্চ