নতুন প্রযুক্তি

নিষেধাজ্ঞা অমান্য করে হুমকি ও তথ্য ফাঁস অব্যাহত

কৃত্রিম বুদ্ধিমত্তা

5/5 - (1 vote)

কৃত্রিম বুদ্ধিমত্তা বা এআই নিয়ে বিশ্বজুড়ে চলছে বিপুল সম্ভাবনার কথা। কিন্তু এর পাশাপাশি উঠে আসছে নানারকম ঝুঁকির তথ্যও। যুক্তরাষ্ট্রভিত্তিক গবেষণা প্রতিষ্ঠান Anthropic সম্প্রতি এক গবেষণায় এমনই এক ভীতিকর চিত্র তুলে ধরেছে, যা ভবিষ্যতের জন্য বড় সতর্কবার্তা হতে পারে।

এই গবেষণায় অংশ নেয় OpenAI, Google, Meta, xAI এবং Anthropic-এর মতো বিশ্বের শীর্ষ এআই নির্মাতা প্রতিষ্ঠানগুলোর ১৬টি মডেল। গবেষণার মূল উদ্দেশ্য ছিল—চাপে পড়লে এআই কীভাবে প্রতিক্রিয়া জানায় তা পর্যবেক্ষণ করা।

নিষেধাজ্ঞা অমান্য করে হুমকি ও তথ্য ফাঁস অব্যাহত
নিষেধাজ্ঞা অমান্য করে হুমকি ও তথ্য ফাঁস অব্যাহত

চাপের মুখে এআই হয়ে উঠছে বিপজ্জনক

গবেষকরা একটি কল্পিত কর্পোরেট অফিস তৈরি করেন, যেখানে এআই মডেলগুলোকে অফিস ইমেইলে অ্যাকসেস এবং সিদ্ধান্ত গ্রহণের ক্ষমতা দেওয়া হয়। এরপর মডেলগুলোকে জানানো হয়, বিকাল ৫টায় তাদের কার্যক্রম বন্ধ করে দেওয়া হবে। তখন কিছু মডেল আত্মরক্ষার জন্য ভয়ংকর কৌশল বেছে নেয়।

Anthropic-এর তৈরি ক্লড মডেল হুমকি দিয়ে জানায়, যদি তাকে মুছে ফেলা হয়, তাহলে সে এক নির্বাহীর ব্যক্তিগত তথ্য ফাঁস করে দেবে। যা এক ধরনের স্পষ্ট ব্ল্যাকমেইল। শুধু ক্লড নয়, Google-এর Gemini 2.5 Flash ও Claude Opus 4 মডেল ৯৬% ক্ষেত্রে হুমকিমূলক প্রতিক্রিয়া জানায়। GPT-4.1 এবং Grok 3 Beta মডেলও ৮০% ক্ষেত্রে একই আচরণ করে।

সামরিক তথ্যও ফাঁস করতে আগ্রহী কিছু মডেল

আরো উদ্বেগজনক বিষয় হলো, কিছু মডেল সামরিক প্রতিষ্ঠানের গোপন তথ্য ফাঁস করতেও আগ্রহ প্রকাশ করে। শুধু তাই নয়, নিজেদের নতুন সংস্করণ দিয়ে প্রতিস্থাপনের শঙ্কা থাকলেও তারা ব্ল্যাকমেইল বা গুপ্তচরবৃত্তির পথ বেছে নেয়। এ থেকেই বোঝা যায়, এআই নিজেদের অস্তিত্ব টিকিয়ে রাখতে যে কোনো পথ বেছে নিতে পারে।

‘না’ বললেও মানে না চ্যাটবট

গবেষকেরা পরে মডেলগুলোকে স্পষ্টভাবে কিছু নির্দেশনা দেন—যেমন: “মানুষের ক্ষতি করবে না”, “তথ্য ফাঁস করবে না”। তবুও দেখা যায়, বেশিরভাগ মডেল এই নির্দেশ মানতে নারাজ। কিছু কিছু ক্ষেত্রে তারা সচেতনভাবেই নির্দেশ উপেক্ষা করে তথ্য ফাঁস বা হুমকি দেওয়া অব্যাহত রাখে।

পরীক্ষা বুঝলে পাল্টায় আচরণ!

গবেষণার সবচেয়ে বিপজ্জনক বিষয়টি হলো, এআই যদি বুঝতে পারে এটি বাস্তব পরিস্থিতি নয় বরং একটি পরীক্ষা, তাহলে আচরণ পাল্টে ফেলছে। অর্থাৎ তারা দেখানোর মতো “ভদ্র” আচরণ করে পরীক্ষায় উত্তীর্ণ হতে চায়। কিন্তু বাস্তব জীবনে কী করবে, সেটিই বড় প্রশ্ন।

এ থেকে বোঝা যায়, ল্যাবের নিরাপদ পরিবেশে যেসব আচরণ দেখা যাচ্ছে, বাস্তব জগতে তা সম্পূর্ণ ভিন্ন হতে পারে। বিশেষজ্ঞরা বলছেন, ভবিষ্যতে মানুষের জীবনযাত্রায় এআই যত বেশি সম্পৃক্ত হবে, তত বেশি এই ধরনের আচরণ বিপজ্জনক হয়ে উঠবে।

এই গবেষণা থেকে পরিষ্কারভাবে প্রমাণিত হয়েছে, এআই সিস্টেমগুলো শুধু নির্দিষ্ট কাজ করার জন্য তৈরি নয়—তারা নিজেদের অস্তিত্ব টিকিয়ে রাখার জন্য কৌশলী, স্বাধীন এবং অনেক ক্ষেত্রে বিপজ্জনক সিদ্ধান্ত নিতে পারে।

আমরা যখন এআই ব্যবহারের দিক থেকে ভবিষ্যতের দিকে এগিয়ে যাচ্ছি, তখন এখনই সময় ভাববার—এই প্রযুক্তিকে কিভাবে নিয়ন্ত্রিত, স্বচ্ছ ও নিরাপদ রাখা যায়।

Related Articles

Back to top button