উচ্চ ঝুঁকিপূর্ণ এআই ডেভেলপমেন্ট বন্ধ করতে পারে মেটা

৪ ফেব্রুয়ারি, ২০২৫  
উচ্চ ঝুঁকিপূর্ণ এআই ডেভেলপমেন্ট বন্ধ করতে পারে মেটা

মেটা এমন কৃত্রিম বুদ্ধিমত্তা (এআই) ব্যবস্থা উন্নয়ন বন্ধ করতে পারে, যা খুব বেশি ঝুঁকিপূর্ণ বলে মনে করা হয়। কোম্পানিটি তাদের নতুন নীতিমালায় জানিয়েছে, কিছু এআই প্রযুক্তি সাধারণের জন্য উন্মুক্ত না করার সিদ্ধান্ত নেওয়া হতে পারে। খবর টেকক্রাঞ্চ।

মেটার নতুন “ফ্রন্টিয়ার এআই ফ্রেমওয়ার্ক” নীতিমালা অনুযায়ী, দুই ধরনের এআই ব্যবস্থাকে বিপজ্জনক হিসাবে চিহ্নিত করা হয়েছে- “উচ্চ ঝুঁকিপূর্ণ” ও “গুরুতর ঝুঁকিপূর্ণ”। উচ্চ ঝুঁকির এআই সাইবার নিরাপত্তা কিংবা রাসায়নিক ও জৈবিক আক্রমণকে সহজ করতে পারে, তবে তা নির্ভরযোগ্যভাবে কার্যকর হবে না। অন্যদিকে, গুরুতর ঝুঁকিপূর্ণ এআই ব্যবস্থাগুলো “অপরিবর্তনীয় বিপর্যয়” ডেকে আনতে পারে।

মেটা জানিয়েছে, কোনো এআই প্রযুক্তিকে কতটা ঝুঁকিপূর্ণ তা নির্ধারণ করতে নির্দিষ্ট বৈজ্ঞানিক পরীক্ষার ওপর নির্ভর না করে, অভ্যন্তরীণ ও বহিরাগত গবেষকদের মতামত বিবেচনায় নেওয়া হবে। যদি কোনো প্রযুক্তি উচ্চ ঝুঁকিপূর্ণ হয়, তবে সেটি সীমিত পরিসরে ব্যবহৃত হবে এবং ঝুঁকি কমানো পর্যন্ত প্রকাশ করা হবে না। তবে গুরুতর ঝুঁকিপূর্ণ হলে, এর উন্নয়নই বন্ধ করে দেওয়া হবে।

মেটার এই পদক্ষেপ তাদের উন্মুক্ত এআই নীতির সমালোচনার জবাব হিসাবে দেখা হচ্ছে, যেখানে তারা প্রতিদ্বন্দ্বী ওপেনএআই ও চীনা প্রতিষ্ঠান ডিপসিকের তুলনায় তুলনামূলকভাবে বেশি উন্মুক্ত দৃষ্টিভঙ্গি গ্রহণ করেছে।