1. tanvirinternational2727@gmail.com : NewsDesk :
  2. hrbangladeshbulletin@gmail.com : News Room : News Room
  3. 25.sanowar@gmail.com : Sanowar Hossain : Sanowar Hossain
বৃহস্পতিবার, ২১ নভেম্বর ২০২৪, ০৪:৫৭ অপরাহ্ন
শিরোনাম :
ঢাকা মহানগরে ব্যাটারিচালিত রিকশা বন্ধে হাইকোর্টের নির্দেশ প্রয়োজনীয় কিছু সংস্কার শেষেই দ্রুত সম্ভব নির্বাচন সংঘটিত হবে-আইন উপদেষ্টা টাঙ্গাইলে বাস-পিকআপ সংঘর্ষে নিহত ৪ আজও তিতুমীর কলেজে শিক্ষার্থীদের  সড়ক ও রেলপথ অবরোধের ঘোষণা সাবেক খাদ্যমন্ত্রী কামরুলের ৮ দিনের রিমান্ড মঞ্জুর রাজধানির সড়কে মাওলানা সাদ পন্থীদের অবস্থান অন্তর্বর্তী সরকার নির্বাচিত নয়,তাদের ম্যান্ডেট নেই-বিএনপি মহাসচিব নিজেকে বদলানোর কোনো ইচ্ছে নেই-প্রধান উপদেষ্টা ভারতীয় চ্যানেল ‘রিপাবলিক বাংলা’র বিরুদ্ধে হাইকোর্টে রিট দায়ের স্ট্যামফোর্ড বিশ্ববিদ্যালয়ে ৮৩তম ব্যাচের ওরিয়েন্টশন অনুষ্ঠিত

বিশ্বজুড়ে আর্থিক বিপর্যয় ডেকে আনতে পারে এআই, হারারির সতর্কবার্তা

  • সময় : সোমবার, ১৩ নভেম্বর, ২০২৩
  • ১৬১
ইতিহাসবিদ ইউভাল নোয়া হারারি।
ইতিহাসবিদ ইউভাল নোয়া হারারি।

নিজস্ব প্রতিবেদক-

কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি বিপর্যয়কর আর্থিক সংকট সৃষ্টি করতে পারে বলে সতর্ক করেছেন ইতিহাসবিদ ইউভাল নোয়া হারারি। স্যাপিয়েন্স নামে সুপরিচিত বইয়ের লেখক হারারি গার্ডিয়ানের এক প্রতিবেদনে এআই-সৃষ্ট সম্ভাব্য সমস্যা নিয়ে উদ্বেগ প্রকাশ করেন। তাঁর মতে, এআই-সৃষ্ট বিপদের ধরন নিয়ে পূর্বাভাস দেওয়া কঠিন।

পারমাণু অস্ত্রের উদাহরণ দিয়ে হারারি বলেন, পরমাণু অস্ত্রের ক্ষেত্রে শুধু একটি বিপদের আশঙ্কা করা যায়। কিন্তু এআইয়ের ক্ষেত্রে ব্যাপকসংখ্যক বিপদের আশঙ্কা থাকে। কোন কোন ক্ষেত্রে এআই বিপদ তৈরি করবে, তা আগে থেকে অনুমান করা সম্ভব নয়। এই ধরনের বিপদ মানবসভ্যতাকে হুমকিতে ফেলতে পারে।

মানব ইতিহাসে পূর্ববর্তী প্রযুক্তির থেকে আলাদা এআই। কারণ, এটিই প্রথম প্রযুক্তি, যা নিজেই সিদ্ধান্ত নিতে পারে, নতুন ধারণা তৈরি করে এবং নিজের বিকাশও করতে পারে। তাই নানা বিশ্লেষক, এমনকি এই প্রযুক্তি উদ্ভাবকদের জন্যও এআইভিত্তিক সম্ভাব্য বিপদ ও সমস্যার পূর্বাভাস দেওয়া অত্যন্ত কঠিন।

হারারির মতে, আর্থিক সেক্টর কৃত্রিম বুদ্ধিমত্তার মডেলগুলোর জন্য আদর্শ ক্ষেত্র। কারণ, এ ক্ষেত্রে শুধু ডেটা নিয়ে কাজ করতে হয়। তবে এআইকে এই সেক্টরে আরও ক্ষমতা দেওয়া হলে বিপদের শঙ্কা বাড়বে। এআই এমন আর্থিক ডিভাইস তৈরি করতে পারে, যা মানুষের বোঝার ক্ষমতার বাইরে। যেমন ২০০৭ থেকে ২০০৮ সালের আর্থিক সংকট কীভাবে তৈরি হয়, তা খুব কম লোকই বুঝতে পেরেছিল।

আর্থিক ব্যবস্থা নিয়ন্ত্রণ ও কারসাজির বিষয়ে গত মাসে এআই মডেল নিয়ে উদ্বেগ প্রকাশ করে যুক্তরাজ্য সরকার। তবে হারারি বলেছেন, এআই সৃষ্ট আর্থিক সংকট ‘অন্তত সরাসরি’ মানবসভ্যতাকে ধ্বংস করবে না। এটি পরোক্ষভাবে নির্দিষ্ট ধরনের যুদ্ধ বা সংঘাতের সূত্রপাত করতে পারে। অর্থনৈতিক, সামাজিক, রাজনৈতিক বিপর্যয়কর ঝুঁকি তৈরি করতে পারে এই প্রযুক্তি।

এআই প্রযুক্তি জৈব অস্ত্র তৈরিতেও সহায়তা করতে পারে। এই ধরনের বিভিন্ন বিপজ্জনক সমস্যা তৈরিতে সাহায্য করতে পারে এআই।

স্যাপিয়েন্সের লেখক সব সময় এই প্রযুক্তির বিকাশ নিয়ে উদ্বেগ প্রকাশ করেছেন। হারারি বলেন, এআই মডেলের পরীক্ষা-নিরীক্ষার মাধ্যমে এই প্রযুক্তিসৃষ্ট সমস্যার পূর্বাভাস পাওয়া যাবে।

গত সপ্তাহে ব্লেচলি পার্কে অনুষ্ঠিত এআই সুরক্ষা সম্মেলনের বহুপক্ষীয় ঘোষণাকে ‘অত্যন্ত গুরুত্বপূর্ণ পদক্ষেপ’ বলে তিনি মনে করেন। শীর্ষ দেশগুলো এই প্রযুক্তি নিয়ে উদ্বেগ প্রকাশ করেছে এবং এই বিষয়ে পদক্ষেপ গ্রহণের জন্য একমত পোষণ করেছে।

চীন ছাড়া যুক্তরাজ্য, যুক্তরাষ্ট্রসহ ১০টি সরকারের মধ্যে এই সম্মেলনে চুক্তি স্বাক্ষর হয়। এ ঘটনাকে ইতিবাচক পদক্ষেপ হিসেবে মনে করেন হারারি। বৈশ্বিক সহযোগিতা ছাড়া এআই প্রযুক্তিকে নিয়ন্ত্রণ করা অত্যন্ত কঠিন হবে। এআই মডেলের নিরাপত্তায় বিভিন্ন পরীক্ষা-নিরীক্ষা করার জন্য সমর্থন দেবে ওপেনএআই, গুগলসহ বিভিন্ন এআইভিত্তিক কোম্পানি।

উন্নত এআই বিকাশে ছয় মাসের বিরতির আহ্বান জানান ইসরায়েলি এই লেখক। বিভিন্ন ক্ষতির জন্য কৃত্রিম বুদ্ধিমত্তাভিত্তিক কোম্পানিগুলোকে দায়ী করেন হারারি। তিনি বলেন, শুধু আইন বা নিয়ম তৈরির ওপর জোর না দিয়ে এ ধরনের কোম্পানি নিয়ে নিয়ন্ত্রকদের যথেষ্ট জ্ঞান অর্জন করা উচিত। এর ফলে নতুন কোনো বিপদ আসার সঙ্গে সঙ্গে দ্রুত ব্যবস্থা নেওয়া যাবে।

তিনি আরও বলেন, ‘যত দ্রুত সম্ভব শক্তিশালী নিয়ন্ত্রক প্রতিষ্ঠান তৈরি করতে হবে, যেগুলো আসন্ন বিপদ চিহ্নিত করতে ও প্রতিক্রিয়া জানাতে পারবে। কারণ, তাদের এই বোঝার ওপর ভিত্তি করে বিপদ ও সমস্যা সম্পর্কে ভবিষ্যদ্বাণী করা যাবে এবং আগে থেকে আইন প্রণয়ন করা যাবে।’

হারারি বলেন, সতর্কতামূলক ব্যবস্থার অংশ হিসেবে এআই সুরক্ষা প্রতিষ্ঠানগুলোতে এমন বিশেষজ্ঞ নিয়োগ করা উচিত, যাঁরা আর্থিক খাতে এআইয়ের সম্ভাব্য প্রভাব বোঝেন।

গত মাসে ‘ইউকে এআই সেফটি ইনস্টিটিউট’ প্রতিষ্ঠার ঘোষণা দেন ঋষি সুনাক। এরপর অনুরূপ একটি সংস্থা প্রতিষ্ঠার পরিকল্পনা ঘোষণা করে হোয়াইট হাউস। এই দুটি সংস্থা উন্নত এআই মডেলের পরীক্ষা-নিরীক্ষায় মূল ভূমিকা পালন করবে বলে আশা করা হচ্ছে।

সুনাক বলেছেন, এই ধরনের বিপদ মোকাবিলা করার জন্য আইন প্রবর্তনের আগে যুক্তরাজ্যকে উন্নত মডেলগুলোর ক্ষমতা বুঝতে হবে।

সংবাদটি শেয়ার করুন

এই বিভাগের অন্যান্য খবর
©বাংলাদেশবুলেটিন২৪