skip to Main Content
01757-856855, 01521-464854, 01752-684000 contact@pearlit.net Open 7AM - 8PM

অপপ্রয়োগে ভয়ঙ্কর হয়ে উঠতে পারে কৃত্রিম বুদ্ধিমত্তা

অপপ্রয়োগে ভয়ঙ্কর হয়ে উঠতে পারে কৃত্রিম বুদ্ধিমত্তা
অপপ্রয়োগে ভয়ঙ্কর হয়ে উঠতে পারে কৃত্রিম বুদ্ধিমত্তা

সময়ের সাথে সাথে পৃথিবী বদলাচ্ছে। অনেক কিছুই দখল করে নিচ্ছে কৃত্রিম বুদ্ধিমত্তা। ড্রোন পরিণত হতে পারে ক্ষেপণাস্ত্রে, ভুয়া ভিডিও দিয়ে বিভ্রান্ত করা হতে পারে জনমত, হতে পারে হ্যাকিং’র মতো ঘটনাও। এ সবই হতে পারে কৃত্রিম বুদ্ধিমত্তার সাহায্যে, যদি সেটা চলে যায় ভুল জায়গা বা খারাপ মানুষের হাতে। ড্রোন কিম্বা রোবট দিয়ে সুনির্দিষ্ট ব্যক্তি কিম্বা এলাকায় চালানো হতে পারে সন্ত্রাসী হামলা, চালকবিহীন গাড়ি ছিনতাই করে সেটিকে নিক্ষিপ্ত করা হতে পারে দুর্ঘটনায়।

আর্টিফিশিয়াল ইন্টেলিজেন্স বা কৃত্রিম বুদ্ধিমত্তা সংক্ষেপে এআই’র ওপর একটি প্রতিবেদনে এই আশঙ্কা প্রকাশ করছেন আন্তর্জাতিক নিরাপত্তা বিশেষজ্ঞরা। তারা হুঁশিয়ার করে দিয়ে বলছেন, এই প্রযুক্তি যদি ভ্রষ্ট-নীতির কোনো রাষ্ট্র, যারা আন্তর্জাতিক আইন কানুনের তোয়াক্কা করে না, তাদের কাছে কিম্বা অপরাধীসহ সন্ত্রাসীদের হাতে চলে যায় তাহলে তার বড় ধরনের অপব্যবহার হতে পারে। আর একারণে এই কৃত্রিম বুদ্ধিমত্তা যখন তৈরি করা হচ্ছে তখন এর উদ্ভাবকদের একই সাথে এমন জিনিসও তৈরি করতে হবে যাতে এর অপব্যবহার না হয়, আর হলেও সেটা মোকাবিলা করা যায়- বলছেন গবেষকরা।

এই লক্ষ্যে ২৬ জন গবেষকের একটি দল কিছু আইন কানুন তৈরি করার ওপরেও জোর দিচ্ছেন। তারা বলছেন: নীতি-নির্ধারক ও প্রযুক্তিবিদ ও গবেষকদের এক সাথে কাজ করতে হবে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির অপব্যবহার সম্পর্কে ধারণা পেতে এবং সেটা মোকাবিলা করতে। কৃত্রিম বুদ্ধিমত্তার যে শুধু ভালো প্রয়োগ নেই, এটিকে খারাপ কাজেও প্রয়োগ করা হতে পারে, সেটি উপলব্ধি করতে হবে। কম্পিউটার নিরাপত্তার মতো বিষয়, যেখানে ভালো ও খারাপ দুটো দিকই আছে, সেটা থেকে শিক্ষা নিতে হবে। কৃত্রিম বুদ্ধিমত্তার অপব্যবহার বন্ধ ও প্রতিরোধের লক্ষ্যে সব পক্ষকে একসাথে সক্রিয় হতে হবে।

যুক্তরাজ্যে ক্যামব্রিজ বিশ্ববিদ্যালয়ের শাহার আভিন বলেছেন, এই প্রতিবেদনটিতে বর্তমানে যেসব কৃত্রিম বুদ্ধিমত্তার প্রযুক্তি আছে কিম্বা আগামী পাঁচ বছরে আরো যেসব প্রযুক্তি বাজারে আসতে পারে সেগুলোর ঝুঁকি তুলে ধরা হয়েছে। এতে খুব বেশি দূরের ভবিষ্যতের কৃত্রিম বুদ্ধিমত্তার ওপর আলোকপাত করা হয়নি। প্রতিবেদনটিতে বিশেষ করে যে বিষয়ে উদ্বেগ প্রকাশ করা হয়েছে সেটা হলো, কৃত্রিম বুদ্ধিমত্তাকে যখন অতিমানবীয় পর্যায়ে নিয়ে যাওয়া হচ্ছে এবং যেখানে কোনো দিক নির্দেশনা নেই। কৃত্রিম বুদ্ধিমত্তা অদূর ভবিষ্যতে কিভাবে ভয়ঙ্কর হয়ে ওঠতে পারে তার কিছু উদাহরণ তিনি তুলে ধরেছেন- আলফাগোর মতো প্রযুক্তি- গুগল ডিপমাইন্ড কৃত্রিম বুদ্ধিমত্তার এই প্রযুক্তিটি উদ্ভাবন করেছে। এটি এতো চালাক যে মানুষের বুদ্ধিকেও সে পরাস্ত করতে পারে। এই প্রযুক্তি হ্যাকারদের হাতে পড়লে তথ্য চুরি হওয়ার আশঙ্কা রয়েছে। বিদ্বেষপরায়ণ কোনো ব্যক্তি ড্রোন কিনে সেটিকে মানুষের মুখ চেনার জন্যে প্রশিক্ষিত করে তুলতে পারে এবং তারপর কোনো ব্যক্তিকে চিহ্নিত করে তার ওপর আক্রমণ চালাতে। ভুয়া ভিডিও তৈরি করে তার অপব্যবহার হতে পারে। স্পিচ সিনথেসিসের মাধ্যমে হ্যাকাররা অন্যের গলাও নকল করতে পারে।

অক্সফোর্ড বিশ্ববিদ্যালয়ের ফিউচার অফ হিউম্যানিটি ইন্সটিটিউটের মাইলস ব্রান্ডেজ বলেছেন, মানুষের, প্রতিষ্ঠানের ও রাষ্ট্রের নিরাপত্তাহীনতার ঝুঁকির চিত্র বদলে দেবে এই কৃত্রিম বুদ্ধিমত্তা। নিরাপত্তার ব্যাপারে সব ধরনের ঝুঁকিই এখানে আছে।

এআই’র ওপর তৈরি প্রতিবেদনটিতে দেখা হয়েছে আগামী ১০ বছরে পৃথিবীর চেহারা কেমন হতে পারে। এই গবেষণা প্রতিবেদনের লেখকরা বলছেন, কৃত্রিম বুদ্ধিমত্তা সবকিছু বদলে দিচ্ছে। কৃত্রিম বুদ্ধিমত্তার অপব্যবহার দিনে দিনে আরো বেশি ঝুঁকিপূর্ণ হয়ে ওঠতে পারে। ১০০ পাতার এ রিপোর্টে তিনটি এলাকা চিহ্নিত করা হয়েছে- ডিজিটাল, শারীরিক ও রাজনৈতিক – এগুলোতে কৃত্রিম বুদ্ধিমত্তার অপপ্রয়োগ হতে পারে। -সূত্র বিবিসি

Shahadat Hossen

Shahadat Hossen

Hello! I’m Md. Shahadat Hossen. I'm a Journalist, Web Designer, Entrepreneur, Founder at Tech Express & Pearl IT Limited. I started journalism from 2012. In the 2018, started Web Development Company Pearl IT. As a Journalist i Work Bangladeshi popular and oldest online news portal Bangladesherpatro.com. He was worked Dainik Desherpatro, The Dhaka Daily.

This Post Has 0 Comments

Leave a Reply

Your email address will not be published. Required fields are marked *