ভিডিও স্ট্রিমিং প্ল্যাটফরম ইউটিউবে আপত্তিকর কমেন্টকারীদের বিরুদ্ধে এবার ব্যবস্থা নেবে প্রতিষ্ঠানটি। কুরুচিকর মন্তব্য করলেই সতর্কবার্তা…
অপপ্রয়োগে ভয়ঙ্কর হয়ে উঠতে পারে কৃত্রিম বুদ্ধিমত্তা
সময়ের সাথে সাথে পৃথিবী বদলাচ্ছে। অনেক কিছুই দখল করে নিচ্ছে কৃত্রিম বুদ্ধিমত্তা। ড্রোন পরিণত হতে পারে ক্ষেপণাস্ত্রে, ভুয়া ভিডিও দিয়ে বিভ্রান্ত করা হতে পারে জনমত, হতে পারে হ্যাকিং’র মতো ঘটনাও। এ সবই হতে পারে কৃত্রিম বুদ্ধিমত্তার সাহায্যে, যদি সেটা চলে যায় ভুল জায়গা বা খারাপ মানুষের হাতে। ড্রোন কিম্বা রোবট দিয়ে সুনির্দিষ্ট ব্যক্তি কিম্বা এলাকায় চালানো হতে পারে সন্ত্রাসী হামলা, চালকবিহীন গাড়ি ছিনতাই করে সেটিকে নিক্ষিপ্ত করা হতে পারে দুর্ঘটনায়।
আর্টিফিশিয়াল ইন্টেলিজেন্স বা কৃত্রিম বুদ্ধিমত্তা সংক্ষেপে এআই’র ওপর একটি প্রতিবেদনে এই আশঙ্কা প্রকাশ করছেন আন্তর্জাতিক নিরাপত্তা বিশেষজ্ঞরা। তারা হুঁশিয়ার করে দিয়ে বলছেন, এই প্রযুক্তি যদি ভ্রষ্ট-নীতির কোনো রাষ্ট্র, যারা আন্তর্জাতিক আইন কানুনের তোয়াক্কা করে না, তাদের কাছে কিম্বা অপরাধীসহ সন্ত্রাসীদের হাতে চলে যায় তাহলে তার বড় ধরনের অপব্যবহার হতে পারে। আর একারণে এই কৃত্রিম বুদ্ধিমত্তা যখন তৈরি করা হচ্ছে তখন এর উদ্ভাবকদের একই সাথে এমন জিনিসও তৈরি করতে হবে যাতে এর অপব্যবহার না হয়, আর হলেও সেটা মোকাবিলা করা যায়- বলছেন গবেষকরা।
এই লক্ষ্যে ২৬ জন গবেষকের একটি দল কিছু আইন কানুন তৈরি করার ওপরেও জোর দিচ্ছেন। তারা বলছেন: নীতি-নির্ধারক ও প্রযুক্তিবিদ ও গবেষকদের এক সাথে কাজ করতে হবে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির অপব্যবহার সম্পর্কে ধারণা পেতে এবং সেটা মোকাবিলা করতে। কৃত্রিম বুদ্ধিমত্তার যে শুধু ভালো প্রয়োগ নেই, এটিকে খারাপ কাজেও প্রয়োগ করা হতে পারে, সেটি উপলব্ধি করতে হবে। কম্পিউটার নিরাপত্তার মতো বিষয়, যেখানে ভালো ও খারাপ দুটো দিকই আছে, সেটা থেকে শিক্ষা নিতে হবে। কৃত্রিম বুদ্ধিমত্তার অপব্যবহার বন্ধ ও প্রতিরোধের লক্ষ্যে সব পক্ষকে একসাথে সক্রিয় হতে হবে।
যুক্তরাজ্যে ক্যামব্রিজ বিশ্ববিদ্যালয়ের শাহার আভিন বলেছেন, এই প্রতিবেদনটিতে বর্তমানে যেসব কৃত্রিম বুদ্ধিমত্তার প্রযুক্তি আছে কিম্বা আগামী পাঁচ বছরে আরো যেসব প্রযুক্তি বাজারে আসতে পারে সেগুলোর ঝুঁকি তুলে ধরা হয়েছে। এতে খুব বেশি দূরের ভবিষ্যতের কৃত্রিম বুদ্ধিমত্তার ওপর আলোকপাত করা হয়নি। প্রতিবেদনটিতে বিশেষ করে যে বিষয়ে উদ্বেগ প্রকাশ করা হয়েছে সেটা হলো, কৃত্রিম বুদ্ধিমত্তাকে যখন অতিমানবীয় পর্যায়ে নিয়ে যাওয়া হচ্ছে এবং যেখানে কোনো দিক নির্দেশনা নেই। কৃত্রিম বুদ্ধিমত্তা অদূর ভবিষ্যতে কিভাবে ভয়ঙ্কর হয়ে ওঠতে পারে তার কিছু উদাহরণ তিনি তুলে ধরেছেন- আলফাগোর মতো প্রযুক্তি- গুগল ডিপমাইন্ড কৃত্রিম বুদ্ধিমত্তার এই প্রযুক্তিটি উদ্ভাবন করেছে। এটি এতো চালাক যে মানুষের বুদ্ধিকেও সে পরাস্ত করতে পারে। এই প্রযুক্তি হ্যাকারদের হাতে পড়লে তথ্য চুরি হওয়ার আশঙ্কা রয়েছে। বিদ্বেষপরায়ণ কোনো ব্যক্তি ড্রোন কিনে সেটিকে মানুষের মুখ চেনার জন্যে প্রশিক্ষিত করে তুলতে পারে এবং তারপর কোনো ব্যক্তিকে চিহ্নিত করে তার ওপর আক্রমণ চালাতে। ভুয়া ভিডিও তৈরি করে তার অপব্যবহার হতে পারে। স্পিচ সিনথেসিসের মাধ্যমে হ্যাকাররা অন্যের গলাও নকল করতে পারে।
অক্সফোর্ড বিশ্ববিদ্যালয়ের ফিউচার অফ হিউম্যানিটি ইন্সটিটিউটের মাইলস ব্রান্ডেজ বলেছেন, মানুষের, প্রতিষ্ঠানের ও রাষ্ট্রের নিরাপত্তাহীনতার ঝুঁকির চিত্র বদলে দেবে এই কৃত্রিম বুদ্ধিমত্তা। নিরাপত্তার ব্যাপারে সব ধরনের ঝুঁকিই এখানে আছে।
এআই’র ওপর তৈরি প্রতিবেদনটিতে দেখা হয়েছে আগামী ১০ বছরে পৃথিবীর চেহারা কেমন হতে পারে। এই গবেষণা প্রতিবেদনের লেখকরা বলছেন, কৃত্রিম বুদ্ধিমত্তা সবকিছু বদলে দিচ্ছে। কৃত্রিম বুদ্ধিমত্তার অপব্যবহার দিনে দিনে আরো বেশি ঝুঁকিপূর্ণ হয়ে ওঠতে পারে। ১০০ পাতার এ রিপোর্টে তিনটি এলাকা চিহ্নিত করা হয়েছে- ডিজিটাল, শারীরিক ও রাজনৈতিক – এগুলোতে কৃত্রিম বুদ্ধিমত্তার অপপ্রয়োগ হতে পারে। -সূত্র বিবিসি
This Post Has 0 Comments