ঢাকা - আগস্ট ২১, ২০১৯ : ৫ ভাদ্র, ১৪২৬

বন্ধ হোক বুদ্ধিযুক্ত সমরাস্ত্র নির্মাণ

নিউজ ডেস্ক
মে ২০, ২০১৯ ১৯:৪৯
১৪৫ বার পঠিত

আনিসুর রহমান এরশাদ

ঘাতক রোবট হচ্ছে সম্পূর্ণভাবে স্বচালিত একটি অস্ত্র, যা মানুষের হস্তক্ষেপ ছাড়াই নির্দিষ্ট লক্ষ্যকে বাছাই করতে পারে এবং লক্ষ্যবস্তুতে হামলা চালাতে পারে। গত কয়েক বছরে বুদ্ধিযুক্ত সমরাস্ত্র তৈরিতে যথেষ্ট অগ্রগতি হয়েছে। স্বয়ংক্রিয় অস্ত্রকে আধুনিক যুদ্ধের পরিস্থিতির উপযুক্ত করে তোলা হয়েছে, স্বয়ংক্রিয় আগ্নেয়াস্ত্রের ক্ষমতাকে সংরক্ষণ করার সামর্থ্য বেড়েছে।
স্বচালিত অস্ত্র সমরাস্ত্রের তৃতীয় প্রজন্ম। অস্ত্রের ক্ষেত্রে এক নতুন বৈপ্লবিক ধারণা। এই অস্ত্র নিয়ে এখন নানা আশঙ্কা সৃষ্টি হয়েছে। যেমন- ১. বুদ্ধিযুক্ত সমরাস্ত্র সন্ত্রাসের অস্ত্র হয়ে উঠতে পারে। ২. স্বৈরাচারী-অত্যাচারী শাসক ও সন্ত্রাসবাদী গোষ্ঠীগুলো এসব অস্ত্র নিরপরাধ-নিরীহ জনগণের বিরুদ্ধে ব্যবহার করতে পারে। ৩. হ্যাকাররা বুদ্ধিযুক্ত সমরাস্ত্র হ্যাক করে সেগুলো দিয়ে অপ্রীতিকর ঘটনা ঘটাতে পারে, অনাকাঙ্ক্ষিত উপায়ে ব্যবহার করতে পারে।

যেকোনো ধরনের অস্ত্রে বা অস্ত্র ব্যবস্থাপনায় কৃত্রিম বুদ্ধিমত্তার সংযুক্তি অস্ত্র ব্যবহারের ক্ষেত্রে মানুষের নিয়ন্ত্রণের বাইরে যেতে পারে। একটা সময়ে মানুষের বিপক্ষে অবস্থান গ্রহণে সক্ষম হতে পারে; ফলে স্বচালিত অস্ত্রের ঝুঁকি মারাত্মক। স্বয়ংক্রিয় রোবটকে যুদ্ধে মোতায়েনের মানে- যুদ্ধ হবে পুরোপুরি স্বয়ংক্রিয় যুদ্ধ। স্বয়ংক্রিয় অস্ত্রের ধারণক্ষমতা প্রথাগত অস্ত্রের তুলনায় অনেক গুণ বেশি, ক্ষিপ্রতাও বেশি, সহজে বেশি হতাহত করতেও সক্ষম। রোবটিক্স প্রযুক্তির ভয়াবহতা এতটাই বেশি যে,‘খুনি রোবট’ যুদ্ধযাত্রার বিকাশ ঘটলে নিরাপত্তাজনিত ব্যবস্থা শেষ হয়ে যাবে, নতুন অস্ত্র প্রতিযোগিতা শুরু হবে, এর অপব্যবহারে বেসামরিক নাগরিকেরা ক্ষতিগ্রস্ত হবে।

একবার স্বচালিত সমরাস্ত্রের পথে গেলে, সেখান থেকে আবার ফেরা কঠিন হবে। তাই সমরাস্ত্র খাতে কৃত্রিম বুদ্ধিমত্তার ব্যবহারের ধারণাটি অত্যন্ত বাজে এবং সব ধরনের স্বচালিত অস্ত্র তৈরির ওপর নিষেধাজ্ঞা জারির মাধ্যমেই এই ধারণাকে প্রতিহত করা সম্ভব। কৃত্রিম বুদ্ধিমত্তায় তৈরি ‘ঘাতক রোবট’, ‘খুনি রোবট’, ‘রোবট সৈন্য’, ‘কিলার রোবট’, ‘হত্যাকারী রোবট’, ‘অস্ত্রঘাতক’, ‘অস্ত্র পরিচালনাকারী রোবট’-এর উদ্ভাবন-উৎপাদন-ব্যবহার তথা অটোনোমাস উয়েপন্স সিস্টেমকে আইনগতভাবে নিষিদ্ধের ব্যাপারে কার্যকর ব্যবস্থা গ্রহণে বারবার আহ্বান জানিয়েছেন রোবটিক্স এবং আর্টিফিসিয়াল ইন্টেলিজেন্স-এআই তথা কৃত্রিম বুদ্ধিমত্তাবিষয়ক বিশেষজ্ঞরা। তারা লিথাল অটোনোমাস উয়েপন্স সিস্টেম-লজ বা প্রাণঘাতী স্বয়ংক্রিয় অস্ত্রপদ্ধতি ব্যবহারের নৈতিকতা নিয়ে প্রশ্ন তুলেছেন এবং স্বয়ংক্রিয় অস্ত্রের ভয়াবহ বিপদ সম্পর্কে সাবধান করে দিয়েছেন।

ইউএন কনভেনশন অন সার্টেন কনভেনশনাল উয়েপন্সের (সিসিডব্লিউ) জন্য সুপারিশমালায় রোবট অস্ত্র নিয়ন্ত্রণ, রোবটের উন্নয়ন কার্যক্রমের বিরুদ্ধে ব্যবস্থা গ্রহণ এবং ব্যবহার বন্ধের কথা এসেছে। বিশ্বখ্যাত পদার্থবিদ স্টিফেন হকিং বলেছেন,‘এআই বা কৃত্রিম বুদ্ধি চিরকালের সবচেয়ে বড় ভ্রম। কৃত্রিম বুদ্ধিমত্তা আগামীর জন্য হবে ভয়াবহ।’ মার্কিন প্রতিষ্ঠান টেসলার সিইও অ্যালোন মাস্ক আর্টিফিসিয়াল ইন্টেলিজেন্সকে মানব অস্তিত্বের জন্য সবচেয়ে বড় হুমকি বলে বর্ণনা করেছেন।

এআই হচ্ছে স্বয়ং চিন্তা করতে ও সিদ্ধান্ত নিতে সক্ষম যন্ত্র। স্বশাসিত বা স্বচালিত সমরাস্ত্রের বিকাশে কাজ করে রোবটিক্স বা রোবট নির্মাণপ্রযুক্তি। সামরিক অভিযানে ব্যাপক হারে ব্যবহৃত ড্রোনকেও অনেকে রোবটের আওতায় ধরেন। কিলার রোবটকে সামরিক ভাষায় বলা হয় লিথাল অটোনোমাস উয়েপনস (এলএডাব্লিউএস) বা স্বয়ংক্রিয় প্রাণঘাতী অস্ত্র। যেসব স্বয়ংক্রিয় অস্ত্র মানুষ হত্যা করে, সেগুলোকে যুক্তরাষ্ট্র বলে প্রিডেটর-রিপার, যুক্তরাজ্য বলে তারামাস বা গড অব থান্ডার। লকহিড মার্টিন কোম্পানি ড্রোন ক্ষেপণাস্ত্রকে বলে দ্য টার্মিনেটর। যুক্তরাষ্ট্রের রয়েছে- স্বয়ংক্রিয়ভাবে উড়তে এবং রণতরীতে অবতরণে সক্ষম এক্স ফরটি সেভেন বি, সাড়ে সাত টন ওজনের ট্রাক ও স্বয়ংক্রিয় ডুবোজাহাজ। এ ধরনের অস্ত্র উদ্ভাবনে ব্যাপক গবেষণা করছে- যুক্তরাজ্য, ইসরাইল, রাশিয়া, চীন, তাইওয়ান এবং দক্ষিণ কোরিয়া। অবশ্য কোনো দেশের সরকার বা সামরিক বাহিনী এখন পর্যন্ত পুরোপুরি স্বয়ংক্রিয় অস্ত্রশস্ত্র মোতায়েন করেনি। তবু বৈশ্বিক প্রতিরাব্যবস্থার বড় একটি অংশ ইতোমধ্যে আংশিকভাবে স্বয়ংক্রিয় হয়ে গেছে। এ ক্ষেত্রে টার্গেট নির্ধারণ, হামলা চালাতে ব্যবহৃত হচ্ছে মানুষ ও কম্পিউটারচালিত পদ্ধতির যৌথ ব্যবস্থাপনা।

স্বয়ংক্রিয়ভাবে লক্ষ্য নির্ধারণের প্রযুক্তিতে অটোমেটিক টার্গেট রিকগনিশন করে একটি যন্ত্র। সেন্সর বা ক্যামেরা তথ্য পাঠাচ্ছে একটি যন্ত্রে এবং সেখানে তথ্যগুলোর সঙ্কলন এবং বিশ্লেষণের প্রক্রিয়াটি সম্পন্ন হচ্ছে। এসব প্রযুক্তি মরুভূমির মতো ছিমছাম একটা জায়গায় ট্যাংকের মতো বস্তু অথবা সাগরে একটি জাহাজকে চিহ্নিত করতে পারছে। তবে খুবই জটলাময় পরিবেশে একটি স্কুলবাস বা ট্রাক আর ট্যাংকের পার্থক্য বুঝতে পারছে না, একজন শিশু এবং একজন অস্ত্রধারী সৈন্যের মধ্যে কোনো তফাত করতে পারছে না। ফলে অত্যন্ত আতঙ্কজনক এক বিশ্বের দিকে আমরা এগিয়ে যাচ্ছি। ডেনমার্কের একটি জেলখানায় বাইরে থেকে ড্রোন ব্যবহার করে এক বন্দীকে সেলফোন ও অস্ত্র সরবরাহ করার ঘটনা ঘটেছে। ফলে দূর নিয়ন্ত্রিত বা স্বয়ংচালিত আকাশযান ড্রোন নিয়ে নিরাপত্তা ঝুঁকির বিষয়টিও সামনে এসেছে। অনেক দেশেই ড্রোন লাইসেন্স নেয়া বাধ্যতামূলক করা হয়েছে।

এমন পরিস্থিতিতে যুদ্ধে ঘাতক রোবট ব্যবহারের নৈতিকতা নিয়ে প্রশ্ন ওঠাই স্বাভাবিক। কারণ ঘাতক রোবটের হাতে অস্ত্র তুলে দিয়ে সামরিক সদস্যরা সম্মুখ সমরের প্রাণহানি বা ক্ষতি এড়াতে পারলেও মানবজাতি হুমকির মুখে পড়বে। কিলার রোবটকে কিছু নির্দেশনা দিয়ে শত্রুস্থাপনায় ছেড়ে দিলেও নিশ্চিন্ত থাকা যাবে না। কারণ স্বয়ংক্রিয় অস্ত্র কিলার রোবট কোনো শত্রুকে হত্যা করবে কি না নিজেই সে সিদ্ধান্ত নিতে পারবে। লড়াইয়ে বা যুদ্ধক্ষেত্রে এই স্বয়ংক্রিয় যন্ত্রটি কিভাবে নিজেই হত্যার মতো সিদ্ধান্ত নেবে বা কিভাবে সামরিক ও বেসামরিক লক্ষ্য চিনবে তা পরিষ্কার নয়। কিলার রোবট ব্যাপক হত্যাযজ্ঞ বা গণহত্যার মতো কোনো ঘটনা ঘটিয়ে ফেললে তার দায়িত্ব কে নেবে? নৈতিক ও সামাজিক ক্ষেত্রে এলএডব্লিউএস বা স্বয়ংক্রিয় প্রাণঘাতী অস্ত্র রোবটের প্রভাব মোটেই ইতিবাচক হবে না। আমরা জানি, মানুষকে অন্ধ করার ক্ষমতাসম্পন্ন লেজার অস্ত্র উন্নত করা নিষিদ্ধ করা হয়েছিল ১৯৯৫ সালে জাতিসঙ্ঘের অস্ত্রবিষয়ক কনভেশনে। এখন নতুন আন্তর্জাতিক আইনের মাধ্যমে কিলার রোবটের ব্যবহার নিষিদ্ধ চাওয়াটা তাই মোটেই নতুন ধরনের ঘটনা নয়।

এ ধরনের এলএডব্লিউএস বা কিলার রোবট তৈরি, সামরিক বাহিনীতে সরবরাহ ও তা দিয়ে সামরিক অভিযান পরিচালনা করা হলে, মানবাধিকার বিপন্ন হবে, জবাবদিহিতা না থাকায় অপব্যবহার বাড়বে, ভবিষ্যৎ অপরাধ রোধের পথ বন্ধ হবে, হামলার শিকার ব্যক্তিরাও পাবে না কোনো ক্ষতিপূরণ, দায়ীদের জন্য সামাজিক নিন্দার পথ রুদ্ধ হবে, আন্তর্জাতিক রাজনৈতিক অঙ্গনে বিশাল প্রভাব ফেলবে। বিপজ্জনক এলাকায় কোনো মানুষের সাহায্য ছাড়াই এসব যন্ত্র যেভাবে লক্ষ্য নির্ধারণ ও হামলা করতে সমর্থ হচ্ছে তাতে তারা হয়তো রিমোট-কন্ট্রোলড ড্রোনকেও পেছনে ফেলবে। এই স্বয়ংক্রিয় যোদ্ধার অপরাধ ও বেআইনি কাজ করার শক্তি রয়েছে কিন্তু সেজন্য কাউকে দায়ী করা যাবে না। অনেক সময় এমন হতে পারে যে রোবটের কমান্ডার জানেন যে, এটি বেআইনি কাজ করবে এবং যদি যোগাযোগব্যবস্থা বিকল হয়ে তাহলে সে এটিকে রুখতে পারবে না। ফলে রোবট সৈন্য যুদ্ধাপরাধ সংঘটিত করলেও তার কমান্ডারের বিচারকে ফাঁকি দিতে সফটওয়্যারের কিংবা নির্মাণপদ্ধতির দোহাই দিয়ে পার পেয়ে যাবে। কৃত্রিম বুদ্ধি সম্পন্ন দ্রুতগামী রোবট জননিরাপত্তার অনেক বিপদই ঘটাতে পারে; তন্মধ্যে যাদের খালি চোখে দেখা যায় না, দেখতে স্ট্রোব লাইট লাগে সেগুলো খুবই ভয়ঙ্কর।

যুদ্ধক্ষেত্রে কোনো সৈনিক যদি ইচ্ছাকৃতভাবে তার রোবট সেনাকে নির্দেশ দিয়ে কোনো হত্যাকাণ্ড ঘটায় তাহলে তার দায়ভার সেই সৈনিককেই বহন করতে হবে। কিন্তু কোনো মানুষের সংশ্লিষ্টতা ছাড়াই কোনো রোবট সৈনিক যদি একাকী একই কাজ করে তাহলে তার দায়িত্ব সে নেবে না। এ কারণে কাউকে বিচারের সম্মুখীন করা সম্ভব হবে না। ফলে এসব নতুন ধরনের বিপদ এড়াতে বিশ্বের শান্তিপ্রিয় মানুষ চায়, অস্ত্রশস্ত্র পরিচালনায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার বন্ধ হোক, দ্রুততার সাথে সম্পূর্ণভাবে সশস্ত্র স্বয়ংক্রিয় যোদ্ধা বা রোবট সৈন্য নির্মাণ পুরোপুরি নিষিদ্ধ করা হোক।



মন্তব্য