ایسی دنیا اب تصوراتی بات نہیں رہی جہاں الگورتھم ہی فوجیوں اور شہریوں دونوں کی قسمت کا فیصلہ کریں گے۔ مصنوعی ذہانت سے چلنے والے ڈرون جنگ کی شکل تبدیل کر رہے ہیں جس سے کسی لڑائی میں خوداختیاری کے بارے میں کڑے اخلاقی سوالات جنم لے رہے ہیں۔
یہ بھی پڑھیں: مصنوعی ذہانت محنت کشوں کی جان کے لیے بھی خطرہ، مگر کیسے؟
اقوام متحدہ کی ویب سائٹ پر شائع ہونے والی ایک رپورٹ میں کہا گیا ہے کہ عالمی پالیسی ساز جنگ کے اصول و قوانین طے کرنے کی کوششوں میں لگے ہیں اور ایسے میں تیزی سے تبدیل ہوتی اور ترقی پاتی اس ٹیکنالوجی کو قابو میں رکھنے کی کوشش بھی جاری ہے۔
انسان روزانہ خود ہی مشینوں کو اپنے بارے میں اطلاعات مہیا کرتے ہیں۔ یہ اس وقت ہوتا ہے جب ہم آن لائن کوکیز کو قبول کرتے یا کوئی سرچ انجن استعمال کرتے ہیں۔ اس وقت کم ہی لوگ یہ سوچتے ہوں گے کہ ان کے بارے میں معلومات کیسے فروخت ہوتی ہیں اور ہم جس آن لائن پیج کو کھولنا چاہتے ہیں اس پر ’رضامند‘ کے بٹن کو کلک کرنے کے بعد ان معلومات کو ہمیں بطور صارف ہدف بنانے اور کسی ایسی چیز کو خریدنے پر قائل کرنے کے لیے کیسے استعمال کیا جاتا ہے جسے کے بارے میں ہم نہیں جانتے کہ آیا ہمیں اس کی ضرورت ہے یا نہیں۔
یہاں یہ سوال ابھرتا ہے کہ اگر مشینیں ہمارے بارے میں معلومات کو یہ فیصلہ کرنے کے لیے استعمال کریں کہ کسے دشمن کے طور پر نشانہ بنا کر ہلاک کرنے کی ضرورت ہے تو پھر کیا ہو گا؟
اقوام متحدہ اور غیرسرکاری اداروں (این جی اوز) کے ایک گروپ کو یہ تشویش لاحق ہے کہ مستقبل قریب میں واقعتاً ایسا ہو سکتا ہے۔ اسی لیے وہ مہلک خودکار ہتھیاروں (ایل اے ڈبلیو ایس) کے حوالے سے بین الاقوامی ضابطے بنانے کے لیے کہہ رہے ہیں تاکہ مشینوں کو لوگوں کے لیے زندگی اور موت کے انتخاب سے روکا جائے۔
تباہ کن سستے ڈرون
کبھی صرف امیر ترین ممالک کے پاس ہی جدید اور مہنگے ڈرون استعمال کرنے کے لیے درکار وسائل اور ٹیکنالوجی ہوتی تھی لیکن ثابت ہو رہا ہے کہ سستے ڈرون میں بھی چند تبدیلیاں کر کے اسے مہلک ہتھیار میں ڈھالا جا سکتا ہے۔ اب دنیا کے ممالک یہی کچھ کر رہے ہیں اور اس طرح دور حاضر کی جنگیں تبدیل ہو رہی ہیں۔
قاتل روبوٹ
ڈرون اور دیگر خودکار ہتھیاروں سے بطور ’قاتل روبوٹ‘ لاحق خطرات نے دور حاضر کی تباہ کن جنگوں کے حوالے سے ہولناک خدشات میں اضافہ کر دیا ہے۔
اقوام متحدہ کے سیکریٹری جنرل انتونیو گوتیرش نے ہمیشہ کہا ہے کہ مشینوں کو انسانی زندگی لینے کا اختیار دینا اخلاقی اعتبار سے ناقابل قبول ہے۔
مزید پڑھیے: اشتہارات میں بھی انسانوں کی جگہ دلکش و حسین مصنوعی ماڈلز نے لے لی
ادارے میں تخفیف اسلحہ سے متعلق شعبے کی سربراہ ازومی ناکامتسو کا کہنا ہے کہ مشینوں کو جنگی اہداف کا تعین کرنے کی اجازت ہرگز نہیں دی جانی چاہیے بلکہ بین الاقوامی قانون کے تحت اس پر پابندی ہونی چاہیے۔ اقوام متحدہ کا یہی مؤقف ہے۔
مشینوں کی حکومت
بین الاقوامی غیرسرکاری ادارے ہیومن رائٹس واچ نے کہا ہے کہ خودکار ہتھیاروں کا استعمال ’ڈیجیٹل سلبِ انسانیت‘ کی تازہ ترین اور انتہائی سنگین مثال ہو گی جبکہ مصنوعی ذہانت پہلے ہی جرائم کی بیخ کنی، نفاذ قانون اور سرحدی نگرانی و تحفظ کے شعبوں میں ایسے فیصلے کر رہی ہے جو انسانی زندگی پر گہرے اثرات مرتب کرتے ہیں۔
ہیومن رائٹس واچ میں اسلحے کی روک تھام سے متعلق شعبے کی ڈائریکٹر میری وارہیم نے خبردار کیا ہے کہ بہت سے با وسائل ممالک خشکی اور سمندر سے چلائے جانے والے خودکار ہتھیاروں کے نظام تیار کرنے کے لیے مصنوعی ذہانت اور متعلقہ ٹیکنالوجی پر بھاری سرمایہ کاری کر رہے ہیں۔ بنیادی طور پر یہ کام امریکا نے شروع کیا ہے لیکن روس، چین، اسرائیل اور جنوبی کوریا بھی خودکار ہتھیاروں کے نظام پر بھاری وسائل خرچ کرنے میں مصروف ہیں۔
مصنوعی ذہانت کے ذریعے جنگ کے حامی ٹیکنالوجی کے اس خطرناک استعمال کے جواز میں اکثر یہ دلیل دیتے ہیں کہ فوجی دوران جنگ جذبات اور تھکن کے زیراثر ہدف کے چناؤ اور طاقت کے متناسب استعمال کے حوالے سے غلط کر سکتے ہیں جبکہ انہیں اجرت بھی دینی پڑتی ہے۔ اس کے برعکس رویوں اور نقل و حرکت کو پہچاننے کے حوالے سے مشینوں کی صلاحیت روزبروز بہتر ہو رہی ہے۔ ایسے بعض لوگوں کا یہاں تک کہنا ہے کہ فائر کرنے کا فیصلہ بھی مشین کو ہی کرنا چاہیے۔
تاہم مشینوں کو میدان جنگ میں مکمل اختیار دینے میں 2 قباحتیں ہیں۔ پہلی یہ کہ ٹیکنالوجی بھی غلطیاں کر سکتی ہے اور دوسری یہ ہے کہ اقوام متحدہ اور متعدد دیگر ادارے مہلک خودکار ہتھیاروں کے استعمال کو غیراخلاقی سمجھتے ہیں۔
جنگی جرائم کی ذمے داری
میری وارہیم کہتی ہیں، یہ کہنا درست نہیں کہ مشینیں جنگی اہداف کو پہچاننے میں غلطی نہیں کر سکتیں۔ جسمانی معذور افراد کو ان سے خاص طور پر خطرہ ہو سکتا ہے کیونکہ وہ بآسانی حرکت نہیں کر سکتے اور مشین انہیں جنگی ہدف سمجھ سکتی ہے۔ ممکن ہے مصنوعی ذہانت کسی کی وہیل چیئر کو جنگی ہتھیار سمجھ لے۔ چہرہ پہچاننے کی ٹیکنالوجی اور دیگر بائیومیٹرک طریقہ کار بھی مختلف لوگوں کو پہچاننے میں غلط کر سکتے ہیں۔ مصنوعی ذہانت میں ابھی بہت سی خامیاں ہیں جن کے پیچھے اسے ترقی دینے والوں کے تعصبات بھی ہوتے ہیں۔
جنگی نظام میں خودکاری کے حوالے سے نیا قانون بنوانے کے لیے مہم چلانے والے اداروں کے اتحاد ’اسٹاپ کلرز روبوٹس‘ کی ایگزیکٹو ڈائریکٹر نکول وان روجین کا کہنا ہے کہ مشینوں پر جنگی جرائم اور دیگر مظالم کی ذمہ داری بھی عائد نہیں کی جا سکتی۔
جب مصنوعی ذہانت کے ذریعے خودکار طریقے سے ہدف کا تعین کرنے والی کوئی مشین بے گناہ لوگوں کو ہلاک کرے گی تو اس کا ذمے دار کون ہو گا؟ کیا انہیں تیار کرنے والے کو اس کا ذمے دار قرار دیا جائے گا یا ان کے الگورتھم بنانے والے پر یہ ذمہ داری آئے گی؟ اس طرح اخلاقی حوالے سے کئی سوالات ابھرتے ہیں اور ان مشینوں کا بڑے پیمانے پر استعمال اخلاقی ناکامی ہو گا۔
مزید پڑھیں: ‘مصنوعی ذہانت سے خوفناک غربت پیدا ہو سکتی ہے’
رواں مہینے اقوام متحدہ کے ہیڈکوارٹر میں اس مسئلے پر ہونے والی غیررسمی بات چیت میں سیکریٹری جنرل انتونیو گوتیرش نے رکن ممالک پر زور دیا تھا کہ وہ ایسے خودکار ہتھیاروں کا استعمال ممنوع قرار دینے کے لیے آئندہ برس تک ایک معاہدہ طے کریں جس کی پابندی قانوناً لازم ہو۔