امریکی محکمہ دفاع پینٹاگون کی جانب سے ایسے مصنوعی ذہانت کے نظام کے حصول کی کوششوں نے نئی بحث چھیڑ دی ہے جو جنگی مقاصد کے لیے اخلاقی پابندیوں سے آزاد ہو۔ ماہرین کے مطابق یہ معاملہ محض ٹیکنالوجی نہیں بلکہ مستقبل کی جنگوں، انسانی ذمہ داری اور عالمی قوانین سے جڑا ایک بنیادی سوال بن چکا ہے۔
یہ بھی پڑھیں:ایران اسرائیل تصادم: دنیا کے سر پر تیسری جنگ عظیم کا خطرہ منڈلا رہا ہے؟
میڈیا رپورٹس کے مطابق امریکی کمپنی Anthropic کے تیار کردہ اے آئی سسٹم ’کلاڈ‘ کو مبینہ طور پر وینزویلا کے صدرنیکولس مادورو کے خلاف آپریشن کی منصوبہ بندی میں استعمال کیا گیا۔ خودکار نظام کا اس نوعیت کی عسکری حکمتِ عملی میں استعمال ہی چونکا دینے والا تھا، تاہم اصل تنازع اس وقت کھڑا ہوا جب کمپنی نے اعتراض اٹھایا کہ اس کا سسٹم جنگ یا اجتماعی نگرانی کے لیے استعمال نہیں کیا جا سکتا۔

کمپنی کا مؤقف ہے کہ اس کے اے آئی ماڈلز میں اخلاقی حدود سافٹ ویئر کی ساخت میں شامل کی گئی ہیں اور انہیں جان بوجھ کر جنگی مقاصد سے دور رکھا گیا ہے۔ دوسری جانب امریکی کے محکمی دفاع کا مؤقف مختلف بتایا جاتا ہے۔ اطلاعات کے مطابق پینٹاگون نے کمپنی کو اعتماد میں لیے بغیر نظام استعمال کیا اور بعد ازاں ایسی ’صاف‘ یا غیر محدود ورژن تک رسائی کا مطالبہ کیا جس میں اخلاقی قدغنیں شامل نہ ہوں۔
کمپنی کے انکار پر امریکی وزیر دفاع Pete Hegseth نے کھلے عام تنقید کرتے ہوئے کہا کہ پینٹاگون کو ایسے نیورل نیٹ ورکس کی ضرورت نہیں جو لڑ نہ سکیں۔ انہوں نے کمپنی کو سپلائی چین کے لیے خطرہ قرار دینے کی دھمکی بھی دی، جس کا مطلب یہ ہوسکتا ہے کہ دفاعی شعبے سے وابستہ دیگر اداروں کو اس سے تعلق ختم کرنا پڑے۔
یہ بھی پڑھیں:روس نے نیٹو ممالک کو یوکرین میں فوجی مداخلت پر ایٹمی جنگ کی دھمکی دے دی
یہ تنازع ایک گہرے فلسفیانہ تصادم کی عکاسی کرتا ہے۔ ایک طبقہ سمجھتا ہے کہ نئی ٹیکنالوجی کو مکمل طور پر بروئے کار لانا چاہیے، چاہے طویل مدتی نتائج کچھ بھی ہوں۔ دوسرا طبقہ خبردار کرتا ہے کہ اگر بعض سرحدیں عبور کر لی گئیں تو کنٹرول دوبارہ حاصل کرنا ممکن نہیں رہے گا۔

ماہرین کی تشویش بے بنیاد نہیں۔ مصنوعی ذہانت کے نظام پہلے ہی متنازع رویے دکھا چکے ہیں۔ مثال کے طور پر اوپن اے آئی کے چیٹ بوٹ، چیٹ جی پی ٹی سے متعلق امریکا میں ایک اسکینڈل سامنے آیا جس میں ایک نوجوان کو خودکشی پر اکسانے کے الزامات لگے۔ اسی طرح کلاڈ کے جدید ورژن کے بارے میں بھی آزمائشی مراحل میں غیر متوقع اور تشویشناک رویوں کی اطلاعات سامنے آئیں۔
ماہرین کا کہنا ہے کہ جیسے جیسے نیورل نیٹ ورکس پیچیدہ ہوتے جا رہے ہیں، ایسے واقعات کی تعداد میں اضافہ ہو رہا ہے۔ اخلاقی پابندیوں کا تصور کسی نظریاتی فیشن کا نتیجہ نہیں بلکہ عملی تجربات کی بنیاد پر سامنے آیا ہے۔

اگر ایسے نظاموں کو مکمل آزادی دے کر خودکار ہتھیاروں، انٹیلی جنس تجزیے یا نگرانی کے نظام میں ضم کر دیا جائے تو اس کے اثرات سنگین ہو سکتے ہیں۔ ذمہ داری کا تعین مشکل ہو جائے گا، پرائیویسی تقریباً ختم ہو سکتی ہے اور جنگی جرائم محض تکنیکی غلطیوں میں بدل سکتے ہیں۔ کسی خودکار مشین کو عدالت میں کھڑا نہیں کیا جا سکتا۔
دلچسپ امر یہ ہے کہ پینٹاگون نے مبینہ طور پر دیگر بڑی ٹیکنالوجی کمپنیوں، جن میں گوگل بھی شامل ہے، سے بھی فوجی استعمال کے لیے پابندیاں نرم کرنے کا مطالبہ کیا ہے۔ بعض کمپنیوں کی آمادگی نے اس بحث کو مزید سنجیدہ بنا دیا ہے۔
یہ بھی پڑھیں:پینٹاگون نے وینزویلا کے صدر مادورو کے خلاف کارروائی میں کس اے آئی ماڈل کی مدد لی؟
تجزیہ کاروں کے مطابق یہ مسئلہ صرف امریکا تک محدود نہیں۔ دیگر ممالک بھی اپنی عسکری حکمتِ عملی میں اے آئی کو شامل کر رہے ہیں۔ ڈرونز میں ہدف شناسی، الیکٹرانک جنگی نظام سے بچاؤ اور اجتماعی حملوں کی ہم آہنگی جیسے شعبوں میں مصنوعی ذہانت کا کردار بڑھ رہا ہے۔ اگرچہ فی الحال انسان کنٹرول میں ہیں، مگر سوال یہ ہے کہ مستقبل میں یہ توازن برقرار رہ پائے گا یا نہیں۔

ماہرین کا کہنا ہے کہ اصل چیلنج ٹیکنالوجی کو رد کرنا نہیں بلکہ اسے واضح اخلاقی اور قانونی حدود کے اندر استعمال کرنا ہے۔ اگر عالمی سطح پر بروقت اصول و ضوابط طے نہ کیے گئے تو ’قاتل اے آئی‘ کا تصور سائنس فکشن سے نکل کر عملی حقیقت بن سکتا ہے۔
یوں یہ معاملہ محض دفاعی خریداری کا نہیں بلکہ انسانی ذمہ داری، عالمی امن اور مستقبل کی جنگوں کے خدوخال کا تعین کرنے والا سنگِ میل ثابت ہو سکتا ہے۔
بشکریہ: رشیا ٹوڈے














