اوپن اے آئی نے اینثریپک کو حکومت کی طرف سے ڈراپ کرنے کے گھنٹوں بعد پینٹاگون کے اے آئی معاہدے کو حاصل کر لیا

iconCryptoBreaking
بانٹیں
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconخلاصہ

expand icon
اوپن اے آئی نے سیم الٹمن کے جمعہ کے ایک ایکس پوسٹ کے مطابق، اپنے اے آئی ماڈلز فوجی طبقہ بند نیٹ ورک پر ڈپلوی کرنے کے لیے پینٹاگون کے ساتھ معاہدہ کر لیا ہے۔ اینتھروپک کو وائٹ ہاؤس نے سی ایف ٹی اور گھریلو نگرانی پر پابندیوں کے دعوے کے بعد منقطع کر دیا تھا۔ اوپن اے آئی کا معاہدہ بڑے پیمانے پر نگرانی کو منع کرتا ہے اور فوجی فیصلوں میں انسانی نگرانی کو ضروری قرار دیتا ہے۔ رکھنے والے اثاثوں نے اس کے جواب میں تیزی سے اضافہ کیا، جس سے اے آئی کی قیادت والے دفاعی شراکت داروں میں نئی عزم کا اظہار ہوا۔ پینٹاگون نے جولائی میں اینتھروپک کے ساتھ 200 ملین ڈالر کا معاہدہ کر چکا تھا۔ یہ تبدیلی قومی تحفظ کے عہدوں میں محفوظ اے آئی اندراج کی طرف اشارہ کرتی ہے۔
Openai Wins Defense Contract Hours After Govt Ditches Anthropic

اوپن اے آئی نے پینٹاگون کے طبقہ بند نیٹ ورک پر اپنے اے آئی ماڈلز چلانے کے لیے ایک معاہدہ حاصل کر لیا ہے، جس کا اعلان اوپن اے آئی کے سی ای او سیم الٹمن نے ایک جمعہ کی رات کو ایکس پر پوسٹ کیا۔ یہ معاہدہ اگلی نسل کے اے آئی کو حساس فوجی بنیادوں میں شامل کرنے کی طرف ایک رسمی قدم ہے، جسے محفوظ اور حکمرانی کے ضمانتوں کے ساتھ پیش کیا گیا ہے جو کمپنی کی عملی حدود کے مطابق ہیں۔ الٹمن کے پیغام میں محکمہ کے نقطہ نظر کو اس طرح بیان کیا گیا کہ وہ محفوظ رہنمائیوں کا احترام کرتا ہے اور کمپنی کی حدود کے اندر کام کرنے کو تیار ہے، جس سے شہری استعمال سے طبقہ بند ماحول تک ایک منظم راستہ واضح ہوتا ہے۔ اس وقت کا تعین اوپن اے آئی کو اس بڑے بحث کا مرکز بناتا ہے کہ عوامی ادارے فوجی تناظر میں شہری آزادیوں یا عملی محفوظیت کو خطرے میں ڈالے بغیر مصنوعی ذکاوت کو کس طرح استعمال کرنا چاہئیں۔

یہ خبر اس وقت آ رہی ہے جب وائٹ ہاؤس فیڈرل ایجنسیز کو اینتھروپک کی ٹیکنالوجی کے استعمال کو روکنے کی ہدایت کر رہا ہے، جس سے ایجنسیز جو پہلے سے اس کے سسٹمز پر منحصر ہیں، ان کے لیے چھ ماہ کا انتقال شروع ہو جاتا ہے۔ یہ پالیسی حکومت کے ارادے کو ظاہر کرتی ہے کہ وہ حکومت بھر میں استعمال ہونے والے AI ٹولز پر نگرانی کو مضبوط بنانا چاہتی ہے، جبکہ احتیاط سے منصوبہ بند اور محفوظ تنصیبات کے لیے جگہ بھی چھوڑتی ہے۔ پینٹاگون کی حمایت یافتہ اندراج اور ایک مخالف پلیٹ فارم پر ملک بھر میں روک کے درمیان کا تضاد حساس شعبوں میں AI ٹیکنالوجیز کو کس طرح، کہاں، اور کن تحفظات کے تحت استعمال کیا جانا چاہیے، اس بارے میں حکومت بھر میں ایک جائزہ لینے کا اظہار کرتا ہے۔

الٹمن کے تبصرے نے قومی تحفظ کے заعیموں کے لیے احتیاطی مگر مثبت موقف پر زور دیا۔ انہوں نے OpenAI کے معاہدے کو ایک ایسا نظام قرار دیا جو محفوظ رہنے پر زور دیتا ہے جبکہ طاقتور صلاحیتوں تک رسائی کو بھی ممکن بناتا ہے، جس کا تصور حکومتی نیٹ ورکس میں ذمہ دارانہ AI استعمال کے بارے میں جاری بحثوں کے ساتھ ملتا جلتا ہے۔ دفاعی محکمہ کا طریقہ کار — جو کنٹرول شدہ رسائی اور سخت حکومتی نظام کو ترجیح دیتا ہے — ایک وسیع پالیسی رجحان کو ظاہر کرتا ہے جس کا مقصد ایسے ڈپلومنٹس میں عملی محفوظیت کو شامل کرنا ہے جو ورنہ اس بات کو تیز کر سکتے ہیں کہ AI اہم فیصلوں کو کہاں اور کس طرح متاثر کرتا ہے۔ دونوں طرف سے عام طور پر دی گئی سگنلنگ ایک ایسا ماڈل ظاہر کرتی ہے جس میں دفاعی اداروں کے ساتھ تعاون سخت انطباق کے فریم ورکس کے تحت ہوتا ہے، عام، بے فلٹر استعمال کے بجائے۔

اس قانونی اور سیاسی پس منظر کے تحت، اینتھرپک کی صورتحال اب بھی ایک مرکزی نکتہ ہے۔ کمپنی نے جولائی میں دستخط کیے گئے 200 ملین ڈالر کے معاہدے کے تحت پینٹاگون کے طبقہ بند ماحول میں ماڈلز کو تنصیب کرنے والی پہلی AI لیب تھی۔ رپورٹس کے مطابق، جب اینتھرپک نے یہ یقین دلایا کہ ان کا سافٹ ویئر خودمختار ہتھیاروں یا گھریلو بڑے پیمانے پر نگرانی کے لیے استعمال نہ ہو، تو مذاکرات ختم ہو گئے۔ دفاعی محکمہ، دوسری طرف، پرزور تھا کہ یہ ٹیکنالوجی تمام قانونی فوجی مقاصد کے لیے دستیاب رہے، ایک موقف جو دفاعی ضروریات کے لیے لچک برقرار رکھنے کے ساتھ ساتھ تحفظات بھی برقرار رکھتا ہے۔ یہ فرق اعلیٰ صلاحیتوں کو فروغ دینے اور اس قسم کے راستوں کو نافذ کرنے کے درمیان نازک توازن کو ظاہر کرتا ہے جو قومی حفاظت اور شہری آزادیوں کے خیالات کے ساتھ مطابقت رکھتے ہوں۔

اینٹروپک نے بعد میں کہا کہ وہ اس تقرر کو "گہری طرح دکھی" سمجھتی ہے اور عدالت میں اس فیصلے کو چیلنج کرنے کا ارادہ ظاہر کیا۔ اگر یہ اقدام برقرار رکھا گیا، تو امریکی ٹیکنالوجی فرموں کے لیے حکومتی اداروں کے ساتھ مذاکرات کے طریقے پر ایک اہم روایت قائم کر سکتا ہے جبکہ AI شراکت داریوں پر سیاسی نگرانی مزید تیز ہو رہی ہے۔ اپنے حصے پر، اوپنای آئی نے ظاہر کیا ہے کہ وہ مماثل پابندیوں کو برقرار رکھتی ہے اور انہیں اپنے معاہدے کے فریم ورک میں شامل کر چکی ہے۔ الٹمن نے نوٹ کیا کہ اوپنای آئی گھریلو بڑے پیمانے پر نگرانی کو منع کرتی ہے اور فورس کے استعمال، بشمول خودکار ہتھیاروں کے نظاموں، میں فیصلوں میں انسانی ذمہ داری کا مطالبہ کرتی ہے۔ ان پربندیوں کا مقصد حساس آپریشنز میں ذمہ دارانہ AI استعمال کے لیے حکومت کی توقعات کے ساتھ مطابقت رکھنا ہے، جبکہ فوج AI ٹولز کو اپنے عمل میں مزید گہرا جانچنے پر غور کر رہی ہے۔

ترقیات کے بارے میں عوامی رد عمل متنوع رہا ہے۔ سوشل پلیٹ فارمز پر کچھ مشاہدین AI حکومتی نظام کے رجحان اور نوآوری پر اس کے اثرات پر سوال اٹھائے ہیں۔ اس بحث میں ایسے وسیع فکری خدشات شامل ہیں جو محفوظیت اور شہری آزادیوں کو حکومتی اور دفاعی تناظر میں AI کی تیز رفتار اور بڑے پیمانے پر تنصیب کے ساتھ کیسے ملایا جا سکتا ہے، اس بات سے متعلق ہیں۔ تاہم، بنیادی نتیجہ واضح ہے: حکومت قومی سلامتی کے شعبوں میں AI کے ساتھ فعال طور پر تجربہ کر رہی ہے، جبکہ غلط استعمال کو روکنے کے لیے رکاوٹیں بھی لگا رہی ہے، جن کے نتائج ٹیکنالوجی سیکٹر کے ذریعے مستقبل کی خریداری اور تعاون کو شکل دینے والے ہوں گے۔

الٹمن کے تبصرے نے دوبارہ تصدیق کی کہ OpenAI کی پابندیوں میں گھریلو جمعیت کی نگرانی پر پابندی اور فورس کے معاملات، جن میں خودکار ہتھیاروں کے نظام شامل ہیں، میں انسانی نگرانی کی ضرورت شامل ہے۔ ان پابندیوں کو طبقاتی ماحول تک رسائی کے لیے ضروری شرائط کے طور پر پیش کیا گیا ہے، جو ایک حکومتی ماڈل کو ظاہر کرتا ہے جو بڑے پیمانے پر AI ماڈلز کی طاقت کو حساس آپریشنز کی طرف سے مانگ جانے والے تحفظات کے ساتھ ہم آہنگ کرنے کا خواہاں ہے۔ وسیع تر رجحان سے ظاہر ہوتا ہے کہ پالیسی سازوں اور دفاعی دلچسپی دار طاقتوں میں AI کے فوائد کو استعمال کرتے ہوئے زیادہ سے زیادہ نگرانی برقرار رکھنے کا مستقل دلچسپی ہے تاکہ زیادہ سے زیادہ استعمال یا غلط استعمال سے بچا جا سکے۔ جب یہ عملی نفاذ کے مرحلے میں داخل ہوتا ہے، تو حکومتی ادارے اور ٹیک فراہم کنندگان دونوں کو اعلیٰ خطرے والے ماحول میں تحفظ، شفافیت اور ذمہ داری برقرار رکھنے کی صلاحیت کے لحاظ سے ناپا جائے گا۔

پھیلتی ہوئی کہانی یہ بھی اہمیت دیتی ہے کہ AI کے حوالے سے خریداری اور پالیسی کے فیصلے اس ٹیکنالوجی کے وسیع ایکو سسٹم کو کیسے متاثر کریں گے۔ اگر پینٹاگن کے طبقہ بند نیٹ ورکس میں OpenAI کے ماڈلز کے ساتھ کیے گئے تجربات قابل توسیع اور محفوظ ثابت ہوئے، تو وہ مستقبل کے تعاون کے لیے ایک ماڈل فراہم کر سکتے ہیں جو نئی ترین AI کو سخت حکومتی نظام کے ساتھ جوڑتے ہوئے، ایک ماڈل جو لہر کی شکل میں متعلقہ صنعتوں میں بھی پھیل سکتا ہے—جس میں AI سہائی تجزیات اور بلاک چین بنیادی حکومتی نظاموں کا تجربہ کر رہے ہیں۔ اس کے علاوہ، Anthropic کا واقعہ یہ ظاہر کرتا ہے کہ خریداری کے مذاکرات کس طرح سے ہتھیاروں اور نگرانی کے حوالے سے واضح ضمانتوں پر منحصر ہو سکتے ہیں—ایک ایسا مسئلہ جو شروعاتی اور قائم کمپنیوں کے لیے فیڈرل معاہدوں کے شروط شکل دے سکتا ہے۔

اسی دوران، AI پالیسی کے حوالے سے عوامی بحث جاری ہے، جس میں قانون ساز اور ریگولیٹرز نجی فرموں کو قومی تحفظ کی درخواستوں کے جواب میں کیسے پ्रتیکر کرتی ہیں، اس پر توجہ دے رہے ہیں۔ Anthropic کے منصوبہ بند قانونی چیلنج کا نتیجہ مستقبل کے حکومتی شراکت داروں کے لیے مذاکرات کے اصولوں کو متاثر کر سکتا ہے، جس سے شروط کی ترتیب، خطرات کا تقسیم، اور مختلف اداروں میں مطابقت کی تصدیق پر اثر پڑ سکتا ہے۔ پینٹاگن کے طبقہ بند نیٹ ورک میں OpenAI کی مدد سے ڈپلومنٹ اب تک AI کی رفتار اور فائدے اور اس کے سب سے حساس استعمالات کو تعریف کرنے والی ذمہ داری اور تحفظ کی پابندیوں کو متوازن بنانے کا ایک ٹیسٹ کیس ہے۔

جب نظم و ضابطہ کا منظر مسلسل تبدیل ہوتا رہتا ہے، تو ٹیک کمیونٹی کے بہت سے افراد یہ دیکھیں گے کہ یہ ترقیات کس طرح عملی طور پر مستحکم ہوتی ہیں—خرابی کے جائزے، سیکورٹی پروٹوکولز اور حکمرانی معیارات اگلی نسل کے AI ڈپلومنٹس میں کس طرح ترقی کرتے ہیں۔ جارحانہ صلاحیت کے ترقی اور عمدہ خطرہ کنٹرول کے درمیان تعامل اب حکمت عملی ٹیکنالوجی منصوبہ بندی کا ایک مرکزی پہلو بن چکا ہے، جس کے اثرات دفاع تک محدود نہیں بلکہ دیگر شعبوں تک بھی پھیل رہے ہیں جو فیصلہ سازی، ڈیٹا تجزیہ اور اہم آپریشنز کے لیے AI پر انحصار کرتے ہیں۔ آنے والے ماہوں میں یہ ظاہر ہوگا کہ کیا OpenAI-DoD تعاون راستہ کے سب سے حساس علاقوں میں محفوظ، ذمہ دارانہ AI ادماج کا ایک مستحکم ماڈل کے طور پر کام کر سکتا ہے۔

اوپن اے آئی کا جمعہ کی رات کا ایکس پوسٹ جو پینٹاگون کی تفویض کو پیش کرتا ہے، اور دفاعی محکمہ کا اینتھروپک کے لیے سلامتی پر مبنی رویہ، کہانی کو بنیادی بیانات میں جڑتے ہیں۔ صدر ٹرمپ کے نام سے منسوب ٹروتھ سوشل پوسٹ فیڈرل AI پالیسی کے ارد گرد سیاسی ماحول کو مزید سمجھاتا ہے۔ اینتھروپک کی طرف سے، کمپنی کا باقاعدہ بیان اس تقرر اور اس کے قانونی راستے کے خلاف رسمی مخالفت فراہم کرتا ہے۔ مل کر، یہ ذرائع ایک متعدد پہلوؤں والا منظر پیش کرتے ہیں جہاں قومی حفاظت، شہری آزادیاں اور تجارتی دلچسپیاں حقیقی وقت میں تقاطع کرتی ہیں۔

یہ مضمون اصل میں اوپن اے آئی نے حکومت کے اینتھروپک کو چھوڑنے کے گھنٹوں بعد دفاعی معاہدہ جیتا کے طور پر شائع کیا گیا تھا، کرپٹو بریکنگ نیوز پر – جو آپ کے لیے کرپٹو خبروں، بٹ کوائن خبروں اور بلاک چین اپڈیٹس کا قابل اعتماد ذریعہ ہے۔

اعلان دستبرداری: اس صفحہ پر معلومات تیسرے فریق سے حاصل کی گئی ہوں گی اور یہ ضروری نہیں کہ KuCoin کے خیالات یا خیالات کی عکاسی کرے۔ یہ مواد کسی بھی قسم کی نمائندگی یا وارنٹی کے بغیر صرف عام معلوماتی مقاصد کے لیے فراہم کیا گیا ہے، اور نہ ہی اسے مالی یا سرمایہ کاری کے مشورے کے طور پر سمجھا جائے گا۔ KuCoin کسی غلطی یا کوتاہی کے لیے، یا اس معلومات کے استعمال کے نتیجے میں کسی بھی نتائج کے لیے ذمہ دار نہیں ہوگا۔ ڈیجیٹل اثاثوں میں سرمایہ کاری خطرناک ہو سکتی ہے۔ براہ کرم اپنے مالی حالات کی بنیاد پر کسی پروڈکٹ کے خطرات اور اپنے خطرے کی برداشت کا بغور جائزہ لیں۔ مزید معلومات کے لیے، براہ کرم ہماری استعمال کی شرائط اور خطرے کا انکشاف دیکھیں۔