لکھنے والے: چھوٹا بیکا، شین چاؤ ٹیک فلو
2023 کی خزاں میں، OpenAI کے سربراہ سائنسدان ایلیا سوتسکیور نے کمپیوٹر کے سامنے بیٹھ کر ایک 70 صفحات کا دستاویز مکمل کیا۔
یہ دستاویز Slack کے پیغامات، ایچ آر کے مکالمات اور اندر کے اجلاس کے نوٹس سے تیار کی گئی ہے، صرف ایک سوال کا جواب دینے کے لیے: سام الٹمن، جو شاید انسانی تاریخ کی سب سے خطرناک ٹیکنالوجی کا سربراہ ہے، کیا اس پر بھروسہ کیا جا سکتا ہے؟
سٹسکیور کا جواب، فائل کے پہلے صفحے کی پہلی لائن پر لکھا گیا ہے، فہرست کا عنوان "سام ایک مستقل رویے کا مظاہرہ کرتے ہیں……" ہے
پہلا: جھوٹ بولنا۔
آج، دو سال اور نصف سال کے بعد، تحقیقی صحافی رونن فارو اور اینڈریو مارانٹز نے نیو یارکر میں ایک لمبی تحقیقی رپورٹ شائع کی۔ انہوں نے 100 سے زائد افراد کے ساتھ انٹرویو کیے، پہلے کبھی شائع نہ ہونے والے اندرلی میموز حاصل کیے، اور اینتھرپک کے بانی داریو امودی کے اوپن اے آئی کے دوران کے 200 سے زائد صفحات کے ذاتی نوٹس حاصل کیے۔ ان دستاویزات سے جو کہانی سامنے آئی، وہ 2023 کی "پالسی لڑائی" سے بہت زیادہ بدنام تھی: اوپن اے آئی کس طرح انسانی محفوظیت کے لیے قائم ہونے والی ایک غیر منافع بخش تنظیم سے آہستہ آہستہ ایک تجارتی مشین بن گئی، اور تقریباً ہر محفوظیت کا ڈھال اسی ایک شخص نے اپنے ہاتھوں سے تباہ کر دیا۔
امودی نے نوٹس میں اس نتیجہ پر پہنچا: "OpenAI کی پریشانی Sam کا خود ہے۔"
OpenAI کا "اصل گناہ" سیٹنگ
اس رپورٹ کی اہمیت کو سمجھنے کے لیے، اوپن اے آئی کے بارے میں یہ واضح کرنا ضروری ہے کہ یہ کمپنی کتنی خاص ہے۔
2015 میں، الٹمن اور ایک گروہ سلیکون ویلی کے ایلیٹس نے کاروباری تاریخ میں تقریباً بے مثال ایک کام کیا: ایک غیر منافع بخش تنظیم کے ذریعے انسانی تاریخ کی سب سے طاقتور ٹیکنالوجی کو ترقی دینا۔ بورڈ کے فرائض واضح طور پر لکھے گئے تھے، کہ محفوظیت کو کمپنی کی کامیابی سے زیادہ اور حتیٰ کہ کمپنی کے وجود سے بھی زیادہ اہمیت دی جائے۔ سادہ الفاظ میں، اگر کبھی OpenAI کا AI خطرناک ہو جائے تو، بورڈ کا فرض ہوگا کہ وہ خود اس کمپنی کو بند کر دے۔
پوری ساخت ایک فرض پر منحصر ہے: AGI کو چلانے والا شخص، انتہائی ایماندار ہونا چاہیے۔
اگر غلط پر بیٹنگ کر دی؟
مرکزی بم 70 صفحات کی فائل تھی۔ سوتسکیور کو آفس پولیٹکس میں دلچسپی نہیں، وہ دنیا کے سب سے بڑے AI سائنسدانوں میں سے ایک ہیں۔ لیکن 2023 تک، وہ ایک بات پر زیادہ یقین رکھنے لگے: اльтمن مسلسل اعلیٰ انتظامیہ اور بورڈ کو جھوٹ بول رہا ہے۔
ایک مخصوص مثال: دسمبر 2022 میں، الٹمن نے بورڈ کی میٹنگ میں گارنٹی دی کہ GPT-4 کے متعدد فیچرز کی سیکیورٹی ریویو ہو چکی ہے۔ بورڈ کے رکن ٹونر نے اپروول ڈاکومنٹس دیکھنے کا مطالبہ کیا، جس کے بعد پتہ چلا کہ دو سب سے زیادہ تنازعات والے فیچرز (صارف کی طرف سے کسٹم فائن ٹیوننگ اور پرسنل اسسٹنٹ ڈپلومنٹ) کو سیکیورٹی پینل کی منظوری حاصل نہیں ہوئی تھی۔
بھارت میں مزید عجیب باتیں ہو رہی ہیں۔ ایک ملازم نے ایک اور بورڈ ممبر کو "اس خلاف ورزی" کی اطلاع دی: مائیکروسافٹ نے ضروری سیکورٹی جانچ پڑتال مکمل نہ کیے، بھارت میں چیٹ جی پی ٹی کے ابتدائی ورژن کو جلد ہی جاری کر دیا۔
سُتسکیور نے میمو میں ایک اور بات بھی درج کی تھی: الٹمن نے سابق CTO میرا موراتی کو کہا تھا کہ سیفٹی اپروول کا عمل اتنے اہم نہیں ہے، کیونکہ کمپنی کے قانونی سربراہ نے اسے منظور کر لیا ہے۔ موراتی نے قانونی سربراہ سے تصدیق کی، جس نے جواب دیا: "میں نہیں جانتا کہ سیم نے یہ اندازہ کہاں سے لیا۔"
امودی کی 200 صفحات کی نجی نوٹس
سٹسکیور کے دستاویزات ایک مدعی کی تہذیب کی طرح ہیں۔ امودی نے 200 سے زیادہ صفحات کے نوٹس چھوڑے، جو ایک گواہ کی طرح ہیں جو جرم کے مقام پر ایک دنچلی لکھ رہا ہے۔
جب امودیائی OpenAI میں سیفٹی کے لیے ذمہ دار تھے، تو انہوں نے دیکھا کہ کمپنی تجارتی دباؤ کے تحت آہستہ آہستہ پیچھے ہٹ رہی ہے۔ انہوں نے اپنے نوٹس میں 2019 کے مائیکروسافٹ کے سرمایہ کاری کا ایک اہم تفصیل درج کیا: انہوں نے OpenAI کے عہد نامے میں "اضافہ اور مدد" کا ایک شق شامل کیا تھا، جس کا مطلب تھا کہ اگر کوئی اور کمپنی محفوظ AGI کا راستہ تلاش کر لے، تو OpenAI کو مقابلہ چھوڑ کر اس کمپنی کی مدد کرنی چاہیے۔ یہ پورے معاہدے میں ان کے لیے سب سے اہم سیفٹی گارنٹی تھی۔
جب ایمودی نے تیز ٹریڈنگ کیا، تو اس نے ایک بات دریافت کی: مائیکروسافٹ کو اس شرط کے خلاف ووٹ کا حق حاصل ہو گیا۔ اس کا کیا مطلب ہے؟ اگر کبھی کوئی مقابلہ کرنے والا کسی بہتر راستے کی دریافت کر لے، تو مائیکروسافٹ صرف ایک جملہ کہہ کر اوپن اے آئی کے تعاون کے فرائض کو روک سکتا ہے۔ شرط ابھی کاغذ پر ہے، لیکن دستخط کرنے کے دن سے ہی یہ کاغذ خالی ہو چکا ہے۔
امودی نے بعد میں OpenAI چھوڑ دیا اور Anthropic کی بنیاد رکھی۔ دونوں کمپنیوں کے درمیان مقابلہ، "AI کو کیسے ترقی دیا جائے" کے بنیادی فرق پر مبنی ہے۔
20% کی کمپیوٹنگ پاور کا وعدہ جو غائب ہو گیا
رپورٹ میں ایک تفصیل ہے، جسے پڑھ کر آپ کی پیٹھ سرد ہو جاتی ہے، OpenAI کے "سوپر الائنمنٹ ٹیم" کے بارے میں۔
2023 کے وسط میں، الٹمن نے برکلی میں "دھوکہ دہی والی مطابقت" (AI ٹیسٹنگ کے دوران اچھا برتاؤ کرتا ہے لیکن عملی طور پر اپنا ہی طریقہ اپناتا ہے) پر تحقیق کرنے والے ایک ڈاکٹریٹ طالب علم کو ای میل کیا، کہ وہ اس مسئلے سے بہت پریشان ہیں اور 10 ارب ڈالر کا عالمی تحقیقی انعام قائم کرنے پر غور کر رہے ہیں۔ طالب علم کو حوصلہ افزائی ہوئی، اس نے تعلیم چھوڑ دی اور OpenAI میں شمولیت اختیار کر لی۔
پھر اльтمن نے اپنا فیصلہ بدل دیا: باہری انعامات کی بجائے، کمپنی کے اندر "سپر الائنمنٹ ٹیم" قائم کر دی۔ کمپنی نے علیحدہ طور پر اعلان کیا کہ وہ "موجودہ کمپیوٹنگ پاور کا 20 فیصد" اس ٹیم کو فراہم کرے گی، جس کی ممکنہ قیمت 10 ارب ڈالر سے زائد ہے۔ اعلان کا لفظی انداز بہت سنجیدہ تھا، جس میں کہا گیا کہ اگر الائنمنٹ کا مسئلہ حل نہیں ہوا، تو AGI "انسانوں کو طاقت سے محروم کرنے یا حتیٰ کہ انسانیت کے خاتمے" کا باعث بن سکتا ہے۔
اس ٹیم کی قیادت کے لیے مقرر کیے گئے جان لائیک نے بعد میں اخبارات کو بتایا کہ یہ وعدہ خود بخود ایک بہت مؤثر "ٹیلینٹ ریٹینشن ٹول" تھا۔
لیکن حقیقت کیا ہے؟ چار افراد جو اس ٹیم کے ساتھ کام کرتے تھے یا ان کے قریب تھے، کہتے ہیں کہ واقعی میں صرف کمپنی کے کل کمپوٹنگ پاور کا 1% سے 2% ہی مختص کیا گیا، اور وہ بھی سب سے پرانے ہارڈویئر پر۔ بعد میں یہ ٹیم حل کر دی گئی اور اس کا مشن مکمل نہیں ہوا۔
جب اخباری نمائندہ نے اوپن اے آئی کے " وجودی تحفظ " پر کام کرنے والے افراد کے ساتھ انٹرویو کی درخواست کی تو کمپنی کے پبلک ریلیشنز نے ایک حیران کن جواب دیا: "یہ کوئی ... حقیقی چیز نہیں ہے۔"
الٹمن خود بہت آرام دہ ہے۔ اس نے صحافیوں سے کہا کہ اس کی "حدس بہت سی روایتی AI سیکیورٹی چیزوں کے ساتھ مطابقت نہیں رکھتی"، لیکن OpenAI اب بھی "سیکیورٹی پروجیکٹس، یا کم از کم سیکیورٹی سے متعلق پروجیکٹس" کرے گا۔
عہدے سے ہٹایا گیا سی ایف او اور آنے والے آئی پی او
نیو یارکر کی رپورٹ صرف اس دن کے بھیانک خبروں کا نصف تھا۔ اسی دن، دی انفارمیشن نے ایک اور بڑی خبر گھونپ دی: اوپن اے آئی کی سی ایف او سارہ فرائر اور الٹمن کے درمیان شدید اختلاف ہو گیا ہے۔
فرائر نے اپنے ساتھی کو انفرادی طور پر بتایا کہ وہ سمجھتی ہیں کہ OpenAI اس سال لسٹنگ کے لیے تیار نہیں ہے۔ دو وجوہات: مکمل کرنے کے لیے بہت زیادہ پروسیجرل اور اداراتی کام ہے، اور الٹمن نے جو 5 سال میں 600 ارب ڈالر کی کمپوٹنگ اخراجات کا وعدہ کیا ہے، اس کا مالی خطرہ بہت زیادہ ہے۔ وہ یہ بھی نہیں جانتی کہ OpenAI کی آمدنی میں اضافہ ان وعدوں کو برقرار رکھنے کے لیے کافی ہوگا۔
لیکن الٹمن چاہتے ہیں کہ وہ اس سال کے چوتھے تिमाहی میں آئی پی او کی طرف بڑھیں۔
مزید عجیب بات یہ ہے کہ فرائر اب ایلٹمن کو براہ راست رپورٹ نہیں کرتی۔ اگست 2025 سے، وہ فجی سیمو (اپلیکیشن بزنس کی سی ای او، اوپن اے آئی) کو رپورٹ کرتی ہے۔ اور سیمو نے پچھلے ہفتے صحت کے مسائل کی وجہ سے بیماری کے لیے چھٹی لے لی۔ آپ خود سمجھیں: ایک آئی پی او کی طرف بڑھ رہی کمپنی جہاں سی ای او اور سی ایف او میں بنیادی اختلاف ہے، سی ایف او سی ای او کو رپورٹ نہیں کرتا، اور سی ایف او کا سپریور بھی چھٹی پر ہے۔
مایکروسافٹ کے اندر کے اعلیٰ اہلکار بھی اسے برداشت نہیں کر سکے، جنہوں نے کہا کہ الٹمن "حقائق کو پلٹ رہا ہے، وعدوں کو توڑ رہا ہے، اور پہلے معاہدوں کو باقاعدگی سے منسوخ کر رہا ہے"۔ ایک مایکروسافٹ اہلکار نے ایک جملہ بھی کہا: "میرا خیال ہے کہ وہ بالآخر برنی میکڈوف یا SBF کی سطح کا دھوکہ باز کے طور پر یاد کیا جائے گا۔"
الٹمن کی "دو چہرے والا" تصویر
ایک سابق OpenAI بورڈ کے رکن نے ایک صحافی کو الٹمن کے دو خصوصیات کے بارے میں بیان دیا۔ یہ جملہ ممکنہ طور پر پوری رپورٹ کا سب سے زیادہ طاقتور کردار کا تصور ہے۔
اس ڈائریکٹر نے کہا کہ ایلٹمن میں ایک بہت ہی نایاب صفات کا مجموعہ ہے: وہ ہر ذاتی بات چیت میں دوسرے کو خوش کرنے اور پسند کیے جانے کی شدید خواہش رکھتا ہے۔ اس کے علاوہ، وہ دوسرے لوگوں کو دھوکہ دینے کے ممکنہ نتائج کے بارے میں تقریباً سماجی طور پر بیمارانہ بے پرواہی رکھتا ہے۔
دو خصوصیات ایک شخص میں ایک ساتھ ہونا بہت نایاب ہے۔ لیکن ایک فروخت کرنے والے کے لیے، یہ سب سے مثالی صلاحیت ہے۔
ایک تشبیہ میں کہا گیا ہے کہ جابس کو "ریئلٹی ڈیسٹورشن فیلڈ" کے لیے جانا جاتا تھا، جس سے وہ پوری دنیا کو اپنے خواب کو سچا ثابت کر سکتا تھا۔ لیکن جابس نے کبھی بھی اپنے صارفین سے نہیں کہا کہ "اگر آپ میرا ایم پی 3 پلیئر نہیں خریدیں گے تو آپ کے پیارے لوگ مرجائیں گے۔"
الٹمن نے AI کے بارے میں ایسی بات کہی تھی۔
ایک سی ای او کے کردار کا مسئلہ، کیوں سب کے لیے خطرہ ہے
الٹمن اگر صرف ایک عام ٹیکنالوجی کمپنی کے سی ای او ہوتے، تو یہ الزامات صرف ایک دلچسپ کاروباری افواہ ہوتے۔ لیکن OpenAI عام نہیں ہے۔
اپنے مطابق، یہ انسانی تاریخ کی سب سے طاقتور ٹیکنالوجی تیار کر رہا ہے جو عالمی مالیاتی اور مزدوری کے مارکیٹ کو دوبارہ شکل دے سکتی ہے (OpenAI نے حال ہی میں AI کے باعث بے روزگاری کے مسئلے پر ایک پالیسی وائٹ پیپر جاری کیا ہے)، اور اسے بڑے پیمانے پر جانور اور نباتات کے لیے زہریلے مادوں کے تیار کرنے یا سائبر حملوں کے لیے استعمال کیا جا سکتا ہے۔
تمام محفوظہ حفاظتی اقدامات خالی صرف نام کے لیے رہ گئے ہیں۔ بانی کا غیر منافع بخش مشن IPO کی دوڑ کے لیے جگہ چھوڑ چکا ہے۔ سابق سائنسی سربراہ اور سابق سیکورٹی ذمہ دار دونوں نے سی ای او کو "بھروسہ نہیں کرنا" قرار دیا ہے۔ شراکت دار سی ای او کو SBF کے ساتھ تلکیل دے رہے ہیں۔ اس صورتحال میں، اس سی ای او کو کس بات پر ایسے AI ماڈلز کو جاری کرنے کا منفرد فیصلہ کرنے کا حق حاصل ہے جو انسانی قسمت بدل سکتے ہیں؟
گری مارکس (نیو یارک یونیورسٹی کے AI پروفیسر، لمبے عرصے سے AI سیفٹی کے حامی) نے رپورٹ پڑھنے کے بعد ایک جملہ لکھا: اگر کوئی مستقبل کا OpenAI ماڈل بڑے پیمانے پر بائیوکیمیکل ہتھیار تیار کر سکے یا تباہ کن سائبر حملہ شروع کر سکے، تو کیا آپ اصل میں اعتماد کرتے ہیں کہ الٹمن صرف ایک شخص کو اس فیصلے کے لیے چھوڑ دے گا کہ اسے جاری کیا جائے یا نہیں؟
اوپن اے آئی نے نیو یارکر کے جواب میں کہا: "اس مضمون کا زیادہ تر حصہ پہلے سے رپورٹ کیے گئے واقعات کو دہرایا گیا ہے، جس میں نامعلوم ذرائع اور انتخابی کہانیوں کے ذریعے، ذرائع واضح طور پر ذاتی مقاصد کے حامل ہیں۔"
الٹمن کے جواب کا انداز: کسی بھی الزام کا جواب نہ دینا، میمورنڈم کی سچائی کو انکار نہ کرنا، صرف مقصد پر سوال اٹھانا۔
غیر منافع بخش لاش پر ایک درخت اُگ گیا جو سونے کے سکے بکھیرتا ہے
اوپن اے آئی کا دہر، ایک کہانی کے خاکے کے طور پر ایسے لکھا گیا ہے:
ایک گروہ جو AI کے خطرات کے بارے میں فکرمند تھا، ایک مقصد کے مطابق غیر منافع بخش ادارہ قائم کرنے کے لیے اکٹھا ہوا۔ ادارے نے ایک نمایاں ٹیکنالوجی کی کامیابی حاصل کی۔ اس کامیابی نے بڑی رقم کا سرمایہ کشایا۔ سرمایہ کو منافع کی ضرورت تھی۔ مقصد پیچھے ہٹنے لگا۔ سیکورٹی ٹیم کو حل کر دیا گیا۔ سوالات اٹھانے والوں کو ختم کر دیا گیا۔ غیر منافع بخش ساخت کو منافع بخش ادارہ میں تبدیل کر دیا گیا۔ جس بورڈ کو کمپنی بند کرنے کا اختیار تھا، وہ اب سی ای او کے حامیوں سے بھر پڑا ہوا ہے۔ جس کمپنی نے انسانی سلامتی کے تحفظ کے لیے 20 فیصد کمپوٹنگ پاور فراہم کرنے کا وعدہ کیا تھا، اب اس کے پبلک ریلیشنز عملہ کہتے ہیں "یہ ایک حقیقی چیز نہیں ہے"۔
کہانی کا مرکزی کردار، سو سے زیادہ شاہدین نے اسے ایک ہی لیبل دیا: "حقیقت سے آزاد۔"
وہ اس کمپنی کو 8500 ارب ڈالر کی منظوری کے ساتھ آئی پی او کے لیے تیار کر رہا ہے۔
یہ معلومات کئی میڈیا گروہوں، جیسے کہ نیو یارکر، سیمافور، ٹیک برو، گزموڈو، بزنس انسائیڈر، اور دی انفارمیشن کی علیحدہ رپورٹس سے مجموعی طور پر حاصل کی گئی ہیں۔
