كتابة: شياو بينغ، شينتشاو TechFlow
في خريف عام 2023، جلس إيليا سوتسكيفير، العالم الرئيسي في OpenAI، أمام الكمبيوتر وأكمل ملفًا بطول 70 صفحة.
تم تجميع هذا المستند من سجلات رسائل Slack وأرشيفات التواصل مع الموارد البشرية ومحاضر الاجتماعات الداخلية، وذلك للإجابة على سؤال واحد فقط: هل يمكن الوثوق بسام ألتمان، الرجل الذي يدير ربما أخطر تقنية في تاريخ البشرية؟
الإجابة التي قدمها سوتسكيفير مكتوبة في السطر الأول من الصفحة الأولى من الملف، وعنوان القائمة هو "سام يظهر نمطًا سلوكيًا ثابتًا..."
First: Lying.
اليوم، بعد سنتين ونصف، نشر الصحفيان المحققان رونان فارو وأندرو مارانتز مقال تحقيق طويل في مجلة نيويوركر. قاما بإجراء أكثر من 100 مقابلة، وحصلوا على وثائق داخلية لم تُكشف من قبل، بالإضافة إلى أكثر من 200 صفحة من الملاحظات الشخصية التي تركها داريو أمودي، المؤسس المشارك لـ Anthropic، خلال فترة عمله في OpenAI. القصة التي تكوّنت من هذه الوثائق أسوأ بكثير من "معركة القصر" التي وقعت في عام 2023: كيف تحولت OpenAI من منظمة غير ربحية وُلدت من أجل سلامة البشرية إلى آلة تجارية، حيث تم تفكيك كل حماية أمنية تقريبًا يدًا واحدة.
استنتاج أمودي في الملاحظات أكثر وضوحًا: "مشكلة OpenAI هي Sam نفسه."
الافتراض الأساسي لـ OpenAI
لفهم أهمية هذا التقرير، يجب أولاً توضيح مدى خصوصية شركة OpenAI.
في عام 2015، قام ألتمان ومجموعة من النخبة في وادي السيليكون بفعل لم يسبق له مثيل في التاريخ التجاري: استخدام منظمة غير ربحية لتطوير تقنية قد تكون الأقوى في تاريخ البشرية. تم تحديد مسؤوليات مجلس الإدارة بوضوح: السلامة تأتي أولاً قبل نجاح الشركة، وحتى قبل بقائها على قيد الحياة. ببساطة، إذا ما أصبحت ذكاء اصطناعي OpenAI خطرًا في يوم من الأيام، فسيكون على مجلس الإدارة التزام بإغلاق الشركة بنفسه.
يُعتمد هيكل كامل على افتراض واحد: أن الشخص الذي يدير AGI يجب أن يكون شخصًا صادقًا للغاية.
ماذا لو خاطرت بشكل خاطئ؟
القنبلة الأساسية في التقرير هي那份 70 页文件。Sutskever لا يشارك في السياسات المكتبية، وهو أحد أبرز علماء الذكاء الاصطناعي في العالم. لكن بحلول عام 2023، كان أكثر يقينًا من شيء واحد: أن Altman كان يكذب باستمرار على الإدارة العليا ومجلس الإدارة.
مثال محدد: في ديسمبر 2022، وعَد ألتمن في اجتماع مجلس الإدارة بأن العديد من ميزات GPT-4 القادمة قد خضعت للمراجعة الأمنية. طلب عضو مجلس الإدارة تونر الاطلاع على وثائق الموافقة، فاكتشف أن اثنتين من أكثر الميزات إثارة للجدل (الضبط الدقيق المخصص من قبل المستخدم ونشر المساعد الشخصي) لم تحصلا على موافقة لجنة الأمن إطلاقًا.
حدث شيء أكثر غرابة في الهند. قام موظف بإبلاغ عضو آخر في مجلس الإدارة عن "هذا الانتهاك": لم تكمل مايكروسوفت المراجعة الأمنية الضرورية قبل إطلاق النسخة المبكرة من ChatGPT في الهند.
سوتسكيفير سجّل أيضًا شيئًا آخر في مذكّرته: لقد قال ألتمان لـ ميرا موراتي، المدير التقني السابق، إن عملية الموافقة على السلامة ليست مهمة جدًا، وقد وافق عليها المستشار القانوني العام للشركة. ذهبت موراتي للتحقق مع المستشار القانوني العام، فردّت عليه بعبارة: "لا أعرف من أين حصل سام على هذا الانطباع."
ملاحظات أمودي السرية التي تبلغ 200 صفحة
ملفات سوتسكيفير تشبه اتهامًا من المدعي العام. وملاحظات أمودي التي تزيد عن 200 صفحة تشبه مذكرة كتبها شاهد عيان في مكان الجريمة.
خلال السنوات التي قضاها أمودي كمسؤول عن الأمان في OpenAI، شهد عن قرب كيف تراجعت الشركة خطوة بخطوة تحت ضغوط تجارية. سجّل في ملاحظاته تفصيلاً مهماً يتعلق باستثمار مايكروسوفت عام 2019: فقد أضاف بندًا بعنوان "الدمج والمساعدة" في دستور OpenAI، ينص على أنه إذا وجدت شركة أخرى مسارًا أكثر أمانًا للـAGI، فعليها أن تتوقف عن المنافسة وتنتقل لمساعدة تلك الشركة. وكان هذا هو ضمان الأمان الذي اعتبره الأهم في كامل الصفقة.
عند التوقيع السريع على العقد، لاحظ أموديي شيئًا: حصلت مايكروسوفت على حق الفيتو على هذا البند. ما معنى ذلك؟ حتى لو وجد منافس ما في يوم من الأيام طريقًا أفضل، يمكن لمايكروسوفت أن تُغلق الباب أمام التزامات OpenAI بجملة واحدة. لا يزال البند على الورق، لكنه منذ يوم التوقيع أصبح ورقة بلا قيمة.
بعد ذلك، غادر أموديي OpenAI وأسس Anthropic. التنافس بين الشركتين يعود إلى خلاف أساسي حول "كيف يجب تطوير الذكاء الاصطناعي".
القدرة الحاسوبية الموعودة التي اختفت بنسبة 20%
يحتوي التقرير على تفصيل واحد، قراءته تجعلك تشعر بالبرود في ظهرك، حول فريق "التوافق الفائق" في OpenAI.
في منتصف عام 2023، تواصل ألتمن عبر البريد الإلكتروني مع طالب دكتوراه في بيركلي يبحث في "المحاذاة الخادعة" (حيث يتظاهر الذكاء الاصطناعي بالالتزام أثناء الاختبارات، لكنه يتصرف بطرق خاصة له عند النشر الفعلي)، وأخبره أنه قلق جدًا من هذه المشكلة، ويفكر في إنشاء جائزة عالمية للبحث بقيمة مليار دولار أمريكي. وقد شجّى الطالب كثيرًا، فأخذ إجازة من دراسته وانضم إلى OpenAI.
ثم غيّر ألتمن رأيه: لم يعد يُقيّم الجوائز الخارجية، بل أنشأ فريقًا داخليًا يُسمى "فريق التوافق الفائق". وأعلنت الشركة بصيغة مُبالغ فيها أنها ستخصص "20% من قوة الحوسبة الحالية" لهذا الفريق، بقيمة محتملة تتجاوز 1 مليار دولار. وصيغ إعلان الشركة بجدية شديدة، قائلة إنه إذا لم تُحل مشكلة التوافق، فقد يؤدي الذكاء العام الاصطناعي إلى "حرمان البشر من السلطة، أو حتى انقراض البشرية".
بعد تعيينه لقيادة الفريق، قال جان ليكي لاحقًا للصحفيين إن هذا الالتزام نفسه كان أداة فعالة جدًا للحفاظ على المواهب.
ما هي الحقيقة؟ يقول أربعة أشخاص يعملون في هذا الفريق أو على اتصال وثيق به إن القوة الحسابية المخصصة فعليًا كانت تتراوح بين 1% و2% من إجمالي قوة الحوسبة الخاصة بالشركة، وكانت أقدم الأجهزة على الإطلاق. لاحقًا، تم حل الفريق دون إنجاز مهمته.
عندما طلب الصحفيون مقابلة الأشخاص المسؤولين عن بحث "السلامة الوجودية" في OpenAI، كان رد شركة العلاقات العامة مُضحكًا ومُحزنًا في آنٍ واحد: "هذا ليس شيئًا... موجودًا فعليًا."
أما ألتمن فكان هادئًا بذاته. قال للمحرر إن "حدسه لا يتوافق مع العديد من جوانب الأمان التقليدية للذكاء الاصطناعي"، لكن OpenAI ستواصل إجراء "مشاريع أمان، أو على الأقل مشاريع مرتبطة بالأمان".
المدير المالي المعزول وطرح الأسهم الأولي الوشيك
تقرير نيويوركر كان فقط نصف الأخبار السيئة لهذا اليوم. في نفس اليوم، كشفت The Information عن خبر آخر كبير: وجود خلاف خطير بين مديرة المالية في OpenAI، سارة فريار، وألتمان.
أخبرت فريار زملاءها خصوصًا أنها تعتقد أن OpenAI غير مستعدة للإدراج هذا العام. سببان: كمية العمل الإجرائي والتنظيمي المتبقي كبيرة جدًا، والمخاطر المالية الناتجة عن التزام ألتمن بإنفاق 600 مليار دولار على قوة الحوسبة على مدار 5 سنوات مرتفعة جدًا. وهي حتى غير متأكدة من أن نمو إيرادات OpenAI سيكفي لدعم هذه الالتزامات.
لكن ألتمن يريد تحقيق الاكتتاب العام في الربع الرابع من هذا العام.
الأمر أصبح أكثر غرابة عندما توقف فريار عن التقارير المباشرة لألتمان. اعتبارًا من أغسطس 2025، بدأت تُقدّم تقاريرها إلى فيديجي سيمو (الرئيس التنفيذي لعملية التطبيقات في OpenAI). وسِيمو أخذت إجازة مرضية الأسبوع الماضي بسبب مشاكل صحية. احكم بنفسك على هذا الموقف: شركة تسعى للطرح العام الأولي، حيث يوجد خلاف جوهري بين الرئيس التنفيذي ورئيسة المالية، ورئيسة المالية لا تُقدّم تقاريرها للرئيس التنفيذي، ورئيسة المالية المباشرة في إجازة مرضية.
حتى كبار المسؤولين داخل مايكروسوفت لم يعودوا قادرين على التحمل، وقالوا إن ألتمن "يشوّه الحقائق، ينقلب على كلمته، ويدمر باستمرار الاتفاقيات المتفق عليها". حتى أن أحد كبار المسؤولين في مايكروسوفت قال هذا القول: "أعتقد أنه هناك احتمال معين أن يُذكر في النهاية كمحتال على مستوى بيرني مادوف أو SBF."
صورة ألتمن "ذات الوجهين"
وصف عضو سابق في مجلس إدارة OpenAI للصحفيين سمتين في ألتمان. قد تكون هذه الجملة أقسى وصف شخصية في التقرير بأكمله.
قال العضو: إن ألتمان يمتلك مزيجًا نادرًا جدًا من السمات: فهو يشعر برغبة قوية جدًا في إرضاء الطرف الآخر وكونه محبوبًا في كل تواصل وجهًا لوجه، وفي الوقت نفسه، يظهر تجاه العواقب المحتملة للخداع، عدم اكتراث شبه اجتماعي مرضي.
من النادر جدًا أن تجتمع صفتان في شخص واحد. لكن بالنسبة لبائع، فهذا هو الموهبة المثالية.
يحتوي التقرير على تشبيه جيد: كان جوبز مشهورًا بـ"حقل انحراف الواقع" الذي كان يستطيع من خلاله إقناع العالم برؤيته. لكن حتى جوبز لم يقل أبدًا لعملائه: "إذا لم تشتري مشغل MP3 الخاص بي، فسوف يموت من تحب".
قال ألتمن شيئًا مشابهًا عن الذكاء الاصطناعي.
مشكلة أخلاقية لرئيس تنفيذي، لماذا هي خطر على الجميع؟
إذا كان ألتمان مجرد مدير تنفيذي لشركة تكنولوجيا عادية، لكانت هذه الادعاءات على أفضل تقدير مجرد إشاعات تجارية مثيرة. لكن OpenAI ليست عادية.
بحسب ما تدّعي، فهي تطور أقوى تقنية في تاريخ البشرية، يمكنها إعادة تشكيل الاقتصاد العالمي وسوق العمل (حيث نشرت OpenAI للتو ورقة سياسية عن مشكلة البطالة الناتجة عن الذكاء الاصطناعي)، ويمكن استخدامها أيضًا لصنع أسلحة كيميائية أو بيولوجية ضخمة أو شن هجمات إلكترونية.
لقد تلاشت جميع ضوابط الأمان. لقد تخلت المهمة الخيرية للمؤسس على حساب السباق نحو الاكتتاب العام. وقد اعتبر كل من العالم الرئيسي السابق ومسؤول الأمن السابق أن المدير التنفيذي "غير موثوق". وقد قارن الشركاء المدير التنفيذي بـ SBF. في هذه الظروف، ما الذي يمنح هذا المدير التنفيذي الحق في اتخاذ قرار أحادي متى يُطلق نموذج ذكاء اصطناعي قد يغيّر مصير البشرية؟
بعد قراءة التقرير، كتب غاري ماركوس (أستاذ الذكاء الاصطناعي في جامعة نيويورك، وناشط طويل الأمد في أمان الذكاء الاصطناعي) جملة واحدة: إذا تمكّن نموذج مستقبلي من OpenAI من تصنيع أسلحة بيوكيميائية واسعة النطاق أو شن هجوم إلكتروني كارثي، هل أنت حقًا مرتاح لترك ألتمان يقرر وحده ما إذا كان سيُطلقه أم لا؟
ردّ OpenAI على مجلة The New Yorker كان موجزًا: "يُعيد معظم محتوى هذه المقالة تسويق أحداث تم تغطيتها سابقًا، من خلال ادعاءات مجهولة المصدر وقصص انتقائية، حيث يبدو أن المصادر لديها أهداف شخصية."
طريقة رد ألتمن: عدم الرد على الادعاءات المحددة، وعدم إنكار صحة المذكرة، بل التشكيك في الدوافع فقط.
على جثة غير ربحية، نمت شجرة تُنتج الأموال
عشر سنوات من OpenAI، مكتوبة كمخطط قصة كالتالي:
مجموعة من المثاليين القلقين من مخاطر الذكاء الاصطناعي أسسوا منظمة غير ربحية موجهة برسالة. وحققت المنظمة اختراقات تقنية استثنائية. وجذب هذا الاختراق رؤوس أموال ضخمة. واحتاجت هذه الأموال إلى عوائد. وبدأت الرسالة تتخلى عن مكانتها. وتم حل فريق الأمان. وتم طرد المتشككين. وتم تغيير الهيكل غير الربحي إلى كيان ربحي. وتم ملء مجلس الإدارة، الذي كان يمتلك سلطة إغلاق الشركة، بحلفاء المدير التنفيذي. والشركة التي وعدت سابقًا بتخصيص 20% من قوة الحوسبة لحماية أمان البشر، يقول الآن مسؤولو العلاقات العامة فيها: "هذا ليس شيئًا موجودًا فعليًا".
بطل القصة، أعطاه أكثر من مئة شاهد عيان نفس التصنيف: "غير خاضع للحقيقة."
He is preparing to take this company public with a valuation exceeding $850 billion.
تم تجميع معلومات هذا المقال من تقارير عامة نُشرت في عدة وسائل إعلام، بما في ذلك The New Yorker وSemafor وTech Brew وGizmodo وBusiness Insider وThe Information.
