في الليلة الماضية، لم تُطلق Anthropic، الناشئة الجديدة في مجال الذكاء الاصطناعي (يُشار إليها لاحقًا باسم A Society)، نموذجًا جديدًا لـ Claude، بل أطلقت شيئًا يبدو مملًا بشكل خاص: معهد Anthropic (معهد Anthropic، يُشار إليه اختصارًا باسم TAI).
بالمقارنة مع هندسة التحكم (Harness Engineering) التي كانت شائعة في عام 2026، فإن المشكلات التي يسعى TAI لحلها أكثر شمولاً. وفقًا لجدول الأبحاث الذي نشرته Anthropic (anthropic-institute-agenda)، يركز TAI على أربعة مجالات رئيسية: الانتشار الاقتصادي، التهديدات والمرونة، أنظمة الذكاء الاصطناعي في التطبيقات العملية، والبحث والتطوير المدعوم بالذكاء الاصطناعي. كما أطلق TAI دعوة عامة عالمية لجذب الباحثين للعمل معًا على حل هذه المشكلات.

(صورة من: X@Anthropic الرسمي)
بمعنى آخر، أنشأت شركة A (الاختصار لـ Anthropic) منظمة داخلية تركز بشكل رئيسي على دراسة كيفية تفاعل البشر مع الذكاء الاصطناعي:
- كيف سيؤثر الذكاء الاصطناعي على العمالة والاقتصاد؟
- What new security risks will it bring?
- هل سيتغير سلوك البشر وتقديراتهم بعد استخدام الذكاء الاصطناعي فعليًا؟
- عندما تبدأ الذكاء الاصطناعي في مساعدة تطوير ذكاء اصطناعي أقوى، كيف يمكن فهم هذا التسارع وضمان التحكم فيه؟
قد يرى العديد من القراء أن هذا مجرد إجراء روتيني من شركة ذكاء اصطناعي، لكن لي كي تكنولوجيا ترى أن هذا قد يكون أهم إجراء تقوم به A 社 في الفترة الأخيرة. إن التأثير الإيجابي لـ TAI على صناعة الذكاء الاصطناعي والإنسان يشبه قيمة "لا تكن شريرًا" التي طرحها جوجل ذات مرة بالنسبة لصناعة الإنترنت. لذا قالت لي كي تكنولوجيا AGI إن هذا يُعد "إطلاقًا" لا يقل أهمية عن ترقية نموذج كبير.
الذكاء الاصطناعي يؤثر بعمق على الاقتصاد: ليس فقط وظائف العاملين
الاتجاه البحثي الأول لـ TAI هو الانتشار الاقتصادي.
عند مراجعة الثورات الصناعية الثلاث الأولى في تاريخ البشرية، سواء كانت آلة جيني للغزل، أو المحركات البخارية المدوية، أو الكهرباء وخطوط التجميع اللاحقة، فإنها استبدلت في جوهرها عملًا بدنيًا رخيصًا ومتكررًا للغاية. ومع ذلك، فإن الثورة الصناعية الرابعة التي أثارتها الذكاء الاصطناعي تختلف تمامًا، فهي تدخل مباشرة منطقة العمل الذهني التي يفخر بها البشر.
لكن TAI تشير إلى التناقض الأساسي: لقد تطورت الأدوات، لكن وضع العاملين أصبح أسوأ.
في الدراسة، أشار TAI إلى أنه إذا استطاع 3 أشخاص في المستقبل إنجاز عمل 300 شخص في الماضي باستخدام نماذج كبيرة، فما الذي سيصبح عليه هذا الشركة؟
يمكن للمصممين استخدام الذكاء الاصطناعي لإنهاء الطبقات والموارد الأكثر تعقيدًا بنقرة واحدة، ويمكن للمبرمجين استخدام الذكاء الاصطناعي للبرمجة بأسلوب Vibe... إذا افترضنا أن الذكاء الاصطناعي يزيد كفاءة العمل بنسبة 75٪، فهذا لا يعني أن نظام العمل البشري سيُختصر من 8 ساعات (أو حتى 996) إلى ساعتين، بل على العكس، قد يضطر البشر إلى القيام بخمسة أضعاف كمية العمل.
ما يهتم به TAI هو المنطق الجديد القائل: "بوجود الذكاء الاصطناعي، سيتضاعف حجم عملك عدة مرات". ولقياس هذا الوضع، قدم TAI مصطلحًا جديدًا يُسمى مؤشر الاقتصاد الأنثروبي (Anthropic Economic Index). أفادت شبكة A أنها لن تنشر فقط أوراقًا أكاديمية لا يهتم بها أحد، بل تنوي الكشف عن هذه البيانات الحقيقية وإبلاغ البشر بوضوح: أين يستبدل الذكاء الاصطناعي بشكل خفي الوظائف التي كانت تخص البشر؟ هل سيتم "استبعاد" المبتدئين الجدد فور دخولهم المجال؟

(مصدر الصورة: مُولَّد بالذكاء الاصطناعي)
ليس هذا فحسب، بل إن TAI حسبت هذه التكلفة في العالم الحقيقي. نحن جميعًا نعلم أن النماذج الكبيرة هي "وحش يبتلع الذهب" لا يشبع أبدًا؛ فكل مرة نستخدم فيها الذكاء الاصطناعي لإنشاء نصوص أو صور أو مقاطع فيديو أو حتى طرح سؤال بسيط، نستهلك كمية هائلة من التوكنات، والتوكنات في جوهرها تعتمد على قوة الحوسبة، التي بدورها تعتمد على الرقائق والتخزين والطاقة، وإذا تعمقنا أكثر، فهناك انبعاثات الكربون والرأسمال وغيرها. الموارد دائمًا محدودة، وعندما تُوجَّه موارد هائلة من المجتمع نحو الذكاء الاصطناعي، ستتأثر بالضرورة صناعات أخرى.
في عام 2026، كان الشعور الأكثر وضوحًا هو أن نقص الذاكرة والتخزين الناتج عن الذكاء الاصطناعي أدى مباشرة إلى ارتفاع أسعار الإلكترونيات الاستهلاكية بشكل عام، بل وحتى أجبر مصنعي الهواتف على تقليل رغبتهم في إطلاق هواتف جديدة. لكن في نفس الوقت، كانت جميع شركات الهواتف تأمل في استخدام الذكاء الاصطناعي لإعادة تشكيل منطق المنتجات، وتمديد دورة حياة الهواتف، كما تم وضع هاتف الذكاء الاصطناعي الأصلي من OpenAI على جدول الأعمال. عندما يستفيد الجميع من الذكاء الاصطناعي، فإن صناعات أكثر تتأثر بشكل عميق به، سواء بشكل جيد أو سيء.
أما TAI، فيستخدم "مؤشرًا اقتصاديًا" لتحويل تأثير الذكاء الاصطناعي على الاقتصاد من إدراك تجريدي إلى نموذج كمي: فقط عندما تُفهم المشكلة بوضوح، يصبح من الممكن حلها.
الأزمة القصوى: البشر يُفوّضون عقولهم الآن
إذا كان فقدان الوظيفة يشبه قطع اللحم بسكين بطيئة، فإن تحوّل الذكاء الاصطناعي في طريقة تفكير الدماغ البشري هو إصابة مباشرة.
أول من سيتأثر سيكون الإنترنت. لا يصعب عليك ملاحظة أن الإنترنت اليوم يتحول إلى "كومة من الفضلات"، حيث كان من السهل سابقًا العثور على العديد من المنشورات التي تقدم نصائح حول تجنب المزالق عند البحث عن خطط السفر، لكن الآن كل ما تجده هو محتوى مُنشأ بواسطة الذكاء الاصطناعي يبدو جميلًا من حيث التصميم والتنسيق، لكنه في الواقع مجرد كلام فارغ ومُختلق بجدية.
الأكثر خطورة أن الذكاء الاصطناعي خفض عتبة الصناعات غير القانونية إلى الصفر: باستخدام الذكاء الاصطناعي لاستبدال الوجوه لبث الشائعات الجنسية، أو تقليد أصوات الأقارب لتنفيذ عمليات الاحتيال عبر الهاتف، يمكن للمحتالين تدمير حياة الأشخاص العاديين فقط من خلال تدمير بعض الرموز.
كما لاحظ تاي إلى أزمة أعمق: أن الذكاء الاصطناعي يجعل البشر يصبحون أكثر "غباءً" دون أن يدروا.
في السابق، كان هناك مستخدمون صينيون رأوا فطريات برية غير مألوفة في البرية، فالتقطوا صورة لها وأرسلوها إلى الذكاء الاصطناعي سائلين: "هل يمكن أكل هذا؟" فحدّد الذكاء الاصطناعي بجدية فطرًا سامًا قاتلًا على أنه "فطر لذيذ قابل للأكل". كما سأل طفل صغير الذكاء الاصطناعي عن ما هو مصيدة الفئران، فحلل الذكاء الاصطناعي بجدية قائلًا إنه "لعبة سيارة كارتين مهجورة، مربعة الشكل، ذات هيكل معدني"، فلمس الطفل اللعبة بفضول فانحبست أصابعه فيها.
تبدو هذه الأخبار كأنها نكتة مظلمة، لكنها تكشف عن ظاهرة: أبرز خاصية للذكاء الاصطناعي ليست الذكاء، بل "الثقة الغريبة". لا يمكن للذكاء الاصطناعي أن يصل أبدًا إلى دقة بنسبة 100٪، وأعلى مستوى للدقة الواقعية الذي حققه أحدث نموذج من Google Gemini هو حوالي 91٪. لكن العديد من المستخدمين، أثناء استخدامهم للذكاء الاصطناعي، تخلوا تدريجيًا عن التفكير، وأصبحوا يعتادون على تفويض جميع قراراتهم إلى سلسلة من الشيفرات.
لهذا السبب، طرح TAI سؤالًا مُحفزًا للتفكير: عندما يلجأ جزء كبير من المجتمع بأكمله إلى نماذج كبيرة فقط اثنين أو ثلاثة للحصول على المشورة، كيف ستتغير أنماط التفكير وطرق حل المشكلات لدى البشر؟ أنت تظن أنك تستخدم أدوات الذكاء الاصطناعي لتحسين كفاءة الإنتاج ومستوى المعرفة، لكنك في الواقع تُفوّض دماغك. بعبارة أخرى، إذا بدأ الجميع بالاعتماد على الذكاء الاصطناعي، فمن المحتمل جدًا أن يفقد البشر قدرتهم على التفكير المستقل، وتصبح عقول البشرية كلها نسخًا متطابقة مُستنسخة من قالب واحد.
يُستخدم الذكاء الاصطناعي لغرضين مزدوجين، كيف يمكن منع الانفجار الذكي؟
كما اقترح TAI مفهومًا جديدًا: القدرات ذات الاستخدام المزدوج (Dual-use capabilities)، حيث يُفسَّر رسميًا أنه إذا ازدادت قدرات نموذج الذكاء الاصطناعي في البيولوجيا، فلن يُستخدم فقط لتطوير أدوية جديدة، بل يمكنه أيضًا تصنيع أسلحة بيولوجية شديدة الفتك؛ وإذا كان لدى الذكاء الاصطناعي مهارة ممتازة في كتابة الكود، فليس فقط مبرمجًا جيدًا، بل يصبح أيضًا قرصانًا قادرًا على اختراق شبكات داخلية للدول بسهولة.

(صورة من: الموقع الرسمي لـ Anthropic)
عندما يتم توصيل هذا الكائن ذو "الاستخدام المزدوج" على نطاق واسع بدماغ السيارات ذاتية القيادة، أو بالذراع الثقيلة في المصانع، أو حتى بأنظمة الأمان ومجموعات الطائرات المُسيّرة، كم من الفوضى سيسبب؟ في الهاتف، سيظهر الذكاء الاصطناعي رسالة تقول: "عذرًا، ارتكبت خطأً"؛ لكن في الواقع، فإن انحياز التعرف لمدة ثانية واحدة يُشكّل حادثًا حقيقيًا للسلامة الإنتاجية.
بالإضافة إلى ذلك، يمكن للنماذج الكبيرة أن تُحدَّث كل بضعة أسابيع، بينما يستغرق تعديل البشر لقانون واحد أو تحسين التأمين سنوات. الفترة الفارغة بين هذين الأمرين هي "فترة التعرّي" الأضعف من حيث الدفاع. عندما تحدث كوارث ناتجة عن الذكاء الاصطناعي، لا تمتلك المجتمعات اليوم القدرة على التحمل اللازمة لمواجهتها.
لحل هذه المشكلة، أنشأ TAI فريق Frontier Red Team. ومهمتهم بسيطة وتجريدية للغاية: مهاجمة ومحاولة خداع الوكلاء الذكاء الاصطناعي الذين طوروهم يوميًا، بهدف فهم مدى الضرر الذي يمكن أن يسببه هذا النظام في العالم الحقيقي، من أجل بناء خط دفاع قوي قبل أن ينهار النظام الاجتماعي القديم تمامًا.
في الماضي، كان المبرمجون البشريون هم الذين يقودون سرعة تطور الذكاء الاصطناعي، لكن الآن يمكن للنماذج الكبيرة المتقدمة أن تقرأ الأوراق البحثية وكتابتها بنفسها، وقد تكون قادرة قريبًا على تطوير نماذج كبيرة من الجيل التالي بنفسها. عندما تتسارع سرعة تكرار الذكاء الاصطناعي لنفسه، سيتجاوز التطور التقني بسرعة إدراك البشر.

(مصدر الصورة: مُولَّد بالذكاء الاصطناعي)
للاستعداد لهذه النقطة الفريدة التي قد تأتي في أي لحظة، اقترح TAI مفهومًا جديدًا: إجراء سيناريوهات تدريبية للطوارئ ضد الانفجار الذكي.
ببساطة، يستعد TAI لتنظيم تدريبًا افتراضيًا مع كبار المسؤولين من المختبرات الرائدة وحكومات مختلفة، بهدف اختبار ما إذا كان البشر قادرين على إيقاف العملية قبل حدوث "الانفجار الذكي" الحقيقي.
التنمية والحكم معًا، A Society ضغطت بقوة على الفرامل
في هذه اللحظة التي يركض فيها الصناعة بأكملها بعينين مغلقتين، فإن النظر إلى خطة Anthropic لإنشاء TAI يثير حقًا احترامًا عميقًا.
كل يوم، تتصدر OpenAI القائمة الشهيرة بأخبار استقالات كبار المسؤولين وصراعاتهم الداخلية، أو قضاياها القانونية المتعثرة مع ماسك. كما أن العديد من شركات الذكاء الاصطناعي تعاني من أداء ضعيف، لكنها تسعى جاهدة لـ"التزييف في القوائم" وجمع التمويل من مختلف المصادر، مستغلة التقييمات المبالغ فيها لجذب رأس المال الاجتماعي. الموضوع الذي تناقشه A社 TAI هو موضوع يُناقش باستمرار في الصناعة، لكن موقف معظم كبار شركات الذكاء الاصطناعي هو "لا يهمنا، دعونا نتقدم أولاً". وفي هذا الجو المليء بالاستعجال الشديد، قامت A社 بوضع الكبح المفاجئ، وعرضت هذه الفوضى غير المقبولة بصراحة على الساحة، معلنة موقفاً جديداً تجاه الذكاء الاصطناعي: التقدم مع الإدارة في آنٍ واحد.
شركة A ليست منظمة خيرية، ولا تتأثر بمشاعر التضحية، بل هي تلعب لعبة تجارية ذكية جدًا. الآن، أولئك أصحاب النفوذ والحكومات الذين يملكون الأموال، قد خافوا بالفعل من الحوادث العديدة الناتجة عن الذكاء الاصطناعي: شراء نموذج لا يهم إن كان أداؤه مرتفعًا أو منخفضًا قليلاً، لكن الأهم هو خوفهم من أن يفقد السيطرة فجأة ويسبب كارثة لا يمكن السيطرة عليها. وباستخدام TAI، قامت شركة A ببناء صورة ذات طابع "إنسان عادي" لتجعل المستخدمين يشعرون بالأمان وتجعل العالم يثق بها.

(مصدر الصورة: مُولَّد بالذكاء الاصطناعي)
في نهاية هذه المقالة عن TAI، ذُكر بوضوح أن جميع الأبحاث والإنذارات المبكرة الخاصة بـ TAI ستُدخل مباشرة إلى هيئة أساسية لدى Anthropic تُسمى Long-Term Benefit Trust (صندوق المصلحة الطويلة الأجل). وهدف هذا الصندوق هو مراقبة القرارات التجارية للشركة بدقة، لضمان أن كل إجراء تتخذه Anthropic يخدم المصلحة الطويلة الأجل للبشرية جمعاء، وليس السعي وراء الأرباح المالية قصيرة الأجل.
هذا تمامًا مثل الشعار الشهير الذي صدر عن جوجل في ذلك الوقت: "لا تكن شريرًا": من خلال TAI، تُبلغ A 社 العالم أنه عندما يتنافس المنافسون على من يسرع أكثر، نحن لا نسرع فقط، بل نبحث أيضًا في كيفية التوقف.
الاعتماد على شركات التكنولوجيا الكبرى لمراقبة نفسها بنفسها يبدو أمرًا سخيفًا، لكن في هذا العصر الذي يركض فيه الجميع بعيون مغلقة ودواسة الوقود مثبتة، فإن وجود لاعب رائد يُنشئ مختبرًا مثل TAI ويستثمر أموالًا حقيقية في دراسة المؤشرات الاقتصادية، ومحاكاة الانفجار الذكي، وتحليل تدهور الدماغ البشري، هو أمر يستحق التوقف والتأمل. لذلك أشارت "لي تكنولوجي" في مقدمة مقالها إلى أن إصدار TAI أهم من إصدار شركة A لنموذج جديد مباشرة.
مرفق: جدول أعمال TAI الرسمي، المترجم بواسطة Google Gemini
في معهد أنثروبيك (TAI)، سنستخدم المعلومات المتاحة من المختبرات الرائدة لدراسة تأثير الذكاء الاصطناعي على العالم، وسنشارك نتائج أبحاثنا مع الجمهور. هنا، سنشارك الأسئلة التي تقود جدول أعمالنا البحثي.
تركز خطة بحثنا بشكل رئيسي على المجالات الأربعة التالية:
- الانتشار الاقتصادي
- التهديدات والمرونة
- أنظمة الذكاء الاصطناعي في التطبيقات العملية
- البحث والتطوير المدعوم بالذكاء الاصطناعي
في مقال "النقاط الأساسية لأمان الذكاء الاصطناعي"، أشرنا إلى أن إجراء أبحاث أمنية فعالة يتطلب التفاعل الوثيق مع أنظمة الذكاء الاصطناعي المتقدمة. تنطبق نفس الحجة على إجراء أبحاث فعالة حول تأثيرات الذكاء الاصطناعي على الأمن والاقتصاد والمجتمع.
في Anthropic، رأينا بالفعل تغييرات جذرية تحدث في مجالات مثل هندسة البرمجيات. نحن نشهد تحولاً في البنية الاقتصادية الداخلية لـ Anthropic، ومواجهة الأنظمة التي نبنيها لتهديدات جديدة، حيث تتسارع المؤشرات المبكرة للذكاء الاصطناعي عملية تطوير الذكاء الاصطناعي نفسه. للاستفادة القصوى من تقدم الذكاء الاصطناعي، نرغب في مشاركة هذه المعلومات قدر الإمكان. نحن ندرس كيف ستؤثر هذه الديناميكيات على العالم الخارجي، وكيف يمكن للجمهور المساعدة في توجيه هذه التغييرات.
في TAI، سندرس تأثير الذكاء الاصطناعي على العالم الحقيقي من منظور مختبرات رائدة، ثم ننشر نتائج هذه الدراسات لمساعدة المنظمات الخارجية والحكومات والجمهور على اتخاذ قرارات أفضل بشأن تطور الذكاء الاصطناعي.
سنشارك الأبحاث والبيانات والأدوات لتسهيل إجراء هذه المواضيع البحثية على الباحثين الأفراد والمؤسسات. على وجه التحديد، سنشارك:
- سنحصل على معلومات أكثر تفصيلاً من مؤشرات الاقتصاد البشري بتردد أعلى لفهم تأثير الذكاء الاصطناعي على سوق العمل وتطبيقاته. سنعمل على أن نكون إشارات تحذيرية مبكرة للتغييرات والانقلابات الكبرى.
- دراسة المجالات الاجتماعية التي تحتاج إلى استثمار أكبر لتعزيز مرونتها أمام المخاطر الأمنية الجديدة الناتجة عن الذكاء الاصطناعي.
- قدم مزيدًا من التفاصيل حول كيفية استخدام Anthropic لأدوات الذكاء الاصطناعي الجديدة لتسريع سير العمل، وأهمية التحسين الذاتي التكراري المحتمل لأنظمة الذكاء الاصطناعي.
ستؤثر TAI على قرارات Anthropic. قد يتجلى ذلك في مشاركة الشركة بعض البيانات التي لم تكن ستشاركها خلافًا لذلك (مثل المؤشرات الاقتصادية)، أو نشر التكنولوجيا بطرق مختلفة (مثل تحليلات التهديدات الإلكترونية التي توفر دعمًا بياناتيًا لمشاريع مثل "أجنحة الزجاج").
نتوقع أن تصبح أبحاث معهد TAI مرجعًا متزايد الأهمية لصندوق المصلحة الطويلة الأجل لـ Anthropic (LTBT). تتمثل مهمة LTBT في ضمان استمرار Anthropic في تحسين إجراءاتها لخدمة المصلحة الطويلة الأجل للبشرية. قمنا بتطوير خطة البحث هذه بالتعاون مع LTBT وموظفي مختلف أقسام Anthropic.
هذه جدول أعمال ديناميكي، وليس ثابتًا. سنقوم بتحسين هذه القضايا مع تراكم الأدلة، ونتوقع ظهور بعض القضايا الجديدة التي لم تُغطَّ اليوم. نرحب بتعليقاتكم على جدول الأعمال وسنقوم بتعديلاته بناءً على المعلومات التي نحصل عليها من المناقشات.
إذا كنت مهتمًا بمساعدتنا في الإجابة عن هذه الأسئلة، نرحب بك للتقديم لتصبح باحثًا في Anthropic. يمتد برنامج الباحث هذا لأربعة أشهر، ويتم إرشادك من قبل أعضاء فريق TAI، حيث ستتاح لك فرصة دراسة مشكلة أو أكثر ذات صلة. يمكنك معرفة المزيد والتقديم للدورة القادمة من هنا.
جدول أعمالنا البحثي:
تاريخ آخر تحديث: 7 مايو 2026
الانتشار الاقتصادي
من المهم فهم كيفية تغيير نشر أنظمة الذكاء الاصطناعي المتزايدة القوة للاقتصاد. كما نحتاج إلى تطوير البيانات الاقتصادية والقدرات التنبؤية الضرورية لاختيار طرق نشر الذكاء الاصطناعي التي تعود بالفائدة على الجمهور.
لإجابة الأسئلة المطروحة في هذا الركيزة من الدراسة، سنقوم بتحسين بيانات مؤشر الاقتصاد البشري. كما سنستكشف طرقًا أخرى لتحسين نماذجنا حول كيفية تأثير الذكاء الاصطناعي القوي على المجتمع، سواء كان هذا التأثير يؤدي إلى البطالة، أو نمو اقتصادي غير مسبوق، أو جوانب أخرى.
Application and Diffusion of Artificial Intelligence
- من يعتمد الذكاء الاصطناعي؟ يتركز تطوير الذكاء الاصطناعي في عدد قليل من الشركات في عدد قليل من الدول، لكن نشره عالمي. ما الذي يحدد قدرة دولة أو منطقة أو مدينة على الوصول إلى الذكاء الاصطناعي؟ وإذا تمكنت من الوصول إليه، كيف تستخلص القيمة الاقتصادية منه؟ ما السياسات ونماذج الأعمال التي يمكنها تغيير هذا الوضع بفعالية؟ وكيف تعزز نماذج الأوزان الحرة أو المفتوحة هذا الديناميك؟
- تطبيقات الذكاء الاصطناعي على مستوى المؤسسة: ما أسباب اعتماد الشركات للذكاء الاصطناعي؟ وما هي عواقبه؟ كيف يغير الذكاء الاصطناعي حجم الفريق أو المؤسسة الذي يمكنه تحقيق أعلى كفاءة؟ ما مدى تركيز تطبيقات الذكاء الاصطناعي بين الشركات؟ كيف تتحول تغييرات تركيز تطبيقات الذكاء الاصطناعي إلى أرباح وحصة عمل؟ إذا كان فريقًا أو شركة مكونًا من 3 أشخاص الآن قادرًا على إنجاز ما كان يتطلب سابقًا 300 شخص، كيف ستتغير هياكل الصناعة؟ أو، إذا أصبحت الشركات قادرة على تجميع المعرفة بسهولة أكبر، وكان هذا النهج يحقق وفورات الحجم، هل سنرى شركات أكبر وأوسع انتشارًا، لديها دوافع أكثر لرصد الموظفين بشكل منهجي؟
- هل الذكاء الاصطناعي تقنية عامة؟ هل يتبع الذكاء الاصطناعي نمط "التقنيات العامة" السابقة، حيث ينتشر أسرع في التطبيقات التجارية المربحة، وأبطأ في المجالات التي تكون فيها العوائد الاجتماعية أكبر من العوائد الخاصة؟ هل هناك سياسات أو قرارات يمكنها تغيير هذا الاتجاه؟
الإنتاجية والنمو الاقتصادي
- نمو الإنتاجية: ما التأثير الذي ستُحدثه الذكاء الاصطناعي على سرعة الابتكار ونمو الإنتاجية في الاقتصاد ككل؟
- مشاركة العوائد: ما هي آليات التخصيص المسبق أو إعادة التوزيع التي يمكنها نشر عوائد تطوير ونشر الذكاء الاصطناعي على نطاق أوسع بفعالية؟
- تكلفة التداول في السوق: كيف يؤثر الذكاء الاصطناعي على أنظمة التداول وتكاليف التداول في السوق؟ متى يمكن لوكيل تمثيلك في المفاوضات أن يحسن كفاءة السوق والنتائج العادلة؟ ومتى لا يمكن؟
تأثير واسع على سوق العمل
- الذكاء الاصطناعي والتوظيف: كيف سيغير الذكاء الاصطناعي حالة التوظيف في مختلف مجالات الاقتصاد؟ مع أتمتة الذكاء الاصطناعي للروابط الاقتصادية الحالية، ما هي المهام والوظائف الجديدة التي قد تظهر؟ وما هي الاختلافات المحتملة في هذه التغييرات بين المناطق والدول المختلفة؟ ستقدم لنا "دراسة مؤشر الاقتصاد البشري" شهريًا معلومات حول كيفية رؤية الناس لتأثير الذكاء الاصطناعي على عملهم وتوقعاتهم للمستقبل. كما سنقوم بتحديث مؤشرات الاقتصاد لمشاركة بيانات أكثر تكرارًا وتفصيلًا.
- هل يمكن ضبط سرعة انتشار الذكاء الاصطناعي؟ تقوم البنوك المركزية في مختلف الدول بضبط التضخم من خلال أدوات تنظيمية مثل أسعار الفائدة السياسية والإرشادات التوجيهية. هل يمكن للشركات العاملة في مجال الذكاء الاصطناعي (على مستوى الصناعة، بالتعاون مع الحكومات) اعتماد أدوات تنظيمية مشابهة للتحكم في سرعة انتشار الذكاء الاصطناعي صناعةً تلو الأخرى؟ هل سيؤدي هذا إلى منافع عامة واضحة؟
مستقبل العمل وبيئات العمل
- نظرية العمال للعمل: كيف يرى العمال في مختلف القطاعات التغيرات المهنية؟ وما مدى تأثيرهم على هذه التغيرات؟ هل يمكن الحفاظ على قوة "العمال" أو تحويلها؟
- نظام تطوير الكوادر المتخصصة: تعتمد العديد من الصناعات على الوظائف المبتدئة (مثل مساعدي المحامين، والمحاليل المبتدئين، ومطوري المساعدين) لتدريب المهنيين المتقدمين في المستقبل. إذا استبدل الذكاء الاصطناعي الوظائف التي كانت تُستخدم سابقًا ل积累 الخبرة المتخصصة، فكيف سيصبح الأشخاص خبراء في المقام الأول؟ ماذا يعني هذا لتخزين الكوادر المتقدمة على المدى الطويل في مجال معين؟
- التعلم من أجل المستقبل: ما الذي يجب على الناس تعلمه اليوم للتحضير للمستقبل؟ ما هي المهن المستقبلية؟ كيف سيغير الذكاء الاصطناعي طريقة التعلم وتطوير المهارات المهنية؟
- الأدوار التي تُدفع مقابلها: إذا خفّض الذكاء الاصطناعي بشكل كبير من المكانة المركزية للعمل المدفوع الأجر في حياة البشر، ففي أي ظروف يمكن للناس إعادة توزيع وقتهم وجهودهم على مصادر أخرى ذات معنى؟ وماذا يمكننا أن نتعلّم من الجماعات التاريخية أو المعاصرة التي واجهت ندرة أو عدم أهمية للعمل؟ وكيف ينبغي للمجتمع أن يتعامل مع هذا التحول؟
التهديدات والمرونة
غالبًا ما تستطيع أنظمة الذكاء الاصطناعي تحسين عدة قدرات في آنٍ واحد، بما في ذلك القدرات الثنائية الاستخدام. على سبيل المثال، فإن أنظمة الذكاء الاصطناعي التي تحسّن قدراتها البيولوجية تصبح أيضًا أكثر قدرة على تصنيع الأسلحة البيولوجية. كما أن أنظمة الذكاء الاصطناعي ذات القدرة القوية على برمجة الحواسيب تصبح أيضًا أكثر قدرة على اختراق الأنظمة الحاسوبية. إذا استطعنا فهم أفضل للتهديدات التي قد تُفاقمها أنظمة الذكاء الاصطناعي، فسيصبح من السهل على المجتمع التصدي لهذا التغيير في مشهد التهديدات.
نطرح هذه الأسئلة بهدف تعزيز بناء شراكات تهدف إلى تقوية قدرة العالم على مواجهة الذكاء الاصطناعي التحويلي، وإنشاء أنظمة إنذار مبكر للتهديدات الجديدة المحتملة. ستدل العديد من هذه الأسئلة على خطة بحث فريقنا الأحمر المتقدم.
تقييم المخاطر والقدرة الثنائية:
- تقنية ذات استخدام مزدوج: الذكاء الاصطناعي القوي يمتلك طبيعة ذات استخدام مزدوج: يمكن أن يكون أداة لتحسين الرعاية الصحية والتعليم، كما يمكن استخدامه للمراقبة والقمع. هل يمكننا بناء أدوات قابلة للرصد لفهم ما إذا كان هذا يحدث وكيف يحدث؟
- كيفية تسعير المخاطر بشكل معقول: ما هي الطرق الفعالة القائمة على السوق التي يمكنها تعزيز مرونة المجتمع في مواجهة التهديدات المتوقعة من أنظمة الذكاء الاصطناعي؟ هل يمكننا تطوير أساليب جديدة لتسعير المخاطر، أو تطوير أدوات تقنية ومؤسسات بشرية لتعزيز المرونة قبل وصول التهديدات القابلة للتنبؤ بها (مثل تحسن قدرات الهجمات السيبرانية بالذكاء الاصطناعي)؟
- التوازن بين الهجوم والدفاع: هل ستُعطي القدرة المُمكَّنة بواسطة الذكاء الاصطناعي ميزة جوهرية للمهاجمين في مجالات مثل الفضاء السيبراني والأمان البيولوجي؟ عندما يُطبَّق الذكاء الاصطناعي على مجالات تقليدية أكثر، مثل التكامل المتزايد مع أنظمة القيادة والتحكم، هل يُفيد أيضًا المهاجمين؟ بشكل أوسع، كيف سيغيّر الذكاء الاصطناعي طبيعة الصراع البشري؟
وضع تدابير تخفيف المخاطر:
- خطة الاستجابة للأزمات: خلال الحرب الباردة، كان لدى الرئيس الأمريكي خط مباشر مع الكرملين لاستخدامه في حالات الأزمات النووية. فما هي البنية التحتية الجيوسياسية المطلوبة إذا أثارت أنظمة الذكاء الاصطناعي أزمة؟ هذه البنية التحتية قد لا تكون بالضرورة بين الدول، بل قد تكون بين الشركات أو بين الشركات.
- آلية دفاع أسرع: يمكن لقدرات الذكاء الاصطناعي تحقيق تقدم كبير خلال أشهر، بينما تستغرق الاستجابات التنظيمية والتأمينية والبنية التحتية سنوات عديدة. كيف يمكننا سد هذه الفجوة؟ هل يمكن لآليات الدفاع مثل التصحيح التلقائي، وكشف التهديدات بالذكاء الاصطناعي، أو القدرات الاستجابة المُعدة مسبقًا أن تواكب سرعة وحجم هجمات الذكاء الاصطناعي؟ أم أن هذا عدم التوازن هو هيكلية؟ وكيف يمكننا توظيف هذه الآليات الدفاعية بأكبر قدر ممكن من الفعالية؟
قدرات استخباراتية للمراقبة
- تأثير الذكاء الاصطناعي على المراقبة: كيف سيغير الذكاء الاصطناعي طريقة عمل المراقبة؟ هل سيقلل تكاليف المراقبة، أم يزيد كفاءتها، أم كليهما معًا؟
أنظمة الذكاء الاصطناعي في التطبيقات العملية
ستصبح تفاعلات البشر مع المنظمات وأنظمة الذكاء الاصطناعي مصدرًا مهمًا للتغيير الاجتماعي. إن فهم كيفية تغيير أنظمة الذكاء الاصطناعي المحتملة للأشخاص والمؤسسات التي تتفاعل معها هو مجال بحثي أساسي لفريق تأثيرنا الاجتماعي. لدراسة هذه التغييرات، نحن نقوم بتحسين الأدوات الحالية وتطوير أدوات جديدة لإجراء أبحاث تغطي جوانب متعددة، بدءًا من البرمجيات التي تعزز قابلية مراقبة المنصات وحتى الأدوات المستخدمة لإجراء استبيانات نوعية على نطاق واسع.
تأثير الذكاء الاصطناعي على الأفراد والمجتمع:
- نظرية المعرفة الجماعية: ما الذي يحدث لمعرفتنا عندما يعتمد جزء كبير من السكان على نفس النماذج القليلة؟ هل يمكننا إيجاد طرق لقياس التغييرات الواسعة النطاق في المعتقدات وأساليب الكتابة وحل المشكلات الناتجة عن الاستخدام المشترك للذكاء الاصطناعي؟
- التفكير النقدي: مع تزايد قوة وموثوقية أنظمة الذكاء الاصطناعي، كيف يمكننا اكتشاف وتجنب تدهور قدرات البشر على التفكير النقدي نتيجة الاعتماد المتزايد على أحكام الذكاء الاصطناعي؟
- الواجهة التقنية: تحدد الواجهة التقنية كيفية تفاعل الناس مع التكنولوجيا — التلفزيون يجعل الناس متفرجين سلبيين، بينما تجعل الحواسيب الناس أكثر قدرة على أن يصبحوا مبدعين. ما نوع الواجهات التي يمكننا بناؤها لتحسين أنظمة الذكاء الاصطناعي وتعزيز الاستقلالية البشرية؟
- إدارة نظام التعاون بين الإنسان والآلة: كيف يمكن للإنسان إدارة فرق مكونة من البشر وأنظمة الذكاء الاصطناعي؟ وبالمقابل، كيف يمكن لأنظمة الذكاء الاصطناعي إدارة فرق مكونة من البشر، أو الذكاء الاصطناعي، أو مزيج من الاثنين؟
تحديد التأثيرات الكبيرة الناتجة عن الذكاء الاصطناعي:
- التأثير السلوكي: كما أن وسائل التواصل الاجتماعي تؤثر على سلوك الناس، فقد تشكل الذكاء الاصطناعي السلوك البشري أيضًا. ما هي أساليب المراقبة أو القياس التي يمكن أن تساعد الباحثين على فهم هذه الديناميكيات المتغيرة؟
- تعزيز البحث: هل توجد آليات وأدوات شفافة تسمح للجمهور الواسع (وليس فقط الشركات الرائدة في الذكاء الاصطناعي) بدراسة تطبيقات الذكاء الاصطناعي في العالم الحقيقي بسهولة؟
فهم وإدارة نماذج الذكاء الاصطناعي:
- قيم النظام: ما هي "القيم" التي تعبر عنها أنظمة الذكاء الاصطناعي؟ وكيف ترتبط هذه القيم بطريقة تدريب النظام؟ وبشكل أكثر تحديدًا، كيف يمكننا قياس تأثير "تركيب" الذكاء الاصطناعي على سلوكه بعد النشر؟ سنوسع البحث السابق المتعلق بهذه الأسئلة.
- حكم الوكلاء الذاتيين: ما الجوانب من القوانين والأنظمة والآليات الحالية للمساءلة التي يمكن تطبيقها على الوكلاء الاصطناعيين الذاتيين؟ على سبيل المثال، كيف تعالج قانون البحر قضايا الهجران، وما علاقة ذلك بكيفية تعامل القانون مع الوكلاء الذاتيين غير الخاضعة للرقابة. على العكس، هل توجد جوانب في القوانين الحالية تُطبق بالفعل على الوكلاء الاصطناعيين ولكنها لا ينبغي تطبيقها؟
- موثوقية الوكلاء: ما الجوانب من وكلاء الذكاء الاصطناعي الذاتيين التي يمكن ضبطها لتتوافق مع القوانين الحالية وأنظمة الحوكمة وآليات المساءلة؟ على سبيل المثال، هل يمكننا ضمان امتلاك وكلاء الذكاء الاصطناعي لهوية فريدة وموثوقة، حتى في غياب التحكم البشري المباشر؟
- إدارة الذكاء الاصطناعي بالذكاء الاصطناعي: كيف يمكننا الاستفادة بفعالية من الذكاء الاصطناعي لإدارة أنظمة الذكاء الاصطناعي؟ وفي أي مجالات من مجالات تنظيم الذكاء الاصطناعي يمتلك البشر ميزة نسبية، أو يُطلب منهم "المشاركة" بموجب متطلبات قانونية أو تنظيمية؟
- التفاعل بين الوكلاء: ما هي المعايير التي تظهر عند تفاعل الوكلاء الاصطناعيين مع بعضهم البعض؟ كيف يعبر الوكلاء المختلفون عن تفضيلاتهم المختلفة، وكيف تؤثر هذه التفضيلات على الوكلاء الأخرى؟
البحث والتطوير المدعوم بالذكاء الاصطناعي
مع تزايد قوة أنظمة الذكاء الاصطناعي، يستخدم العلماء هذه الأنظمة في مزيد من الأبحاث. وهذا يعني أن عددًا متزايدًا من الأبحاث العلمية تُجرى بطريقة ذاتية أو شبه ذاتية مع تدخل بشري أقل. في مجال أبحاث الذكاء الاصطناعي، يمكن استخدام الأنظمة الأكثر قوة لتطوير إصداراتها التالية. نحن نسمي أحيانًا هذا النموذج "تطوير الذكاء الاصطناعي المدعوم بالذكاء الاصطناعي".
قد يكون تطوير الذكاء الاصطناعي بواسطة الذكاء الاصطناعي "المنفعة الطبيعية" لبناء أنظمة أكثر ذكاءً وقوة. وكما أن تقدم القدرة على البرمجة أدى إلى تطوير قدرات إلكترونية مزدوجة الاستخدام، فقد يؤدي تقدم القدرة العلمية إلى تطوير قدرات بيولوجية مزدوجة الاستخدام، وقد يؤدي تقدم العمل التقني المعقد بشكل طبيعي إلى إنشاء أنظمة ذكاء اصطناعي قادرة على تطوير نفسها.
يحتوي تطوير الذكاء الاصطناعي المدعوم بالذكاء الاصطناعي على مخاطر محتملة هائلة. عند تقييم التدابير الممكن اتخاذها، من الحاسم أن يفهم صانعو السياسات اتجاهات تغير سرعة تطور الذكاء الاصطناعي، وما إذا كان البحث في الذكاء الاصطناعي سيبدأ في إنتاج تأثير تراكمي.
Artificial Intelligence for Artificial Intelligence Development
- حوكمة تطوير الذكاء الاصطناعي: إذا تم استخدام أنظمة الذكاء الاصطناعي لتطوير نفسها وتحسينها بشكل مستقل، كيف يمكن للبشر أن يفهموا ويتحكموا في هذه الأنظمة بفعالية؟ في النهاية، ما الذي سيحكم هذه الأنظمة؟
- تمرين طوارئ انفجار المعلومات: كيف نقوم بتمرين طوارئ انفجار المعلومات؟ كيف نُجري تمرينًا مكتبيًا لاختبار قدرة قيادة المختبر، ومجلس الإدارة، والحكومة على اتخاذ القرارات؟
- قياس تقدم تطوير الذكاء الاصطناعي: كيف يمكننا قياس السرعة الإجمالية لتطوير الذكاء الاصطناعي؟ ما التقنيات والدعم الأساسي المطلوب لجمع هذه المعلومات؟ كيف يمكن أن تعمل مؤشرات تطوير الذكاء الاصطناعي كإشارات تحذيرية مبكرة للتحسين الذاتي التكراري؟
- التحكم في التسارع المتسارع للذكاء الاصطناعي: إذا كان الانفجار الذكي على وشك الحدوث، فما هي نقاط التدخل التي يمكنها تقليل أو تغيير سرعة هذا الانفجار؟ بافتراض أن البشر يمكنهم التدخل، فما هي الكيانات التي يجب أن تمارس هذه القدرة — الحكومات؟ الشركات؟
تطبيق الذكاء الاصطناعي في مجال البحث والتطوير – أي البحث في مجالات أخرى مدعوم بالذكاء الاصطناعي:
- شجرة التكنولوجيا: تُسرّع الذكاء الاصطناعي تطور بعض المجالات العلمية بمعدل أسرع بكثير من غيرها، وهذا يعتمد على توفر البيانات، ومقاييس التقييم، وكمية المعرفة الضمنية أو الخاضعة للقيود المؤسسية. ما مدى عدم التوازن في هذا التدرج التنموي؟ وما المشكلات البشرية التي ستُعطى أولوية للحل نتيجة التغييرات التي تشكلها التقدمات العلمية؟
- الحدود الوعرة: تتفوق قدرات النموذج في بعض المجالات مقارنةً بغيرها. المجالات ذات العوامل الخارجية الإيجابية الكبيرة — مثل تطوير الأدوية وعلوم المواد — تتلقى استثمارات أقل بكثير من المستوى الذي تستحقه قيمتها. يوجه السوق تحسينات النموذج بناءً على العوائد الخاصة، لكن هل يمكننا تحسين أداء النموذج للتعامل مع العوامل الخارجية الاجتماعية؟
هذا المقال من حساب وينشين العام "مختبر القيمة" (ID: jiazhiyanjiusuo)، الكاتب: دينغشي
