Anthropic запускає Anthropic Institute для вивчення впливу ШІ на суспільство та економіку

icon MarsBit
Поділитися
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconКороткий зміст

expand icon
Anthropic запустила Інститут Anthropic (TAI) для вивчення впливу ШІ на суспільство та економіку. Ініціатива зосереджена на чотирьох напрямках: економічне поширення, загрози та стійкість, реальні системи ШІ та дослідження, спричинені ШІ. TAI аналізуватиме вплив ШІ на роботу, безпеку та поведінку, а також готуватиметься до ризиків, таких як зловживання та когнітивне делегування. Група також проводитиме симуляції штучного інтелекту, що викликають збурення. Ця новина про ШІ та криптовалюту підкреслює зростаючу перетинку між новинами на ланцюгу та дослідженнями ШІ.

Вчора вночі новий ігровий учасник у сфері ШІ Anthropic (у подальшому скорочено як A-соціальний) не випустив нову модель Claude, а замість цього представив щось, що виглядало дуже «нудним»: The Anthropic Institute (Інститут Anthropic, скорочено TAI).

У порівнянні з Harness Engineering (інженерією управління), яка була популярною у 2026 році, TAI вирішує більш масштабні проблеми. Згідно з дослідницькою програмою, опублікованою Anthropic (anthropic-institute-agenda), TAI зосереджується на чотирьох напрямках: економічне поширення, загрози та стійкість, системи ШІ у практичному застосуванні та дослідження, спричинені ШІ. TAI також публічно викликає дослідників по всьому світу працювати разом над вирішенням цих проблем.

Економічний індекс

(Джерело зображення: X@Anthropic офіційний)

Тобто, компанія A (скорочено Anthropic) створила внутрішню організацію, яка головним чином досліджує, як люди мають взаємодіяти з ІІ:

  • Як штучний інтелект вплине на зайнятість та економіку?
  • Які нові ризики безпеки це призведе?
  • Чи зміняться поведінка та судження людей після реального використання ШІ?
  • Коли ШІ почне допомагати у розробці потужнішого ШІ, як слід розуміти та обмежувати цей прискорений процес?

Можливо, багато читачів вважатимуть це звичайною дією AI-компанії, але Lei Technology вважає, що це може бути найважливішою дією A-соцієтету за останній час. Позитивний вплив TAI на AI-індустрію та людство подібний до того, як Google колись запровадив ціннісну парадигму «Не будь злим» для інтернет-індустрії. Саме тому Lei Technology AGI стверджує, що це «випуск», який не поступається за значущістю величезному оновленню моделі.

Штучний інтелект глибоко впливає на економіку: не лише на робочі місця

Основним напрямком досліджень TAI є Economic Diffusion.

Поглядаючи на перші три промислові революції в історії людства, будь то машини Дженні, гуркіт парових двигунів чи пізніше електрика та конвеєрні лінії, вони замінювали в основному дуже дешеву та повторювану фізичну працю. Однак четверта промислова революція, спричинена ШІ, принципово відрізняється — вона безпосередньо входить у сферу найбільш високих інтелектуальних здібностей людини.

А ключовий суперечливий момент, на який звернув увагу TAI, полягає в тому, що інструменти удосконалилися, але становище працівників стало гіршим.

У дослідженні тексту TAI зазначається, що якщо майбутні 3 людини зможуть виконати роботу, яку раніше виконували 300 людей, завдяки величезним моделям, то яким стане ця компанія?

Дизайнери за допомогою ШІ можуть одним кліком вирішити найбільш нудні шари та матеріали, програмісти за допомогою ШІ можуть робити Vibe Coding... Припустимо, ШІ підвищує продуктивність на 75%, але це не призведе до скорочення робочого дня людини з 8 годин (навіть 996) до 2 годин. Навпаки, людям, ймовірно, доведеться виконувати в п’ять разів більше роботи.

TAI зосереджується на новій логіці: «З появою ШІ ваше навантаження має збільшитися в кілька разів». Щоб кількісно оцінити цю ситуацію, TAI ввів новий термін — The Anthropic Economic Index (Anthropic економічний індекс). A社 заявляє, що вони не збираються публікувати лише академічні статті, якими ніхто не цікавиться, а навпаки — планують відкрито представити ці реальні дані, щоб чітко повідомити людству: у яких галузях ШІ таємно замінює робочі місця, які раніше належали людям? Чи будуть молоді фахівці вибиті з ринку ще до початку своєї кар’єри?

Економічний індекс

(Джерело зображення: згенеровано ШІ)

Крім того, TAI врахував це в реальному світі. Ми всі знаємо, що великі моделі — це ніколи не насичена «зlatа пожираюча тварина»: кожен раз, коли ми використовуємо AI для генерації тексту, зображень, відео або навіть простого запиту, ми споживаємо величезну кількість токенів. Токени ґрунтуються на обчислювальних потужностях, які, у свою чергу, залежать від чіпів, сховищ та електроенергії; якщо заглибитися ще глибше, то це також стосується викидів вуглецю, капіталу тощо. Ресурси завжди обмежені, і коли суспільство спрямовує масштабні ресурси на AI, інші галузі обов’язково постраждають.

У 2026 році найбільш помітним відчуттям було: дефіцит пам’яті та сховища, спричинений штучним інтелектом, безпосередньо призвів до загального підвищення цін на споживчу електроніку, навіть виробники смартфонів були змушені зменшити бажання запускати нові моделі. Одночасно всі виробники смартфонів сподівалися використати ШІ для перебудови логіки продуктів та продовження життєвого циклу смартфонів, а оригінальний смартфон OpenAI вже був включений до розкладу. Коли кожен отримує користь від ШІ, більше галузей глибоко впливаються на нього — як позитивно, так і негативно.

А TAI використовує «економічний індекс», щоб перетворити абстрактне сприйняття впливу ШІ на економіку на числові моделі: лише розуміючи проблему, можна її вирішити.

Кінцева криза: людство «вивозить» власний мозок

Якщо втрата роботи — це як різати м’ясо тупим ножем, то зміна мислення людського мозку під впливом ШІ — це прямий ушкодження.

Першими, хто постраждає, стануть інтернет. Не важко помітити, що сьогоднішній інтернет перетворюється на «гірську купу ганьби»: раніше можна було легко знайти багато постів із порадами про те, як уникнути помилок під час подорожей, а зараз там лише AI-контент, який виглядає витончено та добре оформлений, але повністю вигаданий та порожній.

Ще гірше те, що ШІ знизив бар’єри для сірих індустрій до нуля: за допомогою ШІ замінюється обличчя для поширення порнографічних чуток, клонуються голоси рідних для телефонних мошенництв — шахраїв достатньо спалити кілька токенів, щоб зруйнувати життя звичайних людей.

TAI також звернув увагу на глибшу кризу: ШІ непомітно робить людей все більш «глупими».

Раніше китайські користувачі виявили невідомі дикоростучі гриби на відкритому повітрі, зробили їхній знімок і надіслали його ШІ з питанням: «Чи можна їсти це?» ШІ серйозно визначив отруйний гриб як «їстівну смачну шампіньйон». Також дитина запитала ШІ, що це за пристрій — мишенята, і ШІ серйозно проаналізував, що це «квадратний, з металевою конструкцією, залишок дитячої іграшки-картинга» — і дитина, зацікавившись, доторкнулася до нього, після чого її палець був щільно зажатий.

Ці новини звучать як жахливий жарт, але вони відображають явище: найбільша особливість ШІ — це не розум, а «дивна самовпевненість». ШІ ніколи не зможе досягти 100% точності; найновіша модель Google Gemini досягає приблизно 91% точності фактів — це вже високий рівень. Проте багато користувачів у процесі використання ШІ незамітно відмовляються від мислення та звикають передавати всі рішення «на аутсорсинг» рядку коду.

На це TAI задав глибоке питання: коли значна частина суспільства звертається за порадами лише до двох-трьох великих моделей, яким чином зміниться спосіб мислення та підходи до вирішення проблем у людській групі? Ви вважаєте, що використовуєте AI-інструменти для підвищення продуктивності та рівня пізнання, а насправді «офшорите свій мозок». Іншими словами, якщо всі почнуть залежати від AI, це може призвести до втрати здатності до автономного мислення, перетворивши мозки всього людства на копії, вирізані з одного шаблону.

Штучний інтелект має двоїстий характер, як запобігти інтелектуальному вибуху?

TAI також запровадив нове поняття: подвійне призначення (Dual-use capabilities). Офіційне пояснення: якщо здатності AI-моделі в біології зростають, вона може використовуватися не лише для розробки нових ліків, а й для створення надзвичайно смертельних біологічних зброї; якщо AI чудово пише код, він не лише чудовий програміст, а й хакер, здатний легко взламати внутрішні мережі держави.

Економічний індекс

(Джерело зображення: офіційний сайт Anthropic)

Коли цей монстр з «двоїстим призначенням» масово під’єднується до мозку автономних автомобілів, до важких маніпуляторів на заводах, а навіть до систем безпеки та груп дронів, який розмір катастрофи це викличе? У телефоні ШІ виведе повідомлення: «Вибачте, я зробив помилку»; але у реальному світі одна секунда помилки в ідентифікації — це реальна аварія на виробництві.

Тим більше, великі моделі можуть ітеруватися кожні кілька тижнів, тоді як людство змінює законодавство, вдосконалює страхові системи лише на рівні «років». Цей проміжок часу — це період найнижчої захищеності, «нагого» існування. Коли відбуваються різноманітні катастрофи, спричинені ШІ, сучасне суспільство просто не має достатньої стійкості, щоб їх витримати.

Щоб вирішити цю проблему, TAI створив Frontier Red Team. Їх завдання було простим, але абстрактним: щодня різними способами атакувати та провокувати власні розроблені AI-агенти, щоб зрозуміти, який потенційний шкідливий вплив вони можуть мати у реальному світі, і встигнути встановити захисну бар’єру до того, як ця застаріла соціальна система повністю розвалиться.

Раніше швидкість еволюції ШІ визначали людські програмісти, але зараз просунуті великі моделі можуть самостійно аналізувати наукові статті та писати код, і в майбутньому можуть самостійно розробляти нове покоління великих моделей. Коли швидкість самоповторення ШІ буде зростати, еволюція технологій швидко випередить людське розуміння.

Економічний індекс

(Джерело зображення: згенеровано ШІ)

Щоб підготуватися до цієї точки, що може настати будь-коли, TAI запропонував нове поняття: проведення сценаріїв Fire drill для інтелектуального вибуху.

Просто кажучи, TAI готує симуляцію з керівниками провідних лабораторій та урядами країн: вони збираються перевірити, чи здатні люди зупинити процес до того, як «розумний вибух» стане реальністю.

Розвиваючи та регулюючи одночасно, A-спільнота серйозно натиснула на гальмо

На тлі того, що вся галузь мчить вперед з закритими очима, звернення до дій Anthropic щодо створення TAI справді викликає «повагу».

Сусідня OpenAI щодня потрапляє у тенденції не через відхід керівництва та внутрішні суперечки, а через складні судові справи з Маском. Багато AI-компаній мають погані фінансові показники, але одночасно намагаються «підняти» себе у рейтингах та збирати інвестиції, опираючись на завищену оцінку та приваблюючи суспільні капітали. Тема, яку A社 TAI планує обговорити, вже довго обговорюється в галузі, але більшість великих AI-гігантів підходять до цього з позицією: «Хай буде, спочатку розвиваймося». У цьому надзвичайно нестабільному середовищі A社 різко зупиняється й відкрито висвітлює ці темні боки, демонструючи новий підхід до AI: розвиватися одночасно з регулюванням.

Компанія A — не благодійна організація, вона не впала в емоційний вихід, а грає дуже розумну бізнес-гру. Сьогодні ті, хто має велику владу — інвестори та уряди — уже настільки злякалися різних крахів, спричинених ШІ, що їм байдуже, чи модель показує трохи вищий чи нижчий результат; найбільшого страху вони бояться — що вона раптово збожеволіє й спричинить велику катастрофу, яку буде неможливо зупинити. Компанія A створила собі образ «звичайної людини» за допомогою TAI, щоб користувачі відчували безпеку, а світ довіряв.

Економічний індекс

(Джерело зображення: згенеровано ШІ)

У кінці цієї статті про TAI зазначається: всі дослідження та ранні попередження TAI безпосередньо передаються одному з ключових органів Anthropic — Long-Term Benefit Trust (Довгостроковий довірчий фонд). Місія LTBT полягає в тому, щоб уважно стежити за комерційними рішеннями компанії, забезпечуючи, щоб кожен крок Anthropic був спрямований на довгострокову користь усього людства, а не на досягнення короткострокової прибутковості.

Це точно так само, як знаменита фраза Google того часу «Не будь злим»: за допомогою TAI A-соціети повідомляє світу, що, коли конкуренти змагаються, хто швидше розганяється, ми не лише швидко рухаємося, а й досліджуємо, як зупинитися.

Очікувати, що технологічні гіганти самі себе будуть контролювати, дійсно трохи абсурдно, але в епоху, коли всі їдуть з зав’язаними очима й газом, закріпленим на підлозі, те, що провідний гравець самостійно створив інститут TAI, інвестував реальні гроші в дослідження економічних індексів, моделювання інтелектуального вибуху та вивчення деградації людського мозку — це вже варте уваги. Тому雷科技 на початку зазначив, що запуск TAI важливіший, ніж пряме випускання нової моделі компанією A.

Додаток: Офіційна програма TAI, перекладена за допомогою Google Gemini

У Інституті Антропік (TAI) ми використовуватимемо інформацію, доступну передовим лабораторіям, щоб досліджувати вплив штучного інтелекту на світ і ділитися нашими дослідженнями з громадськістю. Тут ми поділимося питаннями, що лежать в основі нашої дослідницької програми.

Наша дослідницька програма зосереджена переважно на чотирьох напрямках:

  • Економічне розширення
  • Загрози та стійкість
  • Штучний інтелект у практичному застосуванні
  • Розробка з використанням штучного інтелекту

У статті «Основні ідеї щодо безпеки штучного інтелекту» ми зазначили, що для проведення ефективних досліджень у галузі безпеки необхідно тісно взаємодіяти з передовими системами штучного інтелекту. Те саме стосується і проведення ефективних досліджень щодо впливу штучного інтелекту на безпеку, економіку та суспільство.

У Anthropic ми вже побачили, що такі галузі, як програмна інженерія, зазнають фундаментальних змін. Ми спостерігаємо, як внутрішня економіка Anthropic починає змінюватися, а наші системи стикаються з новими загрозами — ранні ознаки штучного інтелекту прискорюють власний розвиток штучного інтелекту. Щоб повністю використати переваги прогресу в галузі штучного інтелекту, ми хочемо поділитися цією інформацією з якомога більшою кількістю людей. Ми досліджуємо, як ці динамічні зміни впливатимуть на зовнішній світ, і як громадськість може допомогти керувати цими змінами.

У TAI ми досліджуємо вплив штучного інтелекту на реальний світ з позиції передових лабораторій, а потім публікуємо ці дослідження, щоб допомогти зовнішнім організаціям, урядам та громадськості приймати більш обґрунтовані рішення щодо розвитку штучного інтелекту.

Ми поділимося дослідницькими результатами, даними та інструментами, щоб індивідуальним дослідникам та установам було простіше проводити ці дослідження. Зокрема, ми поділимося:

  • Ми збираємося отримувати більш детальну інформацію з людських економічних індексів з більшою частотою, щоб зрозуміти вплив та застосування штучного інтелекту на ринок праці. Ми прагнемо стати ранніми сигналами тривоги щодо великих змін та зрушенень.
  • Дослідження того, які соціальні сфери найбільше потребують інвестицій для підвищення стійкості перед новими загрозами безпеки, пов’язаними з штучним інтелектом.
  • Більш детально розгляньте, як Anthropic використовує нові інструменти ШІ для прискорення роботи, а також значення потенційної рекурсивної самовдосконалення систем ШІ.

TAI вплине на рішення Anthropic. Це може проявлятися у тому, що компанія поділиться зовнішніми даними, які інакше не розголошувала б (наприклад, економічними індексами), або інакше опублікує технології (наприклад, аналіз кіберзагроз, які надають дані для таких програм, як «Glass Wings»).

Ми очікуємо, що дослідницька робота, що проводиться Інститутом TAI, все більше стане важливим посібником для Довгострокового довірчого фонду Anthropic (LTBT). Місія LTBT полягає у забезпеченні постійної оптимізації дій Anthropic з метою сприяння довгостроковій користі людства. Цей дослідницький план було розроблено спільно з LTBT та працівниками різних відділів Anthropic.

Це динамічна програма, а не незмінна. Ми будемо постійно вдосконалювати ці питання по мірі накопичення доказів і очікуємо з’явлення нових питань, які сьогодні не охоплені. Ми вітаємо ваші зауваження щодо цієї програми та змінимо її на основі інформації, отриманої в ході обговорень.

Якщо ви зацікавлені у допомозі нам у вирішенні цих питань, ми запрошуємо вас подати заявку на посаду дослідника Anthropic. Цей проект триває чотири місяці, під керівництвом членів команди TAI, і ви отримаєте можливість досліджувати одне або кілька пов’язаних питань. Більше інформації та подання заявки на наступний цикл ви можете знайти тут.

Наша дослідницька програма:

Останнє оновлення: 7 травня 2026 року

Економічне розширення

Важливо розуміти, як розгортання все більш потужних систем штучного інтелекту змінює економіку. Нам також потрібно розробити необхідні економічні дані та прогностичні здібності, щоб вибирати способи розгортання штучного інтелекту, які принесуть користь громадськості.

Щоб відповісти на питання, поставлені в цьому стовпці дослідження, ми додатково покращимо дані в Індексі людської економіки. Ми також дослідимо інші методи для покращення нашої моделі щодо того, як потужний штучний інтелект впливає на суспільство — незалежно від того, чи призводить цей вплив до безробіття, безпрецедентного економічного зростання чи інших аспектів.

Застосування та поширення штучного інтелекту

  • Хто впроваджує штучний інтелект? Розробка штучного інтелекту зосереджена в кількох країнах та кількох компаніях, але його впровадження має глобальний характер. Що визначає, чи може країна, регіон або місто отримати доступ до штучного інтелекту? Якщо доступ до штучного інтелекту є, як вони можуть отримати економічну вигоду з нього? Які політики та бізнес-моделі можуть ефективно змінити цю ситуацію? Як відкриті або вільні вагові моделі сприяють зміні цієї динаміки?
  • Застосування штучного інтелекту на рівні підприємств: чому підприємства впроваджують штучний інтелект? Якими є наслідки? Як штучний інтелект змінює масштаб, до якого підприємство або команда можуть досягти максимальної ефективності? Наскільки концентрованим є застосування штучного інтелекту між підприємствами? Як зміни в концентрації застосування штучного інтелекту впливають на прибутковість та частку праці? Якщо тепер команда з 3 осіб або компанія може виконувати роботу, яку раніше виконували 300 людей, як зміниться структура галузі? Або, якщо підприємства зможуть легше концентрувати знання, і такий підхід призведе до ефекту масштабу, чи ми побачимо більші та більш розширені підприємства, які матимуть більше мотивації систематично стежити за працівниками?
  • Чи є штучний інтелект універсальною технологією? Чи дотримується штучний інтелект попереднього шаблону «універсальних технологій», коли він найшвидше поширюється в прибуткових комерційних застосуваннях, але найповільніше — у сферах, де суспільна вигода перевищує приватну? Чи існують політичні чи рішенні, які можуть змінити цю тенденцію?

Продуктивність та економічний ріст

  • Зростання продуктивності: Як штучний інтелект вплине на швидкість інновацій та зростання продуктивності всієї економіки?
  • Поділ прибутку: які механізми попереднього розподілу або перерозподілу можуть ефективно ширше поширити прибуток від розробки та впровадження штучного інтелекту?
  • Вартість угод на ринку: як штучний інтелект впливає на торгівельні системи та вартість угод на ринку? Коли варто доручити агентам представляти вас у переговорах, щоб підвищити ефективність ринку та досягти справедливих результатів? А коли — ні?

Широкий вплив на ринок праці

  • Штучний інтелект та зайнятість: Як штучний інтелект змінить стан зайнятості в різних секторах економіки? Які нові завдання та робочі місця можуть з’явитися внаслідок автоматизації існуючих економічних процесів штучним інтелектом? Як ці зміни будуть відрізнятися між різними регіонами та країнами? Наше «Дослідження індексу людської економіки» щомісяця надаватиме інформацію про те, як люди сприймають вплив штучного інтелекту на свою роботу та які вони мають очікування щодо майбутнього. Ми також оновлюватимемо економічний індекс, щоб надавати більш частотні та детальні дані.
  • Чи можна регулювати швидкість поширення штучного інтелекту? Центральні банки країн використовують такі «інструменти регулювання», як політичні ставки та попередні вказівки, щоб зменшити інфляцію. Чи можуть компанії зі штучним інтелектом (на галузевому рівні, у співпраці з урядами) застосовувати подібні інструменти регулювання, щоб керувати швидкістю поширення штучного інтелекту по галузях? Чи принесе це значну суспільну користь?

Майбутнє роботи та робочих місць

  • Погляд працівників на роботу: як працівники різних галузей сприймають зміни в професіях? Який вплив вони мають на ці зміни? Чи можна зберегти або трансформувати «силу» працівників?
  • Система підготовки професійних кадрів: багато галузей залежать від початкових посад (наприклад, асистенти юристів, молодші аналітики та асистенти розробників) для підготовки майбутніх висококваліфікованих фахівців. Якщо штучний інтелект замінює роботи, які раніше використовувалися для накопичення професійних знань, то як люди зможуть спочатку стати експертами? Що це означає для довгострокового запасу висококваліфікованих кадрів у цій галузі?
  • Навчання майбутнього: що варто вивчати сьогодні, щоб підготуватися до майбутнього? Які професії будуть майбутніми? Як штучний інтелект змінить спосіб навчання та розвитку професійних навичок?
  • Ролі з оплатою праці: якщо штучний інтелект значно знизить центральну роль оплачуваної праці у житті людини, то за яких умов люди зможуть перерозподілити свій час і енергію на інші значущі джерела? Що ми можемо вивчити з історичних або сучасних груп, у яких праця була рідкісною або необов’язковою? Як суспільство має реагувати на такі зміни?

Загрози та стійкість

Штучні інтелектуальні системи часто здатні одночасно підвищувати кілька здібностей, включаючи двоїсті здібності. Наприклад, штучний інтелект з підвищеними біологічними здібностями легше здатний створювати біологічну зброю. Штучний інтелект з високими навичками комп’ютерного програмування також легше здатний вторгатися в комп’ютерні системи. Якщо ми зможемо краще розуміти загрози, які можуть посилюватися штучним інтелектом, суспільство зможе легше реагувати на такі змінені загрози.

Ми ставимо ці питання, щоб допомогти встановити партнерства для підсилення здатності світу реагувати на трансформаційне штучне інтелектуальне середовище та створити системи попередження про нові загрози, які можуть виникнути. Багато з цих питань будуть керувати нашою передовою програмою досліджень червоної команди.

Оцінка ризиків і двоїстої здатності:

  • Двоїста природа технологій: потужний штучний інтелект за своєю природою має двоїсту природу — він може використовуватися як інструмент для покращення охорони здоров’я та освіти, так і для спостереження та придушення. Чи можемо ми створити інструменти спостережуваності, щоб зрозуміти, чи відбувається це, і як саме?
  • Як раціонально оцінити ризик: які існують ефективні, ринково обумовлені методи для підвищення стійкості суспільства до передбачуваних загроз з боку систем штучного інтелекту? Чи можемо ми розробити нові методи оцінки ризику або створити технічні інструменти та людські організації, щоб підвищити стійкість до передбачуваних загроз, таких як зростання здатності до кібератак з використанням штучного інтелекту?
  • Баланс атаки та захисту: чи надасть здатність, забезпечена штучним інтелектом, фундаментальну перевагу атакуючим у таких галузях, як кіберпростір та біобезпека? Коли штучний інтелект застосовується до більш традиційних сфер, наприклад, у поєднанні з системами керування та контролю, чи також це користує атакуючим? Більш загально, як штучний інтелект змінить природу людських конфліктів?

Розробіть заходи щодо зменшення ризиків:

  • План реагування на кризу: під час холодної війни президент США мав пряму лінію з Кремлем для використання у випадку ядерної кризи. Тоді яка геополітична інфраструктура знадобиться, якщо кризу викличе система штучного інтелекту? Така інфраструктура не обов’язково має бути міждержавною — вона може бути між компаніями або навіть між компаніями.
  • Швидші механізми захисту: здатності штучного інтелекту можуть досягти значного прогресу за кілька місяців, тоді як реакція регуляторів, страхових компаній та інфраструктури вимагає років. Як ми можемо заповнити цей розрив? Чи зможуть механізми захисту, такі як автоматичні патчі, виявлення загроз штучного інтелекту або попередньо розгорнуті засоби реагування, поспішати за швидкістю та масштабом атак штучного інтелекту? Чи є ця асиметрія структурною? І як ми можемо максимально ефективно розгорнути ці механізми захисту?

Інтелектуальні здібності для спостереження

  • Вплив штучного інтелекту на спостереження: як штучний інтелект змінить спосіб функціонування спостереження? Чи знизить він витрати на спостереження, чи підвищить його ефективність, чи обидва ці фактори разом?

Штучний інтелект у практичному застосуванні

Взаємодія людей та організацій з системами штучного інтелекту стане важливим джерелом соціальних змін. Розуміння того, як системи штучного інтелекту можуть змінити людей та інституції, що з ними взаємодіють, є ключовим напрямком досліджень нашої команди з впливу на суспільство. Для вивчення цих змін ми вдосконалюємо існуючі інструменти та розробляємо нові, що охоплюють все — від програмного забезпечення для підвищення спостережуваності платформи до інструментів для проведення масштабних якісних досліджень.

Вплив штучного інтелекту на окрему особу та суспільство:

  • Групова епістемологія: що відбувається з нашою епістемологією, коли велика частина населення використовує одні й ті ж кілька моделей? Чи можемо ми знайти способи вимірювання масштабних змін у переконаннях, стилі письма та методах розв’язання проблем, спричинених спільним використанням штучного інтелекту?
  • Критичне мислення: Як ми можемо виявляти й уникати зниження здатності людини до критичного мислення через зростаючу залежність від суджень штучного інтелекту, який стає все потужнішим і надійнішим?
  • Технічний інтерфейс: технічний інтерфейс визначає, як люди взаємодіють з технологіями — телевізори роблять людей пасивними глядачами, тоді як комп’ютери роблять людей більш схильними до творчості. Які інтерфейси ми можемо створити, щоб системи штучного інтелекту покращували та сприяли автономії людини?
  • Керування системою людино-машинної співпраці: як люди ефективно керують командами, що складаються з людей та систем штучного інтелекту? Навпаки, як системи штучного інтелекту повинні керувати командами, що складаються з людей, штучного інтелекту або їх поєднання?

Виявлення значного впливу штучного інтелекту:

  • Вплив поведінки: Як соціальні медіа впливають на зміну поведінки людей, так і штучний інтелект може формувати людську поведінку. Які методи моніторингу чи вимірювання можуть допомогти дослідникам зрозуміти ці динамічні зміни?
  • Спонсорування досліджень: чи існують прозорі механізми та інструменти, які дозволяють широкій громадськості (а не лише передовим компаніям зі штучного інтелекту) легко досліджувати застосування штучного інтелекту у реальному світі?

Розуміння та управління моделями штучного інтелекту:

  • Системні «цінності»: що таке «цінності», які виражають штучні інтелектуальні системи? Як ці цінності пов’язані з методами навчання системи? Більш конкретно, як ми можемо виміряти вплив «складу» штучного інтелекту на його поведінку після розгортання? Ми розширимо попередні дослідження цих питань.
  • Управління автономними агентами: Які аспекти існуючого законодавства, систем управління та механізмів відповідальності можуть застосовуватися до автономних штучних інтелектуальних агентів? Наприклад, як морське право вирішує питання залишення судна, пов’язане з тим, як закон стосується неврегульованих інтелектуальних агентів. Навпаки, чи існують у існуючому законодавстві аспекти, які вже застосовуються до штучних інтелектуальних агентів, але не повинні застосовуватися?
  • Надійність агентів: Які аспекти автономних штучних інтелектуальних агентів можна налаштувати, щоб вони відповідали існуючим правовим, управлінським та відповідальнісним механізмам? Наприклад, чи можемо ми забезпечити, щоб штучні інтелектуальні агенти мали унікальну та надійну ідентичність, навіть у відсутність прямого людського контролю?
  • Керування штучним інтелектом за допомогою штучного інтелекту: як ми можемо ефективно використовувати штучний інтелект для керування системами штучного інтелекту? У яких сферах регулювання штучного інтелекту люди мають перевагу або зобов’язані брати участь у відповідності з правовими або нормативними вимогами?
  • Взаємодія агентів: які норми виникають під час взаємодії між штучними інтелектуальними агентами? Як різні агенти виражають різні переваги і як ці переваги впливають на інші агенти?

Розробка з використанням штучного інтелекту

Зі зростанням потужності систем штучного інтелекту вчені все частіше використовують їх для проведення досліджень. Це означає, що все більше наукових досліджень проводяться автономно або напівавтономно з меншою кількістю людського втручання. У галузі досліджень штучного інтелекту потужні системи можуть використовуватися для розробки власних наступних версій. Іноді ми називаємо цю модель «штучний інтелект, що стимулює розробку штучного інтелекту».

Автоматизація розробки штучного інтелекту за допомогою штучного інтелекту може стати «природним виграшем» у створенні більш розумних і потужних систем. Як прогрес у кодуванні призвів до виникнення військово-цивільних мережевих можливостей, так прогрес у наукових здібностях може призвести до виникнення військово-цивільних біологічних можливостей — аналогічно, прогрес у складній технічній роботі може природним чином породити системи штучного інтелекту, здатні самостійно розробляти штучний інтелект.

Розробка штучного інтелекту з використанням штучного інтелекту несе в собі великі потенційні ризики. При оцінці заходів, які можна вжити, політикам критично важливо розуміти тенденції зміни швидкості розвитку штучного інтелекту, а також чи почне дослідження штучного інтелекту створювати ефект складних відсотків.

Штучний інтелект для розробки штучного інтелекту

  • Керування розробкою штучного інтелекту: як люди можуть ефективно розуміти та контролювати системи штучного інтелекту, якщо вони використовуються для автономної розробки та вдосконалення себе? У кінцевому підсумку, що буде керувати цими системами?
  • Експеримент з реагування на інформаційний вибух: Як ми проводимо експеримент з реагування на інформаційний вибух? Як провести настільну вправу, щоб справді перевірити здатність до прийняття рішень лідерства лабораторії, ради та уряду?
  • Телеметрія розробки штучного інтелекту: як ми можемо виміряти загальну швидкість розробки штучного інтелекту? Які телеметричні технології та базові технічні засоби необхідні для збору цієї інформації? Як індикатори, пов’язані з розробкою штучного інтелекту, можуть слугувати ранніми сигналами тривоги для рекурсивного самовдосконалення?
  • Контроль над прискоренням штучного інтелекту: якщо інтелектуальний вибух наближається, які точки втручання можуть сповільнити або змінити швидкість цього вибуху? Якщо припустити, що люди можуть втручатися, то які суб’єкти повинні здійснювати таку здатність — уряди? Компанії?

Застосування штучного інтелекту в галузі досліджень — тобто дослідження інших галузей, що проводяться за допомогою штучного інтелекту:

  • Дерево технологій: штучний інтелект прискорює розвиток певних наукових галузей значно швидше, ніж інших, залежно від доступності даних, показників оцінки та кількості прихованого або інституційно обмеженого знання. Наскільки нерівномірним є цей розвитковий градієнт? Які людські проблеми, відповідно до змін у науковому прогресі, отримають пріоритетне вирішення?
  • Нерівний фронт: здібності моделей сильніші в деяких галузях, ніж у інших. Галузі з великою позитивною зовнішньою ефективністю — наприклад, розробка ліків і матеріалознавство — отримують інвестиції значно нижчі, ніж відповідають їхній вартості. Ринок керує напрямком покращення моделей на основі приватної вигоди, але чи можемо ми покращити продуктивність моделей, щоб врахувати соціальні зовнішні ефекти?

Цей матеріал надійшов із офіційного аккаунту WeChat «Value Research» (ID: jiazhiyanjiusuo), автор: Дінсі

Відмова від відповідальності: Інформація на цій сторінці може бути отримана від третіх осіб і не обов'язково відображає погляди або думки KuCoin. Цей контент надається лише для загального інформування, без будь-яких запевнень або гарантій, а також не може розглядатися як фінансова або інвестиційна порада. KuCoin не несе відповідальності за будь-які помилки або упущення, а також за будь-які результати, отримані в результаті використання цієї інформації. Інвестиції в цифрові активи можуть бути ризикованими. Будь ласка, ретельно оцініть ризики продукту та свою толерантність до ризику, виходячи з ваших власних фінансових обставин. Для отримання додаткової інформації, будь ласка, зверніться до наших Умов використання та Розкриття інформації про ризики.