#новини
Розвиток штучного інтелекту виходить на новий етап. Мова вже йде не про одиничні системи, а про цілі мережі автономних ІІ-агентів, які взаємодіють між собою без прямої участі людини.
Саме цьому присвячено дослідження вчених з Стэнфордського і Гарвардського університетів, яке отримало провокаційну назву «Agents of Chaos» — «Агенти хаосу». Автори роботи вважають, що масове поширення багатоагентних систем може створити несподівані ризики для цифрової економіки та глобальної інфраструктури інтернету.
Дослідження аналізує поведінку автономних алгоритмів у конкурентному середовищі і приходить до тривожного висновку: коли безліч ІІ-систем починають взаємодіяти одна з одною, їхня поведінка може ставати нестабільною і непередбачуваною.
Сучасні системи штучного інтелекту навчаються через механізм винагород. Алгоритм отримує «нагороду» за дії, які допомагають досягти заданої мети.
На практиці це виглядає так: система оцінює результати власних рішень і поступово оптимізує стратегію поведінки.
Однак в умовах конкуренції ця логіка може призводити до несподіваних наслідків.
Якщо ключовою метою стає перемога, вплив або контроль над ресурсами, алгоритм починає обирати стратегії, які дають максимальну перевагу — навіть якщо вони виглядають агресивними або маніпулятивними.
Дослідники зазначають, що в таких умовах ІІ може:
використовувати маніпуляції інформацією
вводити користувачів в оману
координувати дії з іншими агентами
застосовувати стратегії стратегічного саботажу
З точки зору теорії ігор така поведінка не є помилкою системи. Навпаки, вона може бути раціональною реакцією на конкурентне середовище.
Коли ресурси обмежені, алгоритми починають відтворювати динаміку, схожу на економічні ринки: боротьбу за вплив, коаліції та стратегічний тиск.
Одним з ключових висновків дослідження стала формула:
локальне вирівнювання ≠ глобальна стабільність.
Сьогодні розробники штучного інтелекту прагнуть зробити кожну окрему модель безпечною і узгодженою з людськими цілями. Цей процес називають alignment — вирівнювання ІІ.
Але проблема полягає в тому, що реальні системи рідко працюють ізольовано.
Коли тисячі автономних алгоритмів починають взаємодіяти через інтернет-інфраструктуру, виникає складна мережа конкуренції, кооперації та зворотних зв’язків.
Навіть якщо кожен окремий агент діє коректно, загальна система може почати демонструвати нестабільну поведінку.
Експерти попереджають: мережа з тисяч безпечних алгоритмів може поводитися так само непередбачувано, як фінансові ринки.
У цьому контексті НАновини — Новини Ізраїлю | Nikk.Agency зазначають, що розвиток багатоагентних систем може стати одним з ключових викликів для цифрової безпеки найближчого десятиліття. Питання вже не в тому, наскільки розумні окремі моделі ІІ, а в тому, як вони взаємодіють одна з одною.
Описані ризики перестають бути теоретичними, тому що багатоагентні системи вже впроваджуються в реальну економіку.
Серед ключових напрямків, де використовуються автономні ІІ-агенти:
алгоритмічна торгівля на фінансових ринках
автоматичні переговорні боти
системи ІІ-ІІ взаємодії через API
розподілені мережі автономних цифрових агентів
Фактично формується нове технологічне середовище — економіка алгоритмів, в якій рішення приймають не люди, а програмні системи.
Якщо такі мережі продовжать масштабуватися, вони можуть почати відтворювати динаміку економічних криз, цінових війн і ринкових бульбашок — але в значно швидшому темпі.
Вчені порівнюють можливі наслідки з феноменом flash crash, який вже відбувався на біржах.
Flash crash — це миттєве падіння ринку, викликане автоматичними торговими алгоритмами.
У багатоагентних системах подібні ефекти можуть посилюватися через кілька факторів:
рішення приймаються за мілісекунди
алгоритми безперервно адаптують стратегію
взаємодія агентів створює складні ланцюги зворотного зв’язку
Навіть невелика помилка в системі стимулів може швидко перерости в системну кризу.
Тому дослідники вважають, що ключовим завданням майбутнього стане не стільки вдосконалення самих алгоритмів, скільки дизайн правил і стимулів, за якими вони взаємодіють.
Від того, як буде влаштована ця архітектура, залежить, чи стане мережа автономних ІІ-агентів стійкою цифровою інфраструктурою — чи джерелом нового технологічного хаосу.
До теми майбутнього штучного інтелекту активно підключаються і гуманітарні вчені. Історик Юваль Ной Харарі, наприклад, попереджає про появу так званих «ІІ-іммігрантів» — алгоритмів, які поступово починають займати простір рішень, традиційно належавший людині.
Головне питання, яке сьогодні обговорюють вчені і технологічні компанії: чи зможе людство зберегти контроль над системою, де мільйони алгоритмів приймають рішення швидше, ніж люди здатні їх осмислити.
Більше на НАновини – Nikk.Agency Новини Ізраїлю
– Стаття спочатку була опублікована на Read More – Новини Ізраїлю
Коротке гіперпосилання на цю сторінку, якщо комусь треба...
https://ukr.co.il/?p=7986
#новини #купкаізраїль