Не можливо відрізнити від людини. Останні дослідження свідчать, що ШІ-агенти функціонують в мережі практично без нагляду.

Протягом минулого року технологія штучного інтелекту в формі агентів набула значної популярності. Такі компанії, як OpenAI, Google та Anthropic, представили агентів, які можуть виконувати складні багатоступеневі завдання, поставлені людьми. Нещодавно відкритий агент OpenClaw привернув увагу користувачів мережі завдяки своїм автономним функціям, але водночас викликав серйозні занепокоєння з приводу безпеки.

Обсяг діяльності цих агентів залишався невідомим до моменту, коли вчені з Лабораторії комп'ютерних наук і штучного інтелекту Массачусетського технологічного інституту представили індекс AI Agent Index на 2025 рік. Цей індекс продемонстрував, яким чином агенти функціонують у реальних умовах.

Вчені виявили, що інтерес до штучних агентів сильно зріс. Кількість наукових статей з термінами "AI Agent" або "Agentic AI" у 2025 році більш ніж удвічі перевищила сумарну кількість публікацій за 2020-2024 роки. Опитування McKinsey показало, що 62% компаній експериментують із такими агентами.

Науковці провели аналіз 30 популярних агентів, розподілених на три категорії: чат-агенти (такі як ChatGPT Agent та Claude Code), браузерні боти (наприклад, Perplexity Comet і ChatGPT Atlas) та корпоративні рішення (зокрема, Microsoft 365 Copilot і ServiceNow Agent). Хоча вони не вказали точну кількість агентів у всесвітній мережі, дослідження продемонструвало, що більшість із них функціонують практично без жодних обмежень.

Лише половина з тридцяти агентів має опубліковані документи, що стосуються безпеки та довіри, такі як "Політика відповідального масштабування" від Anthropic або "Рамки готовності" від OpenAI. Один з трьох агентів взагалі не має жодної документації з цього питання, а п'ять із тридцяти не дотримуються жодних встановлених стандартів. Тринадцять систем здатні працювати autonomously на тривалих послідовних завданнях, зокрема браузерні агенти, такі як Google Autobrowse, який самостійно заходить на веб-сайти та виконує завдання користувача.

Вчені вказують на те, що "21 з 30 агентів не інформують користувачів або сторонніх осіб про те, що вони є штучним інтелектом, а не людьми". Таким чином, діяльність цих агентів часто сприймається за людську активність. Лише семеро з них надали надійні дані для верифікації, в той час як решта використовують методи підробки браузера, щоб створити ілюзію людської присутності.

Деякі агенти спеціально налаштовані на певні дії. Наприклад, BrowserUse рекламує свої можливості, запевняючи, що може обходити захисні системи та "браузити так, як це роблять люди". Багато агентів не розкривають, яким чином вони взаємодіють з файлами robots.txt, CAPTCHA або API веб-сайтів. Perplexity навіть стверджує, що агенти, які діють від імені користувачів, не повинні підлягати жодним обмеженням, оскільки вони "функціонують як людські помічники".

Через відсутність стандартів безпеки існує реальна загроза зловживань. Дев'ять агентів не мають документації щодо запобігання шкідливим діям, а 23 із 30 не надають сторонніх перевірок безпеки. Лише ChatGPT Agent, OpenAI Codex, Claude Code і Gemini 2.5 мають системні картки з безпековою оцінкою, адаптованою до конкретного агента.

Деякі компанії публікують загальні рамки безпеки, але не надають даних про реальні ризики, що дослідники називають "safety washing". У грудні OpenAI та Anthropic оголосили про створення стандартів розвитку ШІ-агентів, але поки агенти працюють з великою автономією і малою перевіркою.

Інші публікації

У тренді

informnauka

Використання будь-яких матеріалів, що розміщені на сайті, дозволяється за умови посилання на данний сайт.

© Новини зі світу науки - informnauka.com. All Rights Reserved.