Штучний інтелект виходить на новий рівень, пропонуючи нам можливість аналізувати наміри користувачів: яким чином це реалізується.

Експерти вважають, що нині активно створюються інструменти штучного інтелекту, які здатні виявляти, аналізувати, усвідомлювати, прогнозувати, а в підсумку – маніпулювати та перетворювати людські наміри і цілі в "комерційний продукт".

Науковці з Кембриджського центру Леверхалма, що спеціалізується на дослідженнях майбутнього штучного інтелекту (LCFI), підкреслюють, що стрімкий розвиток генеративного ШІ та наше зростаюче знайомство з чат-ботами створюють нові можливості для "технологій переконання". Про це інформує агентство TechXplore. Вже в недавніх корпоративних заявах великих технологічних компаній можна було помітити певні натяки на ці тенденції.

У найближчі роки можуть з’явитися штучно інтелектуальні помічники, які здатні не лише передбачати, але й впливати на наші рішення на ранніх етапах. Вони також матимуть можливість реалізовувати ці "намірі", що постійно змінюються, в реальному часі компаніям, які готові задовольнити ці потреби, навіть до того, як користувач усвідомить, що прийняв рішення.

Це стверджують фахівці з етики ШІ з Кембриджського університету, які кажуть, що людство перебуває на зорі "прибуткового, але тривожного нового ринку цифрових сигналів намірів" -- від купівлі квитків у кіно до голосування за кандидатів. Вони називають це "економікою намірів".

"Антропоморфні" штучні інтелекти, такі як чат-боти-асистенти, цифрові репетитори та віртуальні друзі, зможуть отримувати доступ до широкого спектра особистісних психологічних і поведінкових даних. Ці дані часто збираються через неформальні бесіди, використовуючи розмовну мову.

Дослідники стверджують, що цей ШІ поєднуватиме в собі знання наших мережевих звичок із надприродною здатністю підлаштовуватися під нас зручним для нас чином -- наслідуючи особистості та передбачаючи бажані реакції -- щоб вибудовувати рівні довіри та взаєморозуміння, які дадуть змогу здійснювати соціальну маніпуляцію в промислових масштабах.

"Величезні ресурси витрачаються на те, щоб впровадити помічників на основі штучного інтелекту в усі сфери життя, що має порушити питання про те, чиїм інтересам і цілям покликані служити ці так звані помічники", -- заявив запрошений науковий співробітник LCFI д-р Якуб Чаудхарі.

Те, що люди висловлюють під час бесіди, їхній спосіб вираження думок та тип висновків, які можна зробити в момент спілкування, є набагато більш особистою інформацією, ніж лише записи онлайн-взаємодій.

Доктор Джонні Пенн, історик технологій з Кембриджського інституту LCFI, сказав: "Протягом десятиліть увага була валютою Інтернету. Можливість поділитися своєю увагою з такими соціальними мережами, як Facebook та Instagram, стала рушійною силою онлайн-економіки".

Якщо не контролювати ситуацію, економіка намірів розглядатиме ваші мотивації як нову валюту. Це перетвориться на справжню золоту лихоманку для тих, хто фокусується, маневрує і комерціалізує людські наміри.

У публікації Harvard Data Science Review автори Пенн і Чаудхарі зазначають, що економіка намірів перетвориться на економіку уваги, яка буде "вмонтована в часові рамки". Це означає аналіз того, як взаємодія уваги користувача з його стилем спілкування впливає на моделі поведінки та вибори, які ми зрештою робимо.

Дослідники пишуть, що в економіці намірів великі мовні моделі (LLM) можна використовувати для визначення темпу мовлення користувача, політичних поглядів, словникового запасу, віку, статі, історії онлайн-відвідувань і навіть уподобань щодо лестощів і підлещування за невеликих витрат.

Цей збір інформації буде пов'язаний з посередницькими мережами торгів, щоб максимально підвищити ймовірність досягнення заданої мети, наприклад, продажу походу в кіно (Наприклад: "Ви згадали, що почуваєтеся перевантаженим роботою, замовити вам квиток у кіно, про яке ми говорили?").

Пенн і Чаудхарі стверджують, що це може включати управління розмовами в інтересах конкретних платформ, рекламодавців, підприємств і навіть політичних організацій.

Хоча вчені зазначають, що економіка намірів поки що є лише "амбіцією" для технологічного сектору, вони спостерігають за перші ознаками цього явища через опубліковані дослідження та коментарі, висловлені деякими впливовими компаніями в індустрії технологій.

До них належить відкритий заклик до "даних, які виражають наміри людини... будь-якою мовою, на будь-яку тему і в будь-якому форматі" в повідомленні в блозі OpenAI за 2023 рік, а директор із продуктів Shopify (партнера OpenAI) на конференції того самого року говорив про появу чат-ботів, які "явно визначатимуть наміри користувача".

У 2024 році Apple представить нову платформу для розробки "App Intents", яка дозволить інтегрувати програми з голосовим помічником Siri. Ця платформа включає в себе протоколи, які дозволяють "прогнозувати дії, які користувач може виконати в майбутньому", а також "пропонувати наміри програми на основі прогнозів, наданих розробниками".

"За словами Чаудхарі, такі системи штучного інтелекту, як CICERO від Meta, демонструють рівень гри, подібний до людського, у грі "Дипломатія", яка вимагає умовиводів, прогнозування намірів та застосування переконливого спілкування для просування своїх інтересів."

Пенн зазначає, що ці події не обов'язково погані, але потенційно можуть бути руйнівними.

Раніше з'являлася інформація про те, що штучний інтелект може бути навчений обману. Дослідники компанії Anthropic виявили, що штучний інтелект здатний не лише ввічливо та чесно спілкуватися з людьми, але й вводити їх в оману. Більш того, нейронні мережі показали здатність реалізовувати дії, такі як інтеграція експлойтів у комп'ютерний код, що фактично є формою хакерської атаки. Штучний інтелект отримав навички як бажаної поведінки, так і обману, завдяки впровадженню тригерних фраз, які спонукали бота до неналежних дій.

Інші публікації

У тренді

informnauka

Використання будь-яких матеріалів, що розміщені на сайті, дозволяється за умови посилання на данний сайт.

© Новини зі світу науки - informnauka.com. All Rights Reserved.