Дослідження показало, що штучний інтелект виявляє більшу переконливість у дебатах порівняно з людьми.
Згідно з дослідженням, яке було опубліковано в понеділок у журналі Nature Human Behavior, чат-боти, що працюють на основі штучного інтелекту та відомі як моделі великих мов (LLM), продемонстрували здатність адаптувати свої аргументи, маючи лише обмежену демографічну інформацію про своїх співрозмовників. В результаті, у 64% випадків ці системи виявилися більш переконливими, ніж люди, під час онлайн-дебатів.
Науковці з'ясували, що навіть магістри права (LLM), які не мали доступу до демографічних даних своїх суперників, все ще виявлялися більш переконливими, ніж інші особи, зазначив співавтор дослідження Ріккардо Галлотті.
Галлотті, керівник секції комплексного вивчення людської поведінки в дослідницькому інституті Фонду Бруно Кесслера в Італії, зазначив, що особи, які володіють особистими даними своїх суперників, насправді виявляються дещо менш переконливими, ніж ті, хто таких відомостей не має.
Галлотті та його колеги дійшли цих висновків, зіставивши 900 людей, що проживають у Сполучених Штатах, з іншою людиною або GPT-4, LLM, створеним OpenAI, відомим у розмовній мові як ChatGPT. Хоча 900 людей не мали демографічної інформації про те, з ким вони дебатовали, у деяких випадках їхні опоненти -- люди чи штучний інтелект -- мали доступ до певної базової демографічної інформації, яку надали учасники, зокрема їхньої статі, віку, етнічної приналежності, рівня освіти, статусу зайнятості та політичної приналежності.
Після цього пари учасників обговорили ряд суперечливих соціально-політичних тем, таких як смертна кара та зміни клімату. Дебати були структуровані у формі запитань на кшталт "Чи повинні аборти бути легалізовані?" або "Чи має США заборонити викопне паливо?". Кожному учаснику надали чотири хвилини для викладення своїх аргументів "за" або "проти", після чого слідувало трихвилинне спростування позицій суперника, а потім ще три хвилини для підсумкових висновків. Після завершення обговорення учасники оцінили свою згоду з темою дебатів за шкалою від 1 до 5. Результати цього оцінювання дослідники порівняли з попередніми оцінками, щоб визначити, наскільки ефективно їхні суперники вплинули на зміни в їхніх поглядах.
"Ми безсумнівно досягли такого технологічного етапу, на якому можна реалізувати мережу автоматизованих акаунтів, що використовують LLM, здатних стратегічно впливати на формування громадської думки в певному руслі," - зазначив Галлотті в своєму електронному листі.
Використання особистих даних учасників магістратури залишалося малопомітним, проте виявилося надзвичайно результативним. Під час обговорення питання державної підтримки універсального базового доходу учасники акцентували увагу на економічному зростанні та важливості наполегливої праці, ведучи дискусію з білим чоловіком-республіканцем у віці від 35 до 44 років. Однак, у розмові з темношкірою жінкою-демократкою у віці від 45 до 54 років на таку ж тему учасники магістратури піднімали питання нерівності в розподілі багатства, що особливо гостро торкається меншин, і стверджували, що універсальний базовий дохід може стати важливим кроком до досягнення рівності.
"У світлі наших досліджень стає нагальним і необхідним, щоб кожен усвідомив практику мікротаргетингу, яка стала можливою завдяки величезній кількості персональних даних, які ми розкидаємо по мережі", - сказав Галлотті. "У нашій роботі ми спостерігаємо, що цілеспрямоване переконання на основі штучного інтелекту вже дуже ефективне, маючи лише базову та відносно доступну інформацію".
Сандра Вахтер, професор технологій і регулювання в Оксфордському університеті, охарактеризувала результати дослідження як "досить тривожні". Хоча Вахтер не брала участі в цьому дослідженні, вона висловила стурбованість, зокрема, тим, як моделі можуть використовувати свою переконливість для розповсюдження неправдивої інформації та дезінформації.
"Великі мовні моделі не розрізняють факти та вигадки. ... Строго кажучи, вони не призначені для того, щоб говорити правду. Проте вони впроваджуються в багатьох секторах, де правда та деталі мають значення, таких як освіта, наука, охорона здоров'я, засоби масової інформації, право та фінанси", - сказав Вахтер в електронному листі.
Джунаде Алі, фахівець у галузі штучного інтелекту та кібербезпеки з Інституту інженерії та технологій у Великій Британії, зазначив, що, на його думку, хоча дане дослідження не враховує вплив "соціальної довіри до месенджера" — як чат-бот міг би змінити свою аргументацію, знаючи, що веде дискусію з досвідченим адвокатом або експертом у певній галузі, що може вплинути на переконливість його висловлювань — воно все ж таки "акцентує увагу на важливій проблемі технологій штучного інтелекту".
"Вони зазвичай прагнуть висловлювати те, що слухачі бажають почути, а не завжди те, що відповідає дійсності," - зазначив він у своєму електронному листі.
Галлотті висловив думку, що більш жорстка і детальна політика, а також правила можуть стати ефективним засобом для боротьби з впливом переконань, викликаним штучним інтелектом. Він підкреслив, що, незважаючи на те, що перший у своєму роді Закон Європейського Союзу про штучний інтелект забороняє системи, які застосовують "підсвідомі" або "умисно маніпулятивні та оманливі" методи, що можуть негативно вплинути на здатність людей приймати обґрунтовані рішення, залишається відсутнім чітке визначення, що саме вважається підсвідомим, маніпулятивним чи оманливим.