Штучний інтелект може розпочати агресію в соціальних мережах: які ризики можуть виникнути для користувачів?

Фахівці у сфері штучного інтелекту застерігають: соціальні мережі готуються до появи так званих "робочих груп ШІ". Ці скоординовані колективи автономних агентів можуть настільки точно відтворювати людську поведінку, що здатні розповсюджувати дезінформацію серед широкої аудиторії.

Це новий явище в сфері інформаційної війни, наслідки якого важко прогнозувати, зазначає Live Science, посилаючись на статтю, опубліковану в журналі Science.

Вчені підкреслюють, що основна загроза полягає в маніпуляції психологією конформізму. Люди мають схильність слідувати думці більшості. Агентам штучного інтелекту вдається штучно формувати ілюзію широкої підтримки певних ідей, що може призводити до зміни переконань у реальних користувачів.

Якщо користувач наполегливо стоїть на своєму, "рій" штучних інтелектів може перейти до агресивної стратегії. Імітуючи збуджений натовп, вони здатні координовано атакувати особу з відмінною точкою зору, примушуючи її залишити платформу. Співавтор дослідження Йонас Кунст з Норвезької бізнес-школи BI наголошує, що такі технології можуть бути легко використані невідомими групами, політичними силами або навіть державами для маніпуляцій громадською думкою.

Інтернет вже насичений ботами, які генерують значну частину мережевого трафіку. Проте звичайні боти виконують елементарні, одноманітні завдання, і їх досить просто виявити.

"Рої" нового часу функціонують завдяки потужним мовним моделям (LLM), які є основою технологій, подібних до ChatGPT. Це значно підвищує їхню загрозливість. Агенти здатні зберігати контекст, розвивати індивідуальні "особистості" та підлаштовуватися під стиль спілкування певних груп.

Експеримент на Reddit показав, що відповіді АІ-чатботів можуть бути в 3-6 разів переконливішими, ніж доводи реальних людей. Алгоритм самодостатній, вчиться і спеціалізується на пошуку вразливостей у людському сприйнятті.

Дослідники поки що не можуть визначити точний час, коли розпочнеться масове "вторгнення штучного інтелекту", проте впевнені, що необхідно діяти проактивно. Серед запропонованих заходів захисту є ідея підсилення аутентифікації користувачів у соціальних мережах, що передбачає надання підтвердження того, що акаунт належить реальній особі. Однак це питання має і зворотний бік: деанонімізація може негативно вплинути на людей, які проживають в країнах з жорсткою цензурою, де анонімність є критично важливою для їхньої безпеки.

Пропонується також заснування "Центрів моніторингу впливу штучного інтелекту" — організацій, які займатимуться відстеженням незвичних патернів трафіку та інформуванням про скоординовані атаки, перш ніж вони зможуть завдати серйозної шкоди суспільству.

Раніше згадувалося, що ChatGPT не став причиною руйнування ринку праці. Штучний інтелект не викликав "катастрофи з безробіттям", на яку вказували деякі міжнародні організації. В дійсності, після впровадження ChatGPT ринок праці в розвинутих країнах показує стійкість, а в окремих секторах навіть спостерігається зростання зайнятості.

Інші публікації

У тренді

informnauka

Використання будь-яких матеріалів, що розміщені на сайті, дозволяється за умови посилання на данний сайт.

© Новини зі світу науки - informnauka.com. All Rights Reserved.