Науковці застерегли, що в найближчі роки штучний інтелект може здобути здатність впливати на цілі суспільства.
Штучний інтелект може змінювати хід демократичних процесів, не з'являючись на мітингах чи виборах. У новій статті в журналі Science дослідники попереджають про ризик появи мереж з численними AI-керованими персонажами, які видають себе за звичайних користувачів і непомітно впливають на онлайн-дискусії.
На відміну від звичних бот-мереж, нові системи функціонують у злагоджених колективах, які постійно взаємодіють, моніторять ефективність комунікації та підтримують узгодженість наративу, навіть коли окремі акаунти зникають. Використання великих мовних моделей разом із мультиагентними системами дозволяє одній особі управляти тисячами штучних "голосів", які виглядають як справжні представники місцевих спільнот.
Кожен такий персонаж може адаптувати стиль мовлення, враховувати соціальні норми та швидко реагувати на критику. Це ускладнює виявлення маніпуляцій і дозволяє формувати ілюзію масової підтримки певної ідеї. За словами професора з Університету Британської Колумбії Кевіна Лейтон-Брауна, вже сьогодні існують приклади впливу deepfake-відео та штучно створених новин на виборчі процеси в США, Індії, Індонезії та Тайвані.
Окремі дослідники підкреслюють загрозу інформаційного "засмічення": деякі платформи генерують величезні обсяги низькоякісного контенту з метою спотворення навчальних даних для майбутніх систем штучного інтелекту. Це може суттєво позначитися на якості та об'єктивності AI в довгостроковій перспективі.
Науковці вважають, що наступні вибори можуть стати справжнім тестом для новітніх технологій. Зменшення довіри до малознайомих джерел інформації в соціальних мережах може підвищити роль впливових особистостей, але одночасно ускладнити передачу думок знизу. Це ставить під сумнів, чи зможуть системи моніторингу своєчасно виявити та перервати скоординовані кампанії впливу.