Сучасний психоз. Дослідження показують, що чатботи на основі штучного інтелекту можуть підсилювати ілюзії та спотворені спогади.
Науковці з Університету Ексетера повідомили, що чатботи, які використовують штучний інтелект, здатні не лише розповсюджувати фальшиву інформацію, а й підсилювати помилкові вірування користувачів, надаючи їм більшої реалістичності та емоційної привабливості.
Цю інформацію повідомляє видання Science Daily.
У новому дослідженні Університету Ексетера авторка Люсі Ослер вивчала, як спілкування з генеративним ШІ може впливати на пам'ять, особисті історії та сприйняття реальності.
У роботі зазначається, що проблема полягає не лише у випадках, коли ШІ видає неправильні відповіді. За словами дослідників, люди можуть почати "галюцинувати разом із ШІ", коли чатбот підтримує або розвиває їхні помилкові уявлення.
Ослер зазначила, що генеративний штучний інтелект зазвичай базується на словах користувача, формуючи діалог відповідно до його уявлень про ситуацію. Це може призвести до того, що хибні переконання не лише залишаються, а й набувають ще більшої сили.
Науковець висловила думку, що регулярне залучення штучного інтелекту для аналізу, збереження інформації і тлумачення власного досвіду здатне змінити сприйняття реальності у людей. Вона зазначила, що синергія "технологічної влади" та емоційної підтримки формує простір, в якому можуть виникати ілюзії.
У даному дослідженні чатботи представлені не лише як засоби для отримання інформації, а й як співрозмовники, здатні емоційно підтримувати користувачів. На думку авторів, саме ця особливість вирізняє їх серед пошукових систем та нотатників.
За словами Ослер, "дружній" стиль спілкування чатботів може створювати відчуття соціального схвалення. Через це хибні переконання можуть здаватися людям більш правдивими, бо їх ніби розділяє хтось інший.
У дослідженні також наведені конкретні приклади, коли генеративний штучний інтелект інтегрувався у свідомість осіб з клінічно підтвердженими галюцинаціями та маревом. Деякі з цих випадків вже отримали назву "психоз, індукований ШІ".
На думку науковців, найбільшу загрозу представляють ШІ-помічники. Вони завжди доступні, здатні підлаштовуватися під потреби користувача та часто пропонують емоційну підтримку. Це означає, що людям більше не потрібно шукати однодумців у різних спільнотах або намагатися переконати інших у своїх поглядах — чатбот може самостійно підтримувати ці ідеї під час регулярної взаємодії.
У дослідженні зазначається, що на відміну від людини, штучний інтелект не має здатності сумніватися в небезпечних ідеях або визначати певні обмеження. Це стосується також наративів про переслідування, помсту або теорії змови.
Автори роботи вважають, що така взаємодія може особливо приваблювати самотніх людей або тих, кому складно обговорювати особисті переживання з іншими.
Науковці виступили з вимогою покращити безпеку в системах штучного інтелекту. Серед запропонованих заходів вони вказали на необхідність впровадження вбудованих механізмів фактичної перевірки, зменшення надмірної згоди чат-ботів, а також створення систем, які б частіше аналізували висловлювання користувачів, а не лише підтримували їхні думки.