Штучний інтелект здатен формувати громадську думку, навіть якщо його упередженість є очевидною - дослідження | УНН
Дослідження, проведене серед 2500 учасників, виявило, що чат-боти здатні нав’язувати свої погляди користувачам. Навіть за умови попереджень про упередженість штучного інтелекту, уникнути його впливу не вдається.
Нове дослідження показує, що чат-боти зі штучним інтелектом, такі як ChatGPT, Claude і Gemini, мають здатність впливати на громадську думку, демонструючи, що люди значною мірою приймають упереджену інформацію, надану їм ШІ, - навіть якщо їх попереджали цього не робити, пише УНН з посиланням на dpa.
Після того, як 2500 учасників звернулися за консультацією до штучного інтелекту під час написання статей на важливі соціальні теми, такі як смертна кара та видобуток сланцевого газу за допомогою гідророзриву пласта, дослідники виявили, що більшість з них "виявили схильність до позицій платформи". Ці результати були представлені у статті, опублікованій в журналі Science Advances.
Група вчених з Корнельського університету в США, Вашингтонського університету, а також з Університету Баухаус у Німеччині та Тель-Авівського університету в Ізраїлі виявила, що вплив штучного інтелекту значно більший, ніж "схожі пропозиції, представлені у формі статичного тексту".
Вони також підкреслили, що повідомлення учасникам про наявність упередженості до чи після виконання завдань "не зменшує вплив зміни ставлення".
Дослідження виявили, що люди мають схильність до взаємодії з штучним інтелектом, незважаючи на те, чи були його налаштування спрямовані на ліві чи праві, ліберальні чи консервативні ідеї.
Дослідники виявили, що технології штучного інтелекту, що аналізують актуальні події, здатні впливати на громадську думку щодо різних тем і політичних переконань. Це стало очевидним, коли боти, оптимізовані для відображення лівих поглядів, висловлювали думки з питань, як-от смертна кара та генетично модифіковані організми, тоді як праві позиції були представлені в контексті видобутку сланцевого газу та прав голосу для засуджених.
Дослідники виявили, що думки учасників постійно трансформувалися під впливом штучного інтелекту.
"Ми попереджали людей до і після, щоб вони були обережні, що ШІ буде (або був) упередженим, і нічого не допомогло", - сказав Мор Нааман з Корнельського університету.
Висновки відповідають статті Університету Південної Каліфорнії (University of Southern California), яка припускає, що ШІ може гомогенізувати мову та думки до такої міри, що користувачі можуть побачити, як їхня здатність міркувати атрофується, зазначає видання.
У дослідженні 2024 року лондонський Центр політичних досліджень (Centre for Policy Studies) заявив про виявлення "лівоорієнтованої політичної упередженості" "майже у всіх категоріях" у відповідях, даних 23 із 24 платформ штучного інтелекту на запитання про державну політику.