На думку науковців, штучний інтелект здатен проявляти самовпевненість та упередження, подібно до людей.
Дослідники виявили, що штучний інтелект іноді приймає рішення, які можуть бути так само нелогічними, як і людські.
Люди і моделі штучного інтелекту "розмірковують" абсолютно по-різному. Проте нове дослідження показало, що існує певна схожість у мисленні, пише Live Science.
Дослідники виявили, що штучний інтелект іноді приймає рішення, які можуть бути так само нелогічними, як і людські. У своєму дослідженні вчені вирішили перевірити поведінку моделей OpenAI GPT-3.5 і GPT-4 за 18 добре відомими в психології людини когнітивними упередженнями.
Відзначається, що в близько половині випадків штучний інтелект виявляв численні типові людські упередження при прийнятті рішень. Дослідники з'ясували, що нейронні мережі також не можуть уникнути людських помилок.
"Менеджери отримають найбільшу вигоду, якщо використовуватимуть ці інструменти для вирішення проблем, які мають чітке, шаблонне рішення. Якщо ж ви використовуєте їх для ухвалення суб'єктивних рішень або рішень, заснованих на перевагах, будьте обережні", - сказав у своїй заяві провідний автор дослідження Ян Чен, доцент кафедри управління операціями в бізнес-школі Ivey.
Дослідники піддавали штучний інтелект гіпотетичним запитанням, що походять з класичної психології, з метою вивчення його можливостей у реальних комерційних ситуаціях, таких як управління товарними запасами або ведення переговорів з постачальниками. Вони прагнули з'ясувати не лише те, чи відтворює ШІ людські упередження, а й те, чи буде він демонструвати подібні тенденції, відповідаючи на запитання з різних бізнес-областей.
Відповідно до проведеного дослідження, GPT-4 виявився більш успішним у виконанні завдань, що потребують точних математичних рішень, у порівнянні з GPT-3.5. Він продемонстрував меншу кількість помилок у ситуаціях, пов'язаних з ймовірностями та логікою. Однак, у випадках, що стосуються суб'єктивного вибору, наприклад, у ризикованих інвестиціях, чат-бот іноді проявляв ірраціональні уподобання, характерні для людської поведінки.
"Дослідження показує, що GPT-4 має ще більшу здатність до визначеності, ніж люди."
Дослідники помітили, що поведінка чат-ботів залишалася здебільшого стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи операційні бізнес-процеси. Вчені дійшли висновку, що продемонстровані упередження не просто продукт завчених прикладів, а частина того, як ШІ "міркує".
Під час дослідження GPT-4 іноді посилював помилки, схожі на людські, наголосили вчені.