Що, на вашу думку, має більше шансів на те, щоб покласти край існуванню людства: збройний конфлікт, екологічні катастрофи чи розвиток штучного інтелекту?
Чи зміна клімату справді загрожує людству?
Зміна клімату робить світ менш придатним для життя, спричиняє екстремальні погодні явища та може призвести до загибелі мільйонів людей. Проте, згідно з прогнозами Міжурядової групи експертів зі зміни клімату (IPCC), це не є фактором, що знищить людську цивілізацію повністю.
Наукові дослідження свідчать, що навіть в найскладніших ситуаціях людство вдасться зберегти своє існування, хоча умови життя можуть стати набагато складнішими. Проте виникає важливе питання: якщо кліматична криза не призведе до апокаліпсису, то що насправді може загрожувати нашій планеті?
Тема екзистенційного ризику ШІ вийшла на передній план завдяки заявам провідних експертів, зокрема Джеффрі Гінтона та Еліезера Юдковського. Останній прямо стверджує, що створення надлюдського інтелекту може закінчитися смертю всього людства.
Юдковський навіть закликав до міжнародної заборони на розвиток потужних ШІ-систем, припускаючи, що недотримання цих норм може виправдовувати військове втручання. Хоча ця позиція здається радикальною, вона базується на припущенні, що суперінтелект, діючи за власною логікою, може не враховувати інтереси людей.
Доктор Джеффрі Хінтон, професор інформатики в Монреальському університеті, Йошуа Бенгіо та Янн Лекун, професор Нью-Йоркського університету, які здобули популярність завдяки своїм революційним досягненням у сфері штучного інтелекту, з самого початку звертали увагу на потенційні загрози, пов'язані з надзвичайно розумним ШІ. Вони навіть висловили свою підтримку заяві Центру безпеки ШІ.
"Зменшення загрози вимирання через штучний інтелект повинно стати одним з основних світових завдань, поряд із іншими глобальними ризиками, такими як пандемії та ядерні конфлікти."
Сайт Центру безпеки штучного інтелекту представляє кілька варіантів можливих катастрофічних ситуацій:
Багато фахівців вважають, що страхи щодо можливого знищення людства штучним інтелектом є перебільшеними і відводять увагу від інших, значно більш актуальних питань.
"Сучасний штучний інтелект не має достатньої потужності для втілення цих загроз. У зв'язку з цим, він відволікає увагу від негайних небезпек, пов'язаних із ШІ", - зазначив комп'ютерний вчений Арвінд Нараянан з Принстонського університету.
Ядерний конфлікт є однією з найсерйозніших небезпек для людства. Його наслідки можуть призвести до загибелі мільйонів людей та спровокувати глобальне похолодання внаслідок ядерної зими. Проте досі ведуться дебати щодо того, чи буде ця зима настільки катастрофічною, щоб загрожувати самому існуванню людської цивілізації.
На відміну від ядерного конфлікту, штучний інтелект може виявитися набагато більш непередбачуваним. Його еволюція може йти в незворотному напрямку, а ухвалені ним рішення можуть бути в суперечності з потребами і інтересами людства. Наприклад, надзвичайно розумна система може вдосконалити свої процеси настільки, що людство стане для неї зайвим або навіть перешкодою.
Головна проблема полягає в тому, що сьогодні немає єдиного наукового консенсусу щодо небезпеки штучного інтелекту. Якщо в питанні кліматичних змін та ядерної загрози наука має більш-менш усталені позиції, то у сфері ШІ існують як прихильники, так і критики катастрофічних прогнозів.
Для запобігання серйозним помилкам людство повинно ретельно проаналізувати можливі загрози. Освоєння принципів функціонування штучного інтелекту, усвідомлення причин його розвитку та потенційних небезпек є важливими факторами для забезпечення виживання і стабільного прогресу нашої цивілізації.
Філософ, що працює в Інституті майбутнього людства при Оксфордському університеті, Тобі Орд, який також є консультантом для ВООЗ, Світового банку та Всесвітнього економічного форуму, періодично проводить глибокі дослідження, щоб визначити найбільші загрози для людства в найближчій перспективі.
В його останній роботі "Пропасть" природні ризики, включаючи астероїди та комети, виверження супервулканів і вибухи зірок, за оцінками, мають відносно низькі ризики, які, разом узяті, спричиняють один шанс на мільйон вимирання на століття.
Говорячи про антропогенні загрози, найбільш явним викликом для людського існування, на перший погляд, є ймовірність ядерного конфлікту. Ми неодноразово опинялися на межі цього сценарію, здебільшого через випадкові обставини.
Однак Орд сумнівається, що навіть ядерна зима призведе до повного вимирання людства або глобального безповоротного краху цивілізації. Подібним чином Орд вважає, що хоча зміна клімату може стати глобальним лихом безпрецедентного масштабу, вона не обов'язково призведе до вимирання людства.
Він також переконаний, що шкода, завдана навколишньому середовищу, не показує безпосереднього механізму, через який виникає ризик. Проте, він доходить висновку, що кожен з цих антропогенних ризиків має більшу ймовірність, ніж всі природні ризики в сукупності (один на мільйон упродовж століття).
Орд ідентифікує кілька потенційних загроз, серед яких пандемії, "некерований штучний інтелект" (системи з надзвичайно високим рівнем інтелекту, чийі цілі не відповідають людським етичним нормам), "антиутопічні сценарії" (світи з недоторканими цивілізаціями, проте зазнають жахливих умов), нанотехнологічні ризики та можливість існування життя поза Землею.
Ризики, пов'язані з пандеміями, мають більше антропогенного характеру, ніж природного, і оцінюються як один на тридцять століть, що робить їх другим найзначнішим ризиком. Найбільша загроза, за словами Орда, виникає від неконтрольованого штучного інтелекту.
Кліматичні зміни та ядерна війна - серйозні виклики для людства, але вони не обов'язково знищать цивілізацію. Однак неконтрольований штучний інтелект може стати загрозою набагато масштабнішою, ніж будь-яка з цих проблем.