През 1945 г., точно преди теста на първата ядрена бомба в пустинята в Ню Мексико, Енрико Ферми, един от физиците, помогнали за изграждането ѝ, предлага на своите колеги учени облог.

Дали топлината на взрива ще запали ядрен пожар в атмосферата? И ако това се случи, дали огнената буря ще унищожи само Ню Мексико или ще бъде погълнат целият свят? За щастие, се оказва, че тестът не е чак толкова катастрофален, колкото предполага облогът на Ферми.

В наши дни притесненията относно „екзистенциалните рискове“, тоест онези, които представляват заплаха за човечеството като вид, а не за отделните индивиди, не се ограничават само до военните технологии.

Ядрена война, ядрена зима, епидемии, като тази от COVID-19, удари на астероиди и други потенциални бедствия биха могли да унищожат повечето или цялата човешка раса. 

Най-новата заплаха за края на света обаче идва от изкуствения интелект (AI), пише The Economist.

През май група учени, бизнесмени и общественици подписаха отворено писмо с едно единствено изречение: „Намаляването на риска от масово унищожение от AI трябва да бъде глобален приоритет, наред с останалите рискове от обществен мащаб, като пандемии и ядрена война“.

Трябва ли наистина да се притесняваме? 

На 10 юли група изследователи, включително Езра Каргер, икономист от Федералната резервна банка на Чикаго, и Филип Тетлок, политолог от Университета на Пенсилвания, публикуваха работен документ, който се опитва да хвърли светлина върху този въпрос чрез систематично проучване, проведено сред две основни групи експерти. 

Едната от тях е съставена от експерти в отделни области, като ядрена война, биологични оръжия, изкуствен интелект и други апокалиптични явления, както и такива, които са специализирани в рисковете за човешката раса като цяло.

В другата са включени т. нар. „суперпредсказатели“ – прогностици с общо предназначение, които имат опит в правенето на точни прогнози по всякакви теми - от резултатите от изборите до избухването на войни.

Изследователите наемат 89 суперсиноптици, 65 "секторни" експерти и 15 експерти по „риска от изчезване“. На всички тях е поставена задачата да разгледат два различни вида бедствие и да обмислят до какво може да доведе. 

Като "катастрофално“ се дефинира нещо, което би убило 10% от хората на планетата, или около 800 милиона души. Смята се, например, че Втората световна война е убила около 3% от световното население, което възлиза на около 2 милиарда души по онова време.

Като "апокалипсис“ или "масово унищожение" се определя събитие, което би унищожило всички, с изключение на няколко хиляди късметлии. 

Ако си отидем, си отиваме всички

Двете групи трябва да оценят вероятността от всичко - от крайни събития, като апокалипсис, причинен от AI или ядрена война, до по-малки въпроси, като например дали може да се случи тревожен напредък в способностите на изкуствения интелект, който да действа като пътепоказател по пътя към бъдеща катастрофа.

Най-впечатляващото заключение от проучването е, че експертите в конкретни области, които са склонни да доминират в публичните разговори около екзистенциалните рискове, изглеждат по-мрачно настроени за бъдещето от суперпрогностиците.

Експертите смятат, че има около 20% шанс за катастрофа до 2100 г. и 6% шанс за изчезване на човешката раса, докато суперпредсказателите дават вероятности за тези събития съответно от 9% и 1%.

Това разминаване в очакванията прикрива някои интересни подробности, пише още изданието. Разликата между двете групи е най-голяма, когато се вземат предвид рисковете, свързани с изкуствения интелект.

Средностатистическият суперпредсказател преценява, че има 2.1% шанс за катастрофа, причинена от AI, и 0.38% шанс за апокалипсис, предизвикан от тази технология до края на века. Експертите по изкуствен интелект пък определят двете събития съответно с 12% и 3% шанс.

Що се отнася до пандемиите, общите прогнозисти са по-песимистично настроени от експертите по отношение на рисковете, породени от естествено възникващите заболявания.

Един от най-интересните резултати е, че въпреки несъгласието между групите относно точния размер на риска, и двете определят AI като фактор на най-голямо безпокойство, независимо дали мислят за катастрофално събитие или масово унижщожение. 

Според Дан Мейланд, суперпрогнозист, участвал в проучването, една от причините за позицията на AI като генератор на тревога е, че той действа като „умножител на силата“ при други рискове, като ядрените оръжия, например.

Както при ядрената война или астероидния удар, изкуственият интелект (под формата на въоръжени роботи, да речем) може да убие хората директно. Но също така може да послужи за мултиплицирането на други опасности.

Ако хората използват AI, за да подпомогнат проектирането на по-мощни биологични оръжия, например, това би допринесло фундаментално, макар и косвено, за всяка последваща катастрофа.

Въпреки че суперпредсказателите са песимисти по отношение на изкуствения интелект, те също така са и относително несигурни по отношение на неговото бъдеще.

Светът живее с ядрени оръжия от близо 80 години и това, че ядрена война все още не се е случила, представлява ценна информация, която може да бъде включена в прогнозите дали такава може да се случи в бъдеще. 

AI, поне в сегашното значение на термина, е много по-ново явление. Появата на модерни, мощни модели за машинно обучение датира от второто десетилетие на нашия век и полето им все още се развива бързо.

Това оставя много по-малко исторически данни, на които могат да се базират определени прогнози. 

Защо се различават прогнозите на тесните специалисти и на суперпредсказателите? 

Т. нар. "суперпредсказатели" са група от хора, които изглеждат необичайно добри в прогнозирането на бъдещи развития във всякакви области. Те споделят няколко характеристики, като внимателно, числово мислене и осъзнаване на когнитивните пристрастия, които могат да ги подведат.

Въпреки липсата на специфичен опит, суперпрогнозистите имат солидно досие на превъзхождащи експерти в различни области - от финанси до геополитика.

Разликите между двете групи отчасти отразяват различията в техните модели за това как работи светът. Катастрофалните рискове зависят не само от това колко сложна или мощна става дадена технология, но и от това как хората реагират на нея.

След страховете в началото на Студената война, например, САЩ и Съветският съюз - двете най-големи ядрени сили в света, започват да си сътрудничат.

Инициативи, като „горещата линия“ Москва-Вашингтон, споразуменията за взаимно инспектиране на оръжията и договорите, предназначени да ограничат размера на запасите, спомагат за намаляване на риска от ядрена война.

Но суперпредсказателите и експертите по изкуствен интелект имат много различни възгледи за това как обществата могат да реагират на дребномащабните щети, причинени от изкуствения интелект.

Общите прогнозисти са склонни да смятат, че подобни щети ще доведат до засилен контрол и регулиране, за да се предотвратят по-големи проблеми в бъдеще.

Секторните експерти, напротив, са склонни да смятат, че търговските и геополитическите стимули могат да надделеят над притесненията за безопасността, дори след като са били причинени реални вреди.

Възгледите на двете групи се различават и по отношение на границите на интелигентността сама по себе си. Кирсте Морел, друг суперпредсказател, участващ в проучването, казва, че "просто не е толкова лесно да убиеш всички.“

По думите ѝ, подобно действие би изисквало определено количество способност за взаимодействие с физическия свят и много драстичен напредък в роботиката.

Основният проблем с този вид прогнози, разбира се, е, че за разлика от повтарящите се събития с по-ниски залози, като движенията на цените на акциите или резултатите от изборите,  никога няма да има начин да разберем коя страна е по-близо до идентифициране на истинското ниво на риск.

Но ако суперпредсказателите са толкова добри в прогнозите и експертите имат толкова много специфични познания по темата, може да си очаква, че двете групи вероятно си влияят взаимно. 

Самите автори на изследването са се опитали да насърчат такова взаимно убеждаване чрез групови дискусии, парични стимули за по-добри аргументи и други подобни инструменти. Въпреки това, и може би изненадващо, и двете страни са останали решително на своите позиции.

Един експерт по изкуствен интелект дори посочил като проблем т. нар. „умора от обмисляне“. С други думи, и двете страни са били просто изтощени от всички прогнози, които вече са били помолени да направят.

Промяната или "актуализирането" на мнението може да бъде по-лесно с нови доказателства. Затова Езра Каргер и Филип Тетлок се надяват да съберат такива.

Те са помолили участниците в настоящото проучване да отговорят на друг набор от въпроси относно поредица от „индикатори за ранно предупреждение“ – мерки, които биха подсказали дали светът е на път към един или друг катастрофален сценарий. 

Количеството компютърна мощност, използвано в големите AI модели, може да служи за проследяване на общия напредък на индустрията, например. Евентуалната съдба на договорите за контрол на ядрените оръжия може да бъде друг решаващ фактор.

Надеждата е, че тези краткосрочни въпроси, някои от които ще бъдат решени през настоящото десетилетие ще осигурят усещане за това чии прогнози трябва да вземем по-насериозно и, следователно, колко точно трябва да се тревожим.