
Общото събрание на ООН одобри първата си резолюция, посветена на изкуствения интелект. Тя е част от усилията на правителствата по света да ограничат рисковете, свързани с развитието на AI.
Резолюцията, инициирана от Съединените щати и подкрепена от още 123 страни, е одобрена единодушно от всички 193 държави-членки на ООН.
Тя насърчава държавите да защитават правата на човека и личните данни, както и да наблюдават всички рискове, съпътстващи приложенията на изкуствения интелект.
Това се случва на фона на засилващите се опасения относно потенциала на технологията да наруши демократичните системи, да улесни измамите, дезинформацията и престъпността, както и да доведе до значителни размествания на пазара на труда.
"Неправилното или злонамерено проектиране, разработване, внедряване и използване на системи с изкуствен интелек създават рискове, които биха могли да подкопаят защитата, насърчаването и упражняването на правата на човека и основните свободи“, се посочва в резолюцията.
За разлика от резолюциите на Съвета за сигурност, тези на Общото събрание на ООН не са правно обвързващи, а служат като индикатори за глобалните настроения.
Тази резолюция настоятелно призовава различните субекти, включително и правителствата, да насърчават създаването на регулаторни рамки за сигурни AI системи.
Документът има за цел да преодолее дигиталната пропаст между богатите нации и развиващите се страни, като гарантира включването им в дискусиите за бъдещето на изкуствения интелект.

ООН се стреми и да оборудва развиващите се страни с необходимите технологии и умения за използване на предимствата на AI, като откриване на болести, прогнозиране на наводнения, селскостопанска подкрепа и обучение.
През ноември Съединените щати, Обединеното кралство и още няколко държави създадоха глобален пакт, очертаващ мерки за защита на AI от злонамерени участници.
Споразумението подчертава необходимостта технологичните компании да разработват системи, базирани на изкуствен интелект, с всички необходими функции за сигурност.
Резолюцията на ООН предупреждава за "неправилното или злонамерено създаване, развитие, внедряване и използване на системи с изкуствен интелект, които нямат адекватна защита или нарушават международното право".
Междувременно, големите технологични компании, като цяло, одобряват необходимостта от регулиране на AI, но настояват за гаранции, че предстоящите регулации няма да нарушават техните интереси.
Законодателите на Европейския съюз дадоха окончателно одобрение на първия пакет от всеобхватни правила за AI на 13 март тази година, като се очаква те да влязат в сила до май или юни.
Регламентът на ЕС забраняват няколко технологии, включително биометрично наблюдение, системи за социално оценяване, разпознаване на емоции и нецелеви системи за разпознаване на лица.
Белият дом също си поставя за цел да смекчи рисковете от AI за потребителите, служителите и малцинствата, като същевременно повиши мониторинга на заплахите за националната сигурност в тази сфера през октомври.
Новините на Darik Business Review във Facebook , Instagram , LinkedIn и Twitter !
ФЬОНИКС Фарма, където работата е кауза
Калкулатори
Най-ново
Картина, плячкосана от нацистите, забелязана в обява на агенция за недвижими имоти
преди 4 минКакво постигна ЕС година след призива на Марио Драги за радикална промяна?
преди 14 минВодещ руски производител на дронове е на ръба на фалита
преди 41 минРеколтата от елда в Русия, основен хранителен продукт, ще достигне 6-годишно дъно
преди 1 часПицария с 3 обекта у нас планира да отвори 650 в Индия
преди 1 часНай-големият държавен инвестиционен фонд излиза от Caterpillar и пет израелски банки
преди 1 часПрочети още
Скъпоценни камъни за близо 10 млн. евро заловени в Турция
darik.bgСметките за ток скачат: Ето как да ги намалите напълно законно
darik.bgЛудото моминско парти на Селена Гомес!
darik.bgДве легенди на испанския футбол идват в София за мача с Ла Фурия
dsport.bgЯсни са 32 отбора в Шампионската лига, 4 дебютират, търсят се още 4
dsport.bgФеталната морфология - защо има ключова роля за проследяването на бременността и здравето на бебето?
9meseca.bg