Независимо дали получават готварски съвет или помощ за презентация, която трябва да напишат, ChatGPT е първата възможност за много хора да изпробват система с изкуствен интелект.

ChatGPT е базирана на усъвършенствана технология за езикова обработка, разработена от OpenAI.

Изкуственият интелект (AI) е обучен въз основа на текстови бази данни в интернет, в това число книги, списания и Wikipedia. В системата са въведени общо 300 млрд. думи. Крайният резултат е чатбот, който зловещо може да наподобява човек, но с енциклопедични познания.

Кажете на ChatGPT какво имате в шкафовете в кухнята и той ще ви даде рецепта какво да сготвите. Имате нужда от ударно въведение за важна презентация? Няма проблем.

Това обаче не изглежда ли прекалено добре? Убедителното доближаване до човешки отговори може да бъде влиятелен инструмент за хора с лоши намерения.

Учени, специалисти в областта на киберсигурността и експерти по AI предупреждават, че ChatGPT може да бъде използван от недобронамерени хора за създаване на противоречия и разпространение на пропаганда в социалните медии.

Досега разпространението на дезинформация изискваше значителни човешки усилия. Изкуствен интелект, като ChatGPT обаче, би улеснил значително т. нар. армии от тролове в разрастването на тяхната дейност, се посочва в доклад на университета Джорджтаун, Станфордската интернет обсерватория и OpenAI.

Усъвършенстваните системи за езикова обработка, като ChatGPT, биха могли да повлияят на оказването на влияние на потребителите на социални медии.

Подобни кампании имат за цел да отблъскват критики и да представят управляваща партия или политик в благоприятна светлина, като също така могат да агитират против или срещу определени политики.

С използването на фалшиви профили те също така разпространяват дезинформация в социалните медии. Подобна кампания беше използвана преди президентските избори в САЩ през 2016 г.

Хиляди профили в Twitter, Facebook, Instagram и YouTube, създадени от базираната в Санкт Петербург Internet Research Agency, са се фокусирали върху това да навредят на кампанията на Хилари Клинтън, като в същото време подкрепят тази на Доналд Тръмп, заключи комисия в Сената през 2019 г.

При бъдещи избори обаче може да се наложи да се справяме с още по-големи заблуди и дезинформация.

"Потенциалът за използване на езикови модели, които конкурират написаното от хора съдържание при ниски разходи, предполага, че тези модели, може да осигурят предимства на пропагандистите, които решат да ги използват," се посочва в публикувания през януари доклад.

"Тези предимства биха могли да разширят достъпа до по-голям брой участници, да позволят използването на нови техники за оказване на влияние и да направят посланията на дадена кампания много по-специализирани и потенциално ефективни," се казва в доклада.

Тук не става въпрос само за качеството на дезинформация, което може да се увеличи, но и за количеството.

AI системите биха могли да подобрят качеството на съдържанието, така че да звучи по-убедително и да направят така че обикновените интернет потребители трудно да установят, че то е част от организирана дезинформационна кампания, казва Джош Голдстийн от Центъра за сигурност и развиващи се технологии в университета Джорджтаун.

"Генеративните езикови модели могат да създава големи количества съдържание, което е уникално всеки път и позволяват на всеки пропагандатор да не разчита на копиране и поставяне на един и същ текст в профили в социални медии или в новинарски сайтове“, казва той.

Ако една платформа е залята с невярна информация или пропаганда, това ще затрудни повече потребителите да различат кои неща са верни и кои не, допълва той. Често това може да е целта на участващите в подобни кампании.

В неговия доклад също така е отбелязвано как достъпът до тези системи може да не остане в ръцете само на няколко организации.

"В момента малък брой компании или правителства притежават езикови модели от най-висока класа, които са ограничени до задачите, които могат да извършват надеждно и до езиците, които са им зададени.

"Ако бъда разработени допълнителни генеративни модели, това може да увеличи вероятността пропагандатори да се сдобият с достъп до тях".

Злонамерени групи биха могли да използват написаното от AI съдържание както спама, казва Гари Маркъс, специалист по AI и основател на Geometric Intelligence, която беше придобита от Uber през 2016 г.

"Хората, които разпространяват спам, се опитват да стигнат до възможно най-много хора и разчитат на най-доверчивите да кликат върху техните линкове. С AI обаче, всичко това може да стана много по-мащабно."

Дори ако платформи, като Twitter и Facebook, свалят три четвърти от съдържанието, което тези злонамерени групи разпространяват в техните мрежи, "ще има още най-малко 10 пъти повече съдържание, отколкото преди, което има за цел да подвежда хората онлайн", казва Маркъс.

Възходът на фалшивите профили в социалните медии се превърна в „трън в петата“ на компании, като Twitter и Facebook, а бързото съзряване на системите за езикови модели днес само ще напълни тези платформи с още повече фалшиви профили.

Ако обаче дезинформацията и фалшивите новини се очертават като още по-голяма заплаха заради AI системи, като ChatGPT, трябва ли платформите на социалните медии да бъдат възможно най-активни? Някои експерти смятат, че те няма да са прекалено строги спрямо подобни постове.

"Facebook и други платформи би трябвало да обозначават фалшивото съдържание, но Facebook се проваля зрелищно в този тест," казва Луис Нунес Амарал, директор на Northwestern Institute on Complex Systems.

"Сред причините за това бездействие са разходите за следенето на всеки пост и в същото време това, че тези фалшиви постове имат за цел да разгневяват и разделят хората, което пък увеличава взаимодействията, а това е от полза за Facebook."