Експерти предупреждават, че генерираното от изкуствения интелект (AI) съдържание може да представлява заплаха за самата AI технология, която го е създала.
В публикуван наскоро доклад за това как се обучават инструментите с генеративен интелект, като ChatGPT, екип от изследователи в сферата на изкуствения интелект от различни университети, в това число Оксфордския и Кеймбриджкия, установяват, че големите езикови модели, които стоят зад технологията, може потенциално да бъдат обучавани върху друго съдържание, генерирано от AI, което продължава да се разпространява в интернет — феномен, който те наричат "срив на модела."
В резултат на това, учените твърдят, че инструментите с генеративен AI може да предоставят отговори с по-ниско качество на запитванията на потребители, тъй като моделите им се обучават повече върху "синтетични данни" вместо върху създадено от хора съдържание, което ги прави уникални.
Други изследователи в сферата на AI са създали собствени термини, за да опишат този метод на обучение. В публикуван през юли доклад учени от университетите Станфорд и Райс наричат този феномен "Разстройство на автографията на модела."
В този случай цикълът на "самоизяждане", при който AI се обучава върху съдържание, генерирано от друг AI, би могло да доведе до инструменти с генеративен изкуствен интелект, които са "обречени" да имат спад в "качеството" и "разнообразието" на генерираните изображения и текст.
Джейтън Садовски, старши научен сътрудник на Emerging Technologies Research Lab в Австралия, нарича този феномен "Хабсбургски AI," като твърди, че AI системите, които са обучавани до голяма степен върху резултатите от други инструменти с генеративен изкуствен интелект, могат да създават "вродени мутирали" отговори, които съдържат "преувеличени, гротескни черти."
Макар конкретните ефекти от тези феномени да са все още неясни, някои експерти смятат, че "сривът на модела" и „кръвосмешението“ при AI биха могли да затруднят определянето на първоначалния източник на информация, върху който е обучен даден AI модел.
В резултат на това, доставчиците на точна информация, като медии, може да решат да ограничат съдържанието, което публикуват онлайн, като дори го направят платено, за да предотвратят използването му за обучението на AI, което би могло да създаде "мрачен период за публичната информация," се казва в есе, написано от Рей Уанг, главен изпълнителен директор на компанията за технологични изследвания Constellation Research.
Някои технологични експерти не са толкова притеснени от увеличаването на генерираното от AI съдържание в интернет. Саураб Баджи, старши вицепрезидент на Cohere, казва пред Axios, че човешките насоки" все още са от съществено значение за успеха и качеството" на генерираните AI модели на компанията, а други представители на индустрията казват пред изданието, че увеличението на генерираното от AI съдържание само ще направи създаденото от хората по-ценно.
Тези нови термини влизат в употреба ,след като генерираното от изкуствения интелект съдържание заля интернет след пускането през ноември на инструмента ChatGPT от страна на OpenAI.
Към 28 август компанията NewsGuard, която оценява надеждността на новинарските сайтове, е идентифицирала 452 "ненадеждни издания с новини, генерирани от AI, които почти нямат човешки надзор" и съдържат публикации, изпълнени с грешки.
Генерирани от AI сайтове с общи имена, като iBusiness Day, Ireland Top News, и Daily Time Update, може да бъдат счетени от потребители за надеждни източници на информация, което пък да увеличи разпространението на дезинформация, според NewsGuard.
Не само генерираните от AI сайтове създават публикации, които изобилстват от неточности. През януари технологичното издание CNET публикува 77 статии, използвайки "вътрешно създаден AI модел", а впоследствие се наложи да прави сериозни корекции, след като се оказва, че те са пълни с елементарни математически грешки.
Месеци по-късно от Gizmodo разкритикуваха ръководителите на компанията майка на изданието, след като в него бяха публикувани написани от AI статии с фактологични неточности.
Microsoft пък премахна редица статии от своя туристически блог, едната от които беше генерирана от AI, а в нея се препоръчваше на туристите в Отава да посетят хранителната банка в града и да го направят "на празен стомах."
Сега, след като стана ясно, че инструменти за засичане на съдържание от AI, като ZeroGPT и Text Classifier на OpenAI, са ненадеждни, за хората може би ще е по-трудно да откриват точна информация онлайн, която е създадена с човешки надзор, казва Кай-Ченг Янг, учен в сферата на изчислителните науки, който има написан доклад за злонамерени начини, по които би могъл да бъде използван чатботът на OpenAI.
Новините на Darik Business Review във Facebook , Instagram , LinkedIn и Twitter !
Калкулатори
Най-ново
Главният редактор на Darik Business Review с награда от БКДМП
преди 2 часаПерфектната дестинация за пенсиониране – според зодията
преди 3 часаКак Литва се превърна в магнит за финтех компаниите?
преди 4 часаПредпазливите към технологиите германци се пристрастяват към онлайн пазаруването
преди 4 часаТърговска война между САЩ и Европа тласка еврото към паритет с долара?
преди 5 часаТоварният транспорт със спад през третото тримесечие
преди 5 часаПрочети още
Необичайно модно ревю превърна деца от бедните квартали на Индия в звезди
darik.bgДежавю за феновете на Адел: Певицата отново излиза в дълга певческа ваканция
darik.bgАмериканците отброяват дните до Деня на благодарността
darik.bgНа живо: Шоу в Овча Купел - греда и два незачетени гола на Славия - Крумовград
dsport.bgОбластна администрация София-град и Столична община подписаха договора за прехвърляне на собствеността на стадион Георги Аспарухов
dsport.bgКак да стартирате собствен онлайн бизнес по време на майчинство?
9meseca.bgНеща, които трябва да изхвърлите от дома си сега
idei.bgКак да си направим кърпички за почистване
idei.bg6 неща, които правят дори най-стилния коридор да изглежда разхвърлян
idei.bg