Експерти предупреждават, че генерираното от изкуствения интелект (AI) съдържание може да представлява заплаха за самата AI технология, която го е създала.

В публикуван наскоро доклад за това как се обучават инструментите с генеративен интелект, като ChatGPT, екип от изследователи в сферата на изкуствения интелект от различни университети, в това число Оксфордския и Кеймбриджкия, установяват, че големите езикови модели, които стоят зад технологията, може потенциално да бъдат обучавани върху друго съдържание, генерирано от AI, което продължава да се разпространява в интернет — феномен, който те наричат "срив на модела."

В резултат на това, учените твърдят, че инструментите с генеративен AI може да предоставят отговори с по-ниско качество на запитванията на потребители, тъй като моделите им се обучават повече върху "синтетични данни" вместо върху създадено от хора съдържание, което ги прави уникални.

Други изследователи в сферата на AI са създали собствени термини, за да опишат този метод на обучение. В публикуван през юли доклад учени от университетите Станфорд и Райс наричат този феномен "Разстройство на автографията на модела."

В този случай цикълът на "самоизяждане", при който AI се обучава върху съдържание, генерирано от друг AI, би могло да доведе до инструменти с генеративен изкуствен интелект, които са "обречени" да имат спад в "качеството" и "разнообразието" на генерираните изображения и текст.

Джейтън Садовски, старши научен сътрудник на Emerging Technologies Research Lab в Австралия, нарича този феномен "Хабсбургски AI," като твърди, че AI системите, които са обучавани до голяма степен върху резултатите от други инструменти с генеративен изкуствен интелект, могат да създават "вродени мутирали" отговори, които съдържат "преувеличени, гротескни черти."

Макар конкретните ефекти от тези феномени да са все още неясни, някои експерти смятат, че "сривът на модела" и „кръвосмешението“ при AI биха могли да затруднят определянето на първоначалния източник на информация, върху който е обучен даден AI модел.

В резултат на това, доставчиците на точна информация, като медии, може да решат да ограничат съдържанието, което публикуват онлайн, като дори го направят платено, за да предотвратят използването му за обучението на AI, което би могло да създаде "мрачен период за публичната информация," се казва в есе, написано от Рей Уанг, главен изпълнителен директор на компанията за технологични изследвания Constellation Research.

Някои технологични експерти не са толкова притеснени от увеличаването на генерираното от AI съдържание в интернет. Саураб Баджи, старши вицепрезидент на Cohere, казва пред Axios, че човешките насоки" все още са от съществено значение за успеха и качеството" на генерираните AI модели на компанията, а други представители на индустрията казват пред изданието, че увеличението на генерираното от AI съдържание само ще направи създаденото от хората по-ценно.

Тези нови термини влизат в употреба ,след като генерираното от изкуствения интелект съдържание заля интернет след пускането през ноември на инструмента ChatGPT от страна на OpenAI.

Към 28 август компанията NewsGuard, която оценява надеждността на новинарските сайтове, е идентифицирала 452 "ненадеждни издания с новини, генерирани от AI, които почти нямат човешки надзор" и съдържат публикации, изпълнени с грешки.

Генерирани от AI сайтове с общи имена, като iBusiness Day, Ireland Top News, и Daily Time Update, може да бъдат счетени от потребители за надеждни източници на информация, което пък да увеличи разпространението на дезинформация, според NewsGuard.

Не само генерираните от AI сайтове създават публикации, които изобилстват от неточности. През януари технологичното издание CNET публикува 77 статии, използвайки "вътрешно създаден AI модел", а впоследствие се наложи да прави сериозни корекции, след като се оказва, че те са пълни с елементарни математически грешки.

Месеци по-късно от Gizmodo разкритикуваха ръководителите на компанията майка на изданието, след като в него бяха публикувани написани от AI статии с фактологични неточности.

Microsoft пък премахна редица статии от своя туристически блог, едната от които беше генерирана от AI, а в нея се препоръчваше на туристите в Отава да посетят хранителната банка в града и да го направят "на празен стомах."

Сега, след като стана ясно, че инструменти за засичане на съдържание от AI, като ZeroGPT и Text Classifier на OpenAI, са ненадеждни, за хората може би ще е по-трудно да откриват точна информация онлайн, която е създадена с човешки надзор, казва Кай-Ченг Янг, учен в сферата на изчислителните науки, който има написан доклад за злонамерени начини, по които би могъл да бъде използван чатботът на OpenAI.