Експерти предупреждават, че генерираното от изкуствения интелект (AI) съдържание може да представлява заплаха за самата AI технология, която го е създала.
В публикуван наскоро доклад за това как се обучават инструментите с генеративен интелект, като ChatGPT, екип от изследователи в сферата на изкуствения интелект от различни университети, в това число Оксфордския и Кеймбриджкия, установяват, че големите езикови модели, които стоят зад технологията, може потенциално да бъдат обучавани върху друго съдържание, генерирано от AI, което продължава да се разпространява в интернет — феномен, който те наричат "срив на модела."
В резултат на това, учените твърдят, че инструментите с генеративен AI може да предоставят отговори с по-ниско качество на запитванията на потребители, тъй като моделите им се обучават повече върху "синтетични данни" вместо върху създадено от хора съдържание, което ги прави уникални.
Други изследователи в сферата на AI са създали собствени термини, за да опишат този метод на обучение. В публикуван през юли доклад учени от университетите Станфорд и Райс наричат този феномен "Разстройство на автографията на модела."
В този случай цикълът на "самоизяждане", при който AI се обучава върху съдържание, генерирано от друг AI, би могло да доведе до инструменти с генеративен изкуствен интелект, които са "обречени" да имат спад в "качеството" и "разнообразието" на генерираните изображения и текст.
Джейтън Садовски, старши научен сътрудник на Emerging Technologies Research Lab в Австралия, нарича този феномен "Хабсбургски AI," като твърди, че AI системите, които са обучавани до голяма степен върху резултатите от други инструменти с генеративен изкуствен интелект, могат да създават "вродени мутирали" отговори, които съдържат "преувеличени, гротескни черти."
Макар конкретните ефекти от тези феномени да са все още неясни, някои експерти смятат, че "сривът на модела" и „кръвосмешението“ при AI биха могли да затруднят определянето на първоначалния източник на информация, върху който е обучен даден AI модел.
В резултат на това, доставчиците на точна информация, като медии, може да решат да ограничат съдържанието, което публикуват онлайн, като дори го направят платено, за да предотвратят използването му за обучението на AI, което би могло да създаде "мрачен период за публичната информация," се казва в есе, написано от Рей Уанг, главен изпълнителен директор на компанията за технологични изследвания Constellation Research.
Някои технологични експерти не са толкова притеснени от увеличаването на генерираното от AI съдържание в интернет. Саураб Баджи, старши вицепрезидент на Cohere, казва пред Axios, че човешките насоки" все още са от съществено значение за успеха и качеството" на генерираните AI модели на компанията, а други представители на индустрията казват пред изданието, че увеличението на генерираното от AI съдържание само ще направи създаденото от хората по-ценно.
Тези нови термини влизат в употреба ,след като генерираното от изкуствения интелект съдържание заля интернет след пускането през ноември на инструмента ChatGPT от страна на OpenAI.
Към 28 август компанията NewsGuard, която оценява надеждността на новинарските сайтове, е идентифицирала 452 "ненадеждни издания с новини, генерирани от AI, които почти нямат човешки надзор" и съдържат публикации, изпълнени с грешки.
Генерирани от AI сайтове с общи имена, като iBusiness Day, Ireland Top News, и Daily Time Update, може да бъдат счетени от потребители за надеждни източници на информация, което пък да увеличи разпространението на дезинформация, според NewsGuard.
Не само генерираните от AI сайтове създават публикации, които изобилстват от неточности. През януари технологичното издание CNET публикува 77 статии, използвайки "вътрешно създаден AI модел", а впоследствие се наложи да прави сериозни корекции, след като се оказва, че те са пълни с елементарни математически грешки.
Месеци по-късно от Gizmodo разкритикуваха ръководителите на компанията майка на изданието, след като в него бяха публикувани написани от AI статии с фактологични неточности.
Microsoft пък премахна редица статии от своя туристически блог, едната от които беше генерирана от AI, а в нея се препоръчваше на туристите в Отава да посетят хранителната банка в града и да го направят "на празен стомах."
Сега, след като стана ясно, че инструменти за засичане на съдържание от AI, като ZeroGPT и Text Classifier на OpenAI, са ненадеждни, за хората може би ще е по-трудно да откриват точна информация онлайн, която е създадена с човешки надзор, казва Кай-Ченг Янг, учен в сферата на изчислителните науки, който има написан доклад за злонамерени начини, по които би могъл да бъде използван чатботът на OpenAI.
Новините на Darik Business Review във Facebook , Instagram , LinkedIn и Twitter !
Калкулатори
Най-ново
Как Испания стана най-бързорастящата икономика в еврозоната?
преди 1 часГробницата на Кир: Най-старата земетръсоустойчива структура в света
преди 1 часКакво се случва с конфискуваните криптовалути?
преди 1 часРусия глоби Google с повече пари, отколкото има на света
преди 1 часС елементи от масивно злато: Rolls-Royce създаде Phantom Goldfinger
преди 2 часаЗащо пазарът на дрехи втора употреба е в криза?
преди 2 часаПрочети още
Наводненията в Испания: Издаден е нов червен код за опасни валежи, този път за района на Уелва
darik.bgПроф. Кадим от УМБАЛ „Св. Георги“: С напредъка на диагностиката и терапиите, шансовете за успешно лечение на рака на простатата нарастват значително
darik.bgРусия глобява Google с повече пари, отколкото има в целия свят
darik.bgОфициално: Рубен Аморим е новият мениджър на Манчестър Юнайтед
dsport.bgТомаш: Локо Пд винаги се бори докрай, очаква ни пореден сериозен тест (ВИДЕО)
dsport.bg7 хил. недоносени бебета се раждат в България годишно
9meseca.bg3 дизайнерски тенденции, с които ще се сбогуваме през 2025 г.
idei.bgТрикове, с които ще направите прането по-лесно
idei.bg5 неща, които правят вашата кухня да изглежда организирана
idei.bg