Експерти предупреждават, че генерираното от изкуствения интелект (AI) съдържание може да представлява заплаха за самата AI технология, която го е създала.
В публикуван наскоро доклад за това как се обучават инструментите с генеративен интелект, като ChatGPT, екип от изследователи в сферата на изкуствения интелект от различни университети, в това число Оксфордския и Кеймбриджкия, установяват, че големите езикови модели, които стоят зад технологията, може потенциално да бъдат обучавани върху друго съдържание, генерирано от AI, което продължава да се разпространява в интернет — феномен, който те наричат "срив на модела."
В резултат на това, учените твърдят, че инструментите с генеративен AI може да предоставят отговори с по-ниско качество на запитванията на потребители, тъй като моделите им се обучават повече върху "синтетични данни" вместо върху създадено от хора съдържание, което ги прави уникални.
Други изследователи в сферата на AI са създали собствени термини, за да опишат този метод на обучение. В публикуван през юли доклад учени от университетите Станфорд и Райс наричат този феномен "Разстройство на автографията на модела."
В този случай цикълът на "самоизяждане", при който AI се обучава върху съдържание, генерирано от друг AI, би могло да доведе до инструменти с генеративен изкуствен интелект, които са "обречени" да имат спад в "качеството" и "разнообразието" на генерираните изображения и текст.
Джейтън Садовски, старши научен сътрудник на Emerging Technologies Research Lab в Австралия, нарича този феномен "Хабсбургски AI," като твърди, че AI системите, които са обучавани до голяма степен върху резултатите от други инструменти с генеративен изкуствен интелект, могат да създават "вродени мутирали" отговори, които съдържат "преувеличени, гротескни черти."
Макар конкретните ефекти от тези феномени да са все още неясни, някои експерти смятат, че "сривът на модела" и „кръвосмешението“ при AI биха могли да затруднят определянето на първоначалния източник на информация, върху който е обучен даден AI модел.
В резултат на това, доставчиците на точна информация, като медии, може да решат да ограничат съдържанието, което публикуват онлайн, като дори го направят платено, за да предотвратят използването му за обучението на AI, което би могло да създаде "мрачен период за публичната информация," се казва в есе, написано от Рей Уанг, главен изпълнителен директор на компанията за технологични изследвания Constellation Research.
Някои технологични експерти не са толкова притеснени от увеличаването на генерираното от AI съдържание в интернет. Саураб Баджи, старши вицепрезидент на Cohere, казва пред Axios, че човешките насоки" все още са от съществено значение за успеха и качеството" на генерираните AI модели на компанията, а други представители на индустрията казват пред изданието, че увеличението на генерираното от AI съдържание само ще направи създаденото от хората по-ценно.
Тези нови термини влизат в употреба ,след като генерираното от изкуствения интелект съдържание заля интернет след пускането през ноември на инструмента ChatGPT от страна на OpenAI.
Към 28 август компанията NewsGuard, която оценява надеждността на новинарските сайтове, е идентифицирала 452 "ненадеждни издания с новини, генерирани от AI, които почти нямат човешки надзор" и съдържат публикации, изпълнени с грешки.
Генерирани от AI сайтове с общи имена, като iBusiness Day, Ireland Top News, и Daily Time Update, може да бъдат счетени от потребители за надеждни източници на информация, което пък да увеличи разпространението на дезинформация, според NewsGuard.
Не само генерираните от AI сайтове създават публикации, които изобилстват от неточности. През януари технологичното издание CNET публикува 77 статии, използвайки "вътрешно създаден AI модел", а впоследствие се наложи да прави сериозни корекции, след като се оказва, че те са пълни с елементарни математически грешки.
Месеци по-късно от Gizmodo разкритикуваха ръководителите на компанията майка на изданието, след като в него бяха публикувани написани от AI статии с фактологични неточности.
Microsoft пък премахна редица статии от своя туристически блог, едната от които беше генерирана от AI, а в нея се препоръчваше на туристите в Отава да посетят хранителната банка в града и да го направят "на празен стомах."
Сега, след като стана ясно, че инструменти за засичане на съдържание от AI, като ZeroGPT и Text Classifier на OpenAI, са ненадеждни, за хората може би ще е по-трудно да откриват точна информация онлайн, която е създадена с човешки надзор, казва Кай-Ченг Янг, учен в сферата на изчислителните науки, който има написан доклад за злонамерени начини, по които би могъл да бъде използван чатботът на OpenAI.
Новините на Darik Business Review във Facebook , Instagram , LinkedIn и Twitter !
Калкулатори
Най-ново
Apple иска да превърне Siri в конкурент на ChatGPT
преди 7 минКои са най-добрите държави за създаване AI стартъпи?
преди 1 часAmazon инвестира в три нови ветропарка в Гърция
преди 1 часЗащо подводните кабели примамват саботьорите?
преди 1 часНадеждата на Европа в производството на батерии за електромобили обяви фалит
преди 2 часаКакво представлява дефлацията и по-лоша ли е от инфлацията?
преди 2 часаПрочети още
Изкуство или абсурд: Банан, залепен с тиксо за стена, се продаде за 6,2 млн. долара
darik.bgМемоарите на Меркел: За Тръмп и Путин от първо лице
darik.bgСвещеник бе отстранен от длъжност след провокативен клип на Сабрина Карпентър в църквата му
darik.bgНово 20: Манчестър Сити получава наказанието си през март
dsport.bgБългария ще научи своя съперник в Лига на нациите
dsport.bgД-р Маринова за доброкачествените заболявания на гърдата
9meseca.bg11 прости детайла, с които банята ви ще изглежда като 5-звезден хотел
idei.bgИнтелигентни водомер – предимства и тенденции
idei.bgНай-честите грешки, които допускаме, когато използваме домакински уреди
idei.bg