Все повече хора по света експериментират с използването на AI асистенти в ежедневната си работа. Оказва се обаче, че една от най-големите пречки пред тези технологични решения е, че често разбират нещата абсолютно погрешно. 

Примерите за това са многобройни, а експертите характеризират проблема на изкуствения интелект като "халюцинации" - големите езикови модели понякога просто си измислят разни неща.

Но по-тревожното е, че поне до момента никой не успява да даде ясен отговор защо се случва това, пише MIT Technology Review.

В един от последните гафове Gemini на Google отказа да генерира изображения на бели хора, особено на бели мъже. Вместо това потребителите успяха да генерират изображения на чернокожи папи и нацистки войници от женски пол.

Оказва се, че Google е направила опит да накара резултатите от нейния модел да бъдат по-малко пристрастни, но всъщност е постигнала обратен ефект, в резултат на който технологичната компания се озова в центъра на т. нар. "културни войни" в Съединените щати.

Консервативните критици, в това число и милиардерът Илон Мъск, я обвиниха в пристрастност и подвежащо представяне на исторически факти. Google се извини и постави функцията на своя чатбот "на пауза".

В друг нашумял инцидент чатът на Microsoft в Bing посъветва репортер на The New York Times да напусне жена си. А чатботовете за обслужване на клиенти продължават да вкарват компаниите си във всякакви проблеми.

Air Canada, например, наскоро беше принудена да върне на клиент пари в съответствие с политика за обслужване на клиенти, създадена от нейния чатбот без знанието на ръководството. 

Как се обучават големите езикови AI модели? 

Технологичните компании бързат да пуснат на пазара продукти, задвижвани от AI, въпреки обширните доказателства, че тези модели са трудни за контролиране и често се държат по непредвидими начини.

Това странно поведение се случва, защото никой не знае как точно работи дълбокото обучение (от англ. deep learning) - основната технология, задвижваща настоящия AI бум. 

Това е един от най-големите "пъзели" на изкуствения интелект. Най-големите езикови модели вече са толкова сложни, че изследователите ги изучават като странни природни явления, провеждат експерименти и се опитват да обяснят резултатите.

Много от тези наблюдения влизат в противоречие с класическата статистика, която, поне на теория, би трябвало да даде най-доброто обяснение за поведението на прогнозните модели.

Най-големите изненади произтичат от начина, по който чатботовете могат да се научат да правят неща, които не са им "показвани". Умението за обобщаване е една от фундаменталните идеи в машинното обучение, но и една от най-големите му мистерии.

Моделите се учат да изпълняват дадена задача – да забелязват лица, да превеждат изречения, да избягват пешеходци – чрез обучение с конкретен набор от примери. Но те могат да обобщават и генерализират, като се учат да изпълняват тази задача с примери, които не са виждали преди. 

Те не просто запомнят модели, които са "видели", но измислят правила, които им позволяват да прилагат тези модели към нови случаи. И понякога това се случва, когато създателите им не го очакват. 

Големите езикови модели, като GPT-4 на OpenAI и Gemini на Google DeepMind, имат удивителна способност да обобщават.

Моделът може да научи няколко математически задачи на английски език и след това да обобщи още няколко подобни, но, освен това, той може да научи математически задачи на английски, след това да "прочете" малко френска литература и от това да обобщи решения на математически задачи на френски.

А това е нещо, което статистиката не може да обясни.  

Защо чатботовете "халюцинират"? 

Бързият напредък в машинното обучение през последното десетилетие идва в голяма степен от опити на принципа "проба-грешка", отколкото от цялостно разбиране. Изследователите копират това, което работи за другите, и се захващат със собствените си иновации.

Вече има много различни съставки, които могат да се добавят към моделите, и постоянно разширяваща се "готварска книга", пълна с рецепти за използването им.

Според класическата статистика, колкото по-голям става един модел, толкова по-склонен е към грешки. Това е така, защото въвеждането на повече параметри прави по-труден баланса между недостатъчната и прекомерната информация, която моделът трябва да намери, за да обобщи резултатите.

Но с големите модели, всъщност, се случва нещо друго. 

Производителността на даден модел често се представя от гледна точка на броя на грешките, които прави - с нарастването на производителността процентът на грешки намалява.

В продължение на десетилетия се смяташе, че с увеличаването на моделите процентът на грешки намалява и след това се повишава - нещо като U-образна крива с най-благоприятното място за обобщение в най-ниската ѝ точка. 

През 2018 г. обаче изследователи от Калифорнийския университет в Сан Диего откриват, че когато някои модели стават по-големи, техният процент на грешки намалява, след това се повишава, а по-късно отново спада.

Те описват феномена като "двойно спадане", или W-образна крива. С други думи, големите модели по някакъв начин успяват да преодолеят проблема с прекомерната информация, като стават още по-добри в обобщаването. 

Но разбирането защо дълбокото обучение работи толкова добре не е просто интригуващ научен пъзел. То може да бъде от ключово значение за отключването на следващото поколение на технологията, както и за справяне с някои от нейните най-големи рискове.

Магия или наука? 

На целия този фон е лесно човек да сбърка възприятията, произтичащи от неговото невежество, с някаква "магия". Дори името на технологията - изкуствен интелект - е изключително подвеждащо.

Езиковите модели изглеждат умни, защото създават "човешка" проза, като предвиждат следващата дума в изречението. Технологията не е наистина интелигентна и определението й измества очакванията, карайки хората да се отнасят към нея като по-способна, отколкото е в действителност.

От тази гледна точка е по-добре да не попадаме в маркетинговия капан на технологичния сектор, в който някои играчи се оптитват да убедят публиката, че чатботовете почти са готови за работата, която очакваме да изпълняват.

Поради тяхната непредсказуемост, пристрастия, уязвимости в сигурността и склонност да си измислят разни неща, тяхната полезност е изключително ограничена.

Те могат да помогнат на хората да размишляват или да ги забавляват, но, поне за момента, вероятно не е добра идея да им доверявате данните на вашата кредитна карта или каквато и да била друга чувствителна информация.

Основният фокус на изследователите в момента да разберат как моделите "произвеждат" своя продукт, но ще са необходими още много проучвания, докато стане ясно защо го правят.

И докато не бъдат разкрити всички тези мистерии около поведението на AI, можем да очакваме още доста странни грешки и гафове, докато в същото време технологията неизбежно няма да успее да оправдае голяма част от нереалните очаквания към нея.