Чатботовете може да халюцинират и да ласкаят потребителите си прекалено много, но поне абонаментният модел, който е в основата им, не вреди на нашето благосъстояние.

Много американци плащат около 20 долара на месец, за да използват премиум версиите на ChatGPT на OpenAI, Gemini Pro на Google или Claude на Anthropic, а резултатът е, че продуктите са проектирани да осигуряват максимална полезност, пише колумнистът Парми Олсън в Bloomberg.

Не очаквайте обаче това статукво да продължи. Приходите от абонаменти имат лимит, а новото ниво “макс” на Anthropic с цена от 200 долара на месец предполага, че дори и най-популярните големи езикови модели са подложени на натиск да намират нови източници на приходи.

За съжаление, най-очевидният от тях е рекламата — най-успешният бизнес модел в световната мрежа. Компаниите за AI вече проучват начини за внедряването на повече реклами в техните продукти и макар това да подпомага финансовите им резултати, то също така означава, че ни предстои да станем свидетели на нова глава в икономиката на вниманието, която захранва интернет.

Ако социалните медии могат да бъдат някакъв ориентир, последиците ще бъдат сериозни.

Една от цените за това е пристрастяването. Млади офис служители стават зависи от AI инструменти за писането на имейли и обработването на дълги документи, според проведено наскоро проучване, а от OpenAI казват, че група “проблемни” потребители на ChatGPT са пристрастени към инструмента.

Внедряването на реклами в ChatGPT, който в момента има над 500 милиона активни потребители, няма да стимулира компанията да помогне на тези хора да ограничат използването на продукта. Точно обратното.

Рекламата беше причината компании, като Meta Platforms Inc. на Марк Зукърбърг, да проектират алгоритми за насърчаване на ангажираността, които карат потребителите да скролват още и още, за да виждат повече реклами, което носи повече приходи.

Това е причината за така наречената „еншитификация“ (влошаване на качеството) на мрежата - място, което сега е изпълнено с кликбейт и публикации в социалните медии, които предизвикват възмущение.

Вграждането на подобни стимули в изкуствения интелект почти сигурно ще накара неговите дизайнери да намерят начини да предизвикат повече допаминови пикове, вероятно като правят още повече комплименти на потребителите, задават лични въпроси, за да ги накарат да общуват по-дълго или дори култивират емоционална привързаност, пише Олсън.

Милиони хора в западния свят вече гледат на чатботове, като Character.ai, Chai, Talkie, Replika и Botify, като на приятели или романтични партньори. Представете си колко убедителен може да бъде такъв софтуер, когато потребителите му биват подвеждани.

Представете си човек, който казва на своя изкуствен интелект, че се чувства депресиран, а системата препоръчва достъпни дестинации за почивка или лекарства за справяне с проблема.

Така ли ще работят рекламите в чатботовете?

Отговорът е обект на прекалено много експерименти, а компаниите наистина експериментират. Рекламната мрежа на Google, например, наскоро започна да пуска реклами в чатботове на трети страни.

Чатботът Chai, с който потребители са общували средно по 72 минути на ден през септември 2024 г., вече предлага изскачащи реклами. Чатботът Perplexity пък показва спонсорирани въпроси.

След предоставянето на отговор във връзка с търсенето на работа, например, той може да включи списък с последващи предложения и въпрос най-отгоре, който гласи: “Как мога да използвам Indeed, за да подобря търсенето на работа?”

Главният изпълнителен директор на Perplexity Аравинд Сринивас заяви при участие в подкаст през април, че компанията се стреми да стигне по-далеч, като създаде браузър, който да „получава данни дори извън приложението“, за да проследява „кои хотели и ресторанти посещавате“ и да активира това, което той нарече „хиперперсонализирани“ реклами.

За някои приложения това би могло да означава директно вплитане на реклами в разговорите, използване на интимни детайли, споделяни от потребителите, за да се предсказва и потенциално те дори да бъдат манипулирани да искат нещо, а след това тези намерения да се продават на предложилия най-висока цена.

В скорошна статия учени от Кеймбриджкия университет определиха това като предстоящата „икономика на намерението“, в която чатботове насочват разговори към марка или дори директна продажба.

Като доказателство те посочиха публикация от блога на OpenAI от 2023 г., призоваваща за „данни, които изразяват човешкото намерение“, за да се помогне за обучението на моделите.

Усилието е подобно на тези на Meta и на рамката за разработчици на Apple от 2024 г., която помага на приложения да работят със Siri за „предсказването на действия, които някой би могъл да предприеме в бъдеще“.

Що се отнася до главния изпълнителен директор на OpenAI Сам Алтман, нищо не издава повече това, че компанията изгражда рекламен бизнес от наемането на човек, който превърна приложението за доставки Instacart в рекламна сила.

Алтман наскоро „открадна“ Фиджи Симо, който се очаква да помогне на OpenAI “със скалирането на компанията при навлизането ѝ в следващата фаза на растеж.”

На езика на Силициевата долина „скалиране“ често означава бързо разширяване на потребителската база посредством предлагате на услуга безплатно с реклами, посочва Олсън.

Технологичните компании неизбежно ще твърдят, че рекламата е необходима за демократизирането на изкуствения интелект. Видяхме обаче как „безплатните“ услуги струваха на хората тяхната поверителност и автономност и дори психичното им здраве.

А изкуственият интелект знае повече за нас, отколкото Google или Facebook някога са знаели – подробности за нашите здравословни проблеми, проблеми във взаимоотношенията и работа.

За две години тези модели също така са изградили репутация на надеждни спътници и арбитри на истината. В платформата X, например, потребителите често включват моделите на изкуствен интелект Grok и Perplexity в разговори, за да сигнализират, ако дадена публикация е фалшива.

Когато хората се доверяват толкова много на изкуствения интелект, те са по-уязвими на целенасочена манипулация. Рекламата в AI трябва да бъде регулирана, преди да се вкорени прекалено много или ще повторим грешките, допуснати със социалните медии - ще разглеждаме последствията от доходоносния бизнес модел, едва след като щетите са нанесени, предупреждава Олсън.