Изкуственият интелект преобразява работните места и все по-често намира своя път до много тийнейджъри и деца.

От помощ с домашните до чат с „приятели“ с изкуствен интелект, инструменти, като ChatGPT, имат безплатни онлайн версии, до които младите потребители имат лесен достъп.

Тези чатботове с изкуствен интелект, изградени във основана на големи езикови модели (LLM), генерират човешки отговори, което предизвиква безпокойство сред родители, преподаватели и изследователи.

Проучване на Pew Research Center от 2024 г. установява, че 26% от американските тийнейджъри на възраст от 13 до 17 години са използвали ChatGPT за училищните си задачи - двойно повече от предходната година. Осведомеността за чатбота се е увеличила до 79% през 2024 г. от 67% през 2023 г.

Регулаторните органи обаче са обърнали внимание на това. През септември Федералната търговска комисия на САЩ разпореди на седем компании, в това число OpenAI, Alphabet и Meta, да обяснят как техните чатботове с изкуствен интелект могат да повлияят на децата и тийнейджърите.

В отговор на нарастващия контрол, OpenAI обяви през същия месец, че ще стартира специално ChatGPT изживяване с родителски контрол за потребители под 18 години и ще разработи инструменти за по-добро прогнозиране на възрастта на потребителя.

Системата автоматично ще насочва непълнолетните към „ChatGPT изживяване с подходящи за възрастта правила“, заявиха от компанията. 

Рисковете за децата, които използват чатботове с AI

Някои експерти обаче се притесняват, че ранното излагане на изкуствен интелект, особено след като най-младите поколения днес растат с технологията, може да повлияе негативно на начина, по който децата и тийнейджърите мислят и учат.

Предварително проучване от 2025 г. на изследователи от Медийната лаборатория на MIT изследва когнитивната цена от използването на големи езикови модели при писане на есета.

54 участници на възраст от 18 до 39 години са помолени да напишат есе и са разпределени в три групи: едната могла да използва чатбот с изкуствен интелект, другата - търсачка, а третата – да разчита единствено на собствените си знания.

Според проучването, статията, която все още е в процес на рецензиране, установява, че свързаността в мозъка „систематично намалява с количеството външна подкрепа“.

„Групата, която е трябвало да използва само собствения си мозък, е демонстрирала най-силните и широкообхватни мозъчни мрежи; групата, използваща търсачки, е показала средна степен на ангажираност, а при тези, които са използвали езикови модели, е предизвикано най-слабото общо невронно свързване“, според проучването.

В крайна сметка, проучването предполага, че когато разчитат на чатботове с изкуствен интелект, това може да накара хората да се чувстват по-малко отговорни за работата си и да доведе до т. нар. „когнитивен дълг“ – модел на отлагане на умствените усилия в краткосрочен план, който може да подкопае креативността или да направи потребителите по-уязвими на манипулация в дългосрочен план.

„Удобството да разполагате с този инструмент днес ще има цена на по-късна дата и най-вероятно тя ще се натрупва“, казва изследователят Наталия Космина, която ръководи проучването на MIT Media Lab. "Констатациите също така показват, че разчитането на големи езикови модели може да доведе до „значителни проблеми с критичното мислене“, допълва тя.

Децата, по-специално, биха могли да бъдат изложени на риск от някои от негативните последици от използването на чатботове с изкуствен интелект твърде рано.

За да се смекчат тези рискове, изследователите са съгласни, че е много важно всеки, особено младежите, първо да притежава уменията и знанията, преди да разчита на инструменти с изкуствен интелект за изпълнение на задачи. Космина съветва:

„Развийте умението първо сами, дори и да не сте експерт в него“.

Това ще позволи по-лесното разкриване на несъответствия и халюцинации, свързани с изкуствения интелект – феномен, при който неточна или изфабрикувана информация се представя като факти, допълва тя, което също ще помогне за „подкрепа на развитието на критичното мислене“.

„За по-малките деца, предполагам, че е много важно да се ограничи използването на генеративен изкуствен интелект, защото те наистина се нуждаят от повече възможности да мислят критично и самостоятелно“, казва Пилионг Ким, професор в Университета в Денвър и експерт по детска психология.

Съществуват и рискове за поверителността, за които децата може да не са наясно, и е важно, когато използват тези инструменти, те да се използват отговорно и безопасно, обясни Космина. „Трябва да преподаваме цялостна грамотност, не само в областта на изкуствения интелект, но и компютърна“, казва тя.

„Нуждаем се от наистина ясна технологична хигиена.“

Децата също така имат са по-склонни да антропоморфизират или да приписват човешки характеристики или поведение на нечовешки същества, казва Ким.

„Сега разполагаме с машини, които говорят точно като хора“, казва Ким, което може да постави децата в уязвими ситуации.

„Обикновената похвала от тези роботи наистина може да промени поведението им“.

Защита на децата в ерата на изкуствения интелект

Днес поколението, което расте с изкуствения интелект, има с достъп до тези инструменти и експертите се питат: „Какво се случва при продължителна употреба?“

„Твърде рано е да се знае. Разбира се, никой не прави проучвания върху тригодишни деца, но е много важно да се има предвид, че трябва да разберем какво се случва с мозъците на тези, които използват тези инструменти много млади“, казва Космина.

„Виждаме случаи на психоза, свързана с изкуствен интелект и на безживотност. Виждаме някои дълбоки депресии и това е много тревожно, тъжно и в крайна сметка - опасно“.

Космина и Ким казват, че регулаторните органи и технологичните компании споделят отговорността да защитават обществото и младите хора, като вземат правилните предпазни мерки.

Съветът на Ким за родителите е прост: поддържайте отворена комуникация с децата си и наблюдавайте инструментите с изкуствен интелект, които използват, включително какво въвеждат в големите езикови модели.