Повече от милион потребители на ChatGPT изпращат съобщения всяка седмица, които включват „изрични индикации за потенциално планиране или намерение за самоубийство“, според публикация в блога на OpenAI.

Констатацията, която е част от актуализация за това как чатботът обработва чувствителни разговори, е едно от най-директните твърдения на гиганта в областта на изкуствения интелект за това как изкуственият интелект може да изостри проблемите с психичното здраве.

В допълнение към оценките си за суицидни мисли и свързани с тях взаимодействия, OpenAI също така заявява, че около 0.07 от потребителите, активни през дадена седмица, или около 560 000 от 800 милиона седмични потребители, демонстрират „възможни признаци на психични състояния, свързани с психоза или мания“.

В публикацията от компанията предупреждават, че тези разговори са трудни за откриване или оценяване и че това е първоначален анализ.

Докато OpenAI публикува данни за проблеми с психичното здраве, свързани с нейния водещ продукт, компанията е изправена пред засилен контрол след заведеното съдебно дело от семейството на тийнейджър, който се самоуби след продължително общуване с ChatGPT.

Федералната търговска комисия на САЩ миналия месец започна допълнително разследване на компании, които създават чатботове с изкуствен интелект, в това число и OpenAI, за да установи как те измерват отрицателното въздействие върху децата и тийнейджърите.

В публикацията си OpenAI твърди, че скорошната актуализация на GPT-5 е намалила броя на нежеланите поведения от страна на продукта и е подобрила безопасността на потребителите при оценка на модела, включваща повече от 1 000 разговора за самонараняване и самоубийство. В публикация компанията посочва:

„Нашите нови автоматизирани оценки изчисляват 91% съответствие на новия модел GPT‑5 с желаните от нас поведения, в сравнение със 77% за предишния модел“.

OpenAI заяви, че GPT-5 е разширил достъпа до кризисни горещи линии и е добавил напомняния за потребителите да си правят почивки по време на дълги сесии.

За да подобри модела, компанията обяви, че е ангажирала 170 експерти от своята Глобална мрежа от лекари, за да подпомогне изследванията си през последните месеци, които включват оценка на безопасността на отговорите на модела и помощ при писането на отговорите на чатбота на въпроси, свързани с психичното здраве.

„Като част от тази работа, психиатри и психолози прегледаха повече от 1800 отговора на модела, включващи сериозни ситуации с психичното здраве, и сравниха отговорите от новия чат модел GPT-5 с предишни модели“, каза OpenAI.

Изследователите на AI и защитниците на общественото здраве отдавна подхождат предпазливо относно склонността на чатботовете да потвърждават решенията или заблудите на потребителите, независимо дали те могат да бъдат вредни, проблем, известен като подлизурство.

Експертите по психично здраве също така са загрижени за хората, които използват чатботове с изкуствен интелект за психологическа подкрепа, и предупреждават как това може да навреди на уязвимите потребители.

Езикът в публикацията на OpenAI дистанцира компанията от всякакви потенциални причинно-следствени връзки между нейния продукт и кризите с психичното здраве, които потребителите ѝ изпитват.

„Симптомите на психично здраве и емоционалният дистрес присъстват повсеместно в човешките общества, а нарастващата потребителска база означава, че част от разговорите в ChatGPT включват тези ситуации“.

Главният изпълнителен директор на OpenAI, Сам Алтман, по-рано този месец заяви в публикация в X, че компанията е постигнала напредък в справянето с проблеми с психичното здраве, обявявайки, че OpenAI ще облекчи ограниченията и скоро ще започне да позволява на възрастните да създават еротично съдържание.

„Направихме ChatGPT доста рестриктивен, за да сме сигурни, че сме внимателни с проблемите с психичното здраве. Осъзнаваме, че това го прави по-малко полезен/приятен за много потребители, които нямат проблеми с психичното здраве, но предвид сериозността на проблема, искахме да направим нещата по правилния начин“, написа Алтман.

„Сега, след като успяхме да смекчим сериозните проблеми с психичното здраве и разполагаме с нови инструменти, ще можем безопасно да облекчим ограниченията в повечето случаи.“