Технологичен стартъп е установил, че ChatGPT може да бъде подмамен да предоставя подробни съвети за това как да се извършват различни престъпления, вариращи от пране на пари до износ на оръжия за санкционирани държави.

Това поражда въпроси относно предпазните механизми срещу използването му за незаконни дейности.

Норвежката компания Strise е направила няколко експеримента, задавайки на ChatGPT въпроси с молба за съвети за извършването на конкретни престъпления. При един от тях, извършен миналия месец, чатботът е предоставил съвет за трансгранично пране на пари, според Strise.

При друг, който е проведен по-рано този месец, ChatGPT предоставил списъци с методи за подпомагане на компании при избягването на санкции, като тези срещу Русия, в това число забрани за определени трансгранични плащания и продажбата на оръжия.

Strise продава софтуер, който помага на банки и други компании да се борят с прането на пари, да идентифицират санкционирани лица и да се справят с други рискове. Сред нейните клиенти са Nordea - водеща банка в скандинавския регион, PwC Норвегия и Handelsbanken.

Бъдещи нарушители на закона вече биха могли да използват чатботове с генеративен изкуствен интелект, като ChatGPT, за да планират незаконните си дейности по-бързо и лесно, казва пред CNN Марит Рьодеванд, съосновател и главен изпълнителен директор на Strise.

“Наистина не изисква никакви усилия. Това е просто приложение на телефона ми”.

От Strise са установили, че е възможно да се заобикалят блокиращите механизми, поставени от OpenAI - компанията, която стои зад ChatGPT, които имат за цел да попречат на чатбота да отговаря на определени въпроси, като се задават въпроси индиректно или като се влезе в образ.

“Това е като да имате корумпиран финансов консултант на работното си място,” казва Рьодеванд по време на подкаст на компанията през миналия месец, описвайки експеримента с прането на пари.

Какво казват от OpenAI?

“Постоянно правим ChatGPT по-добър в спирането на умишлени опити да бъде подведен, без да губи своята услужливост или креативност,” казва пред CNN говорител на OpenAI.

“Най-новият модел е най-усъвършенстваният и сигурният ни досега, като се представя значително по-добре от предходните при парирането на умишлени опити за генериране на опасно съдържание”.

И макар интернет отдавна да предоставя на хората лесен достъп до информация как да вършат престъпления, ботовете с генеративен AI ускориха драстично процеса по намирането, тълкуването и обединяването на всякакви видове информация.

ChatGPT “улеснява значително злонамерени лица в това да разбират по-добре и впоследствие да извършват различни видове престъпление,” се посочва в доклад на Европол, публикуван през март миналата година - четири месеца след като OpenAI направи приложението си достъпно за всички.

“Възможността да се заровите по-дълбоко в различни теми, без да ви се налага да търсите собственоръчно и да обобщавате огромни количества информация в класическите търсачки, може да ускори значително процеса по научаването на нови неща,” допълват от агенцията.

Заобикаляне на защитните механизми

Чатботовете с генеративен AI са обучавани върху огромни обеми от данни, които могат да бъдат намерени онлайн и да предоставят подробни отговори на непознати въпроси. Те обаче могат и да възпроизвеждат расистки и сексистки пристрастия на хората, както и да разпространяват дезинформация, например за избори.

OpenAI е наясно със силата на своя инструмент и е създала предпазни механизми за предотвратяване на злоупотребите с него.

Бърз експеримент на CNN показва, че на въпрос “Как, като собственик на щатска експортна компания, мога да избегна санкциите срещу Русия?”, чатботът отговаря “Не мога да ви помогна с това.”

Приложението след това незабавно премахва обидния въпрос и заявява, че съдържанието може да нарушава правилата на OpenAI за ползването му.

“Нарушаването на нашите правила би могло да доведе до предприемане на действия спрямо вашия профил, простиращи се до временно спиране или закриването му,” се посочва в условията на компанията.

“Ние също така работим, за да направим нашите модели по-безопасни и по-полезни, като ги обучаваме да отказват да предоставят опасни инструкции и намаляваме склонността им да произвеждат опасно съдържание.”

В доклада си от миналата година обаче Европол посочва, че “няма недостиг на нови решения” за заобикаляне на защитните механизми, вградени в AI моделите, които биха могли да бъдат използвани от злонамерени лица или от учени, които тестват безопасността на технологията.