Еден милион корисници на ChatGPT неделно сакаат да се самоубијат

Според официјален блог пост, OpenAI проценува дека пораките со „експлицитни индикатори за потенцијално самоубиствено планирање или намера“ сочинуваат значителен дел од вкупните интеракции на корисниците, објавува The Guardian.

од Vladimir Zorba
13 прегледи Фото: Јутјуб/Принтскрин/ВИОН

Повеќе од еден милион корисници на платформата ChatGPT покажуваат знаци на самоубиствена намера секоја недела, соопшти OpenAI во извештај за безбедноста на својот чет-бот.

Според официјален блог пост, OpenAI проценува дека пораките со „експлицитни индикатори за потенцијално самоубиствено планирање или намера“ сочинуваат значителен дел од вкупните интеракции на корисниците, објавува The Guardian.

Тоа е едно од најдиректните признанија на компанијата за можното влијание на вештачката интелигенција врз менталното здравје. Компанијата, исто така, соопшти дека околу 0,07 проценти од активните корисници неделно – приближно 560.000 луѓе од околу 800 милиони корисници – покажуваат можни знаци на психотични епизоди или манично однесување.

Во постот се забележува дека ваквите проценки се прелиминарни и тешко се квантифицираат прецизно. За да се подобри точноста и етичките стандарди на своите комуникации, OpenAI ангажираше 170 клиничари и експерти за ментално здравје од својата Глобална мрежа на лекари.

Тие анализираа повеќе од 1.800 одговори од моделот во ситуации кои вклучуваат сериозни кризи во менталното здравје и помогнаа во прилагодувањето на содржината поврзана со емоционална поддршка.

Експертите за ментално здравје претходно предупредија дека четботовите можат ненамерно да поттикнат опасни мисли со потврдување на погрешните сфаќања или негативните чувства на корисниците.

Извршниот директор на OpenAI, Сем Алтман, изјави претходно овој месец дека компанијата „постигнала напредок во намалувањето на ризикот од сериозни проблеми со менталното здравје“ и најави олеснување на некои ограничувања за работењето на ChatGPT.

OpenAI изјави дека ќе продолжи да развива механизми за побезбедна употреба на своите модели и да соработува со независни експерти и регулатори за, како што вели, „да ги направи алатките за вештачка интелигенција поддршка, а не закана, за корисниците во криза“.