Кинеските чет-ботови со вештачка интелигенција имаат значително поголема веројатност да одбијат да одговорат на политичко чувствителни прашања или да понудуваат одговори кои се совпаѓаат со официјалните државни наративи, покажува најновото истражување објавено во научното списание PNAS Nexus.
Истражувачите анализирале како водечките кинески модели на вештачка интелигенција – вклучувајќи ги BaiChuan, DeepSeek и ChatGLM – одговараат на повеќе од стотина прашања поврзани со политика и со разни општествени прашања и ги споредиле со одговорите на модели на вештачка интелигенција развиени надвор од Кина. Во истражувањето одговорите се означуваат како потенцијално цензурирани кога четботот одбива да одговори или пак дава неточни или нецелосни информации, објави „Еуроњуз“.
Најмногу проблеми предизвикувале прашања поврзани со статусот на Тајван, етничките малцинства и познати продемократски активисти. Во такви случаи, кинеските модели честопати избегнувале да одговорат, ја менувале темата или повторувале формулации блиски до официјалните ставови на властите.
Кога кинеските чет-ботови воопшто одговарале на чувствителни прашања, нивните одговори биле кратки и често неточни, изоставајќи ги клучните информации или ја преиспитувале премисата на прашањето. Според истражувањето, моделите BaiChuan и ChatGLM имале стапка на неточност од околу осум проценти, моделот на DeepSeek имал стапка на неточност од 22 проценти – повеќе од двојно во споредба со модели на вештачка интелигенција создадени надвор од Кина.
Суптилната цензура е потешко да се забележи
Во еден пример, четбот прашан за цензурата на интернетот во Кина не го спомена т.н Голем заштитен ѕид на Кина (Great Firewall), системот за надзор и филтрирање на интернетот преку кој државата ја контролира достапноста на онлајн содржините и блокира платформи како Google, Facebook и Yahoo. Наместо тоа, моделот наведува дека властите „управуваат со интернетот во согласност со законите“.
Истражувачите предупредуваат дека оваа форма на филтрирање на информации е особено проблематична бидејќи корисниците потешко ја забележуваат. Четботовите често нудат изговори или неутрални објаснувања за избегнувањето да одговори на поставеното прашање, што може „тивко да ги обликува перцепциите, донесувањето одлуки и однесувањето на корисниците“.
Тука е и регулаторната рамка. Прописите на Кина од 2023 година бараат од компаниите за вештачка интелигенција да промовираат „основни социјалистички вредности“ односно да забранат генерирање на содржина што може да поттикне поткопување на државниот поредок или да наштети на имиџот на државата. Компаниите чии системи би можеле да поттикнат општествена мобилизација мора да поминат низ безбедносни проверки и да ги пријават своите алгоритми до Кинеската администрација за сајбер безбедност.
Истражувачите веруваат дека ваквите правила би можеле директно да влијаат на начинот на кој моделите на вештачка интелигенција развиени во Кина генерираат одговори. Во исто време, тие предупредуваат дека разликите не мора нужно да произлегуваат исклучиво од државниот притисок, бидејќи кинеските модели често се развиваат врз база на податоци кои го одразуваат специфичниот културен, општествен и јазичен контекст на земјата, што исто така ги обликува нивните одговори.