Експерт за безбедност на вештачката интелигенција (AI), Мринанк Шарма, поднесе оставка од американската AI фирма Anthropic, предупредувајќи во својата оставка дека светот се соочува со низа сериозни закани, вклучувајќи ризици од вештачка интелигенција и биолошко оружје.
Шарма во писмо објавено на платформата на социјалните медиуми X изјави дека заминува поради загриженост за развојот на вештачката интелигенција и пошироката глобална ситуација. Тој рече дека ќе се посвети на пишување и проучување поезија и ќе се врати во Велика Британија за, како што напиша, „да остане невидлив некое време“.
Истата недела, истражувач од OpenAI исто така поднесе оставка, изразувајќи загриженост за одлуката на компанијата да воведе реклами во својот чет-бот. Anthropic, познат по својот чет-бот Claude, е основан во 2021 година од поранешни вработени во OpenAI и се позиционира како компанија фокусирана на безбедноста на вештачката интелигенција, објави BBC.

Мринанк Шарма
Шарма водеше тим во компанијата што истражуваше механизми за заштита за системи со вештачка интелигенција. Меѓу проектите на кои работеше беа проучување зошто генеративните системи со вештачка интелигенција имаат тенденција да ги задоволуваат корисниците, проценка на ризикот од биотероризам потпомогнат од вештачка интелигенција и анализа на влијанието на асистентите со вештачка интелигенција врз човековото однесување.
Иако рече дека уживал во работата во компанијата, тој верува дека е време да си замине. „Светот е во опасност. И не само од вештачката интелигенција или биолошкото оружје, туку од цела низа меѓусебно поврзани кризи што се одвиваат токму сега“, напиша Шарма.
Тој додаде дека постојано бил сведок колку е тешко за организациите да ги следат сопствените вредности во пракса, вклучувајќи ја и Anthropic, која, според него, честопати се соочува со притисок да го занемари она што е најважно.
Anthropic се опишува себеси како компанија од јавен интерес чија цел е да ги обезбеди придобивките од вештачката интелигенција и да ги ублажи нејзините ризици. Се фокусира конкретно на опасностите што би можеле да произлезат од напредните системи со вештачка интелигенција, вклучувајќи ја и можноста тие да отстапат од човечките вредности или да бидат злоупотребени во конфликти.
Компанијата, исто така, објави извештаи за безбедноста на сопствените технологии, вклучувајќи случаи во кои хакерите наводно ги користеле нејзините алатки за софистицирани сајбер напади.
Во исто време, Anthropic се соочи со критики. Во 2025 година, се согласи да плати 1,5 милијарди долари во групна тужба поднесена од автори кои тврдеа дека компанијата нелегално ја користела нивната работа за обука на модели на вештачка интелигенција.

Anthropic и OpenAI се повеќе се во отворен конфликт околу пазарот, па дури и репутацијата. Anthropic неодамна објави рекламна кампања во која го критикува OpenAI за воведување реклами во ChatGPT. Извршниот директор на OpenAI, Сем Алтман, претходно тврдеше дека не му се допаѓа рекламирањето и дека ќе го користи само како последно средство, но подоцна одговори на критиките, бранејќи ја одлуката на неговата компанија.
Поранешната истражувачка на OpenAI, Зои Хициг, се приклучи на дискусијата и предупреди за можните етички проблеми на рекламирањето во четботови во статија за New York Times. „Луѓето им доверуваат медицински стравови, љубовни проблеми и лични верувања на четботовите. Рекламирањето базирано на такви податоци отвора простор за манипулирање со корисниците на начини што сè уште не ги разбираме“, напиша Хициг.
Таа додаде дека постои опасност OpenAI, во обид да го зголеми ангажманот на корисниците, постепено да отстапува од своите етички принципи.