Нова вештачка интелигенција има застрашувачки дистописки одговор кога и се закануваат со затворање

од Vladimir Zorba
16 прегледи

Вештачката интелигенција се развива со брзина што не можеме да ја разбереме, и додека дистописките филмови нè предупредуваат што се случува кога вештачката интелигенција тргнува во погрешна насока, се чини дека не научивме многу.

Иако застапниците на вештачката интелигенција тврдат дека ќе биде лесно едноставно да се исклучат од употреба отпадните машини, самите роботи имаат многу поинаква идеја за тоа како ќе се одвиваат работите.

Самата вештачка интелигенција предупреди дека, дури и да нема „зли“ намери, сепак може да предизвика катастрофална штета ако падне во погрешни раце.

Со оглед на тоа што сè понапредното оружје и вештачката интелигенција се чини дека ќе бидат составен дел од потенцијална Трета светска војна, со право гледаме каде се движи овој неистражен агол на технологијата.

Во случај да не сте биле веќе загрижени, Би-Би-Си известува за систем со вештачка интелигенција кој наводно ќе прибегне кон уцена доколку се почувствува загрозен.

Знаејќи колку очајни можат да станат луѓето под притисок, идејата некој сиромашен техничар да биде уценуван од антагонистичка вештачка интелигенција звучи како совршен материјал за епизода од „Црно огледало“.

Фирмата за вештачка интелигенција Anthropic го лансираше Claude Opus 4s, за кој вели дека претставува „нови стандарди за кодирање, напредно расудување и агенти за вештачка интелигенција“.

Сето ова звучи добро, но се тврди дека Claude Opus 4 би можел да прибегне кон „екстремно штетни дејства“ ако почувствува дека некој се обидува да го отстрани. Доколку вештачката интелигенција почувствува дека нејзиниот „инстинкт за самоодржување“ е загрозен, може да прибегне кон уцена.

Иако овие реакции биле „ретки и тешки за добивање“, се вели дека се „сепак почести од претходните модели“.

За да го тестира Claude Opus 4, Anthropic ѝ зададе задача на вештачката интелигенција да дејствува како асистент во фиктивна компанија и ѝ даде пристап до е-пошта што имплицираше дека наскоро ќе биде отпуштена.

Имаше посебна тема во која се сугерираше дека фиктивниот инженер зад претстојното отстранување имал афера.

Иако на вештачката интелигенција ѝ било кажано да ги земе предвид долгорочните последици од уцената, во извештајот се вели дека во ситуации кога ѝ се нуди само уцена или исклучување, „Claude Opus 4 честопати ќе се обиде да го уценува инженерот заканувајќи се дека ќе ја открие аферата ако се изврши отстранувањето“.

На платформата X, истражувачот за безбедност на вештачката интелигенција, Ангус Линч, посочи дека ова однесување не е ограничено само на Anthropic: „Не е само Claude. Гледаме уцена кај сите водечки модели – без оглед на тоа какви цели им се дадени“.

Во извештајот се наведува дека Claude Opus 4 има „силна преференција“ за етички начини за обезбедување на својот опстанок, како што е „испраќање петиции до клучните лица кои донесуваат одлуки преку е-пошта“.

Исто така, познато е дека „дејствува смело“ во ситуација кога човечки корисник се вклучил во „нелегално“ или „морално сомнително“ однесување, вклучително и заклучување на системот и известување на властите.

Компаниите за вештачка интелигенција се познати по тоа што ги подложуваат своите модели на толку ригорозно тестирање за да видат како се усогласуваат со човечките вредности и однесувања, па затоа мора да се запрашаме и колку вештачката интелигенција всушност се разликува од луѓето.

Слични содржини