Вештачката интелигенција може да им наштети на потрошувачите

од Stefanija Kuzmanovska
270 прегледи

Генеративната вештачка интелигенција како што е ChatGPT отвори различни можности за потрошувачите, но постои сериозна загриженост за тоа како овие системи би можеле да ги измамат, манипулираат и да им наштетуваат луѓето.

„Тие, исто така, може да се користат за ширење дезинформации, одржување на постоечки предрасуди кои ја зајакнуваат дискриминацијата или измамата“, рече Урсула Пахл, заменик генерален директор на BEUC.

Затоа, организацијата ги повика надлежните органи за безбедност, податоци и заштита на потрошувачите веднаш да започнат со истраги и да не чекаат со скрстени раце да се случи штета на потрошувачите пред да преземат мерки.

„Клучно е ЕУ да го направи овој закон што е можно поотпорен за да ги заштити потрошувачите. Сите системи за вештачка интелигенција, вклучувајќи ја и генеративната вештачка интелигенција, имаат потреба од јавен надзор и јавните власти мора повторно да воспостават контрола над нив. Законодавците мора да бараат излезот од кој било систем на генеративна вештачка интелигенција да биде безбеден, праведен и транспарентен за потрошувачите“, истакна Пахл.

BEUC, кој ги претставува организациите на потрошувачи во 13-те земји на Унијата, ЕУ, упати повикот да се совпадне со извештајот на една од нејзините членови, Forbrukerrådet од Норвешка.

Како што е наведено во тој извештај, вештачката интелигенција е штетна за потрошувачите и може да предизвика бројни проблеми.

Дебатата околу вештачката интелигенција во Европа досега беше фокусирана на области како што се фер пристап до услуги, дезинформации и конкуренција.

Проблемот е што некои развивачи на вештачка интелигенција, вклучително и големите технолошки компании, го оневозможија надворешното следење на овие системи, што го отежнува гледањето како се собираат податоците или како функционираат алгоритмите.

Загрижувачки е и тоа што овие системи не разликуваат доволно добро помеѓу точни и неточни информации и може да бидат пристрасни, како и можноста за создавање вештачка интелигенција која намерно би ги довела луѓето во заблуда, односно да ги пробие заштитните системи, дизајнирани од луѓе.

Минатата недела, шефицата за конкуренција на Унијата, Маргарет Вестагер, истакна дека пристрасноста може да биде ризик поврзан со вештачката интелигенција кога се применува во критични области како што се финансиските услуги како хипотеки и други кредитни апликации.

Нејзините коментари дојдоа веднаш откако Унијата го одобри својот официјален закон за вештачка интелигенција, кој привремено ги дели апликациите за вештачка интелигенција во категории како што се неприфатлив, висок и ограничен ризик, покривајќи широк опсег на параметри за да се утврди во која категорија спаѓаат.

Актот за вештачка интелигенција, кога ќе се имплементира, ќе биде првиот обид во светот да се обиде да кодифицира некој вид разбирање и законско спроведување околу тоа како вештачката интелигенција се користи комерцијално и некомерцијално.

Следниот чекор во процесот е Унијата да работи со нејзините поединечни земји-членки за да се договори за конечната форма што ќе ја има законот.

ЕУ сака да го финализира овој процес до крајот на оваа година, пишува Tech Crunch.

Слични содржини