По промената на правилата за користење, Фејсбук забележа зголемување на насилната содржина и вознемирувањето

од Milan1
17 прегледи

„Мета“ го објави својот прв квартален извештај за интегритет откако основачот на компанијата, Марк Закерберг, ги повлече правилата за говор на омраза претходно оваа година и го промени својот пристап кон модерирањето на содржините. Според извештаите, „Фејсбук“ забележа зголемување на насилната содржина, малтретирањето и вознемирувањето и покрај вкупното намалување на количината на содржина отстранета од „Мета“.

Извештаите се прв пат „Мета“ да сподели податоци за тоа како одлуката на Закерберг да ги повлече правилата на „Мета“ влијаела на платформата што ја користат милијарди луѓе. Важно е да се напомене дека компанијата ги претставува промените на правилата како победа и дека објавила дека ги „преполовила“ своите грешки, додека целокупната распространетост на содржината што ги крши нејзините правила „останала во голема мера непроменета за повеќето проблематични области“.

Сепак, постојат два значајни исклучоци. Насилната и графичката содржина се зголемила од 0,06 – 0,07 проценти на крајот на 2024 година на 0,09 проценти во првиот квартал од 2025 година. „Мета“ го припиша зголемувањето на „зголеменото споделување содржина што ги крши правилата“, како и на сопствените напори за „намалување на грешките при спроведување“.

Компанијата, исто така, забележа значително зголемување на преваленцата на малтретирање и вознемирување на Фејсбук, кое се зголеми од 0,06 – 0,07 проценти на крајот на 2024 година на 0,07 – 0,08 проценти на крајот на 2025 година. Мета вели дека ова се случило поради неодредено „зголемување“ на прекршувањата на правилата во март. Треба да се напомене дека ова е посебна категорија од правилата на компанијата за говор на омраза, кои се препишани за да дозволат објави насочени кон мигрантите и ЛГБТК луѓето.

Иако ова се чини дека се мали проценти, дури и мали зголемувања може да се забележат на платформа како Фејсбук, која бележи милијарди објави секој ден. Мета ја опишува својата метрика за преваленца како проценка за тоа колку често се појавува содржина што ги крши правата на нејзината платформа.

Извештајот, исто така, истакнува колку помалку содржина Мета отстранува откако се откажа од проактивно спроведување на сите освен најсериозните правила како што се експлоатација на деца и терористичка содржина. Извештајот на компанијата покажува значително намалување на бројот на објави на Фејсбук отстранети поради содржина што содржи омраза, на пр. со само 3,4 милиони содржини кои се „решени“ во согласност со правилата, што е најниската бројка на компанијата од 2018 година. Отстранувањата на спам исто така драстично се намалија од 730 милиони кон крајот на 2024 година на само 366 милиони на почетокот на 2025 година. Бројот на отстранети лажни профили исто така значително се намали на Фејсбук, од 1,4 милијарди на една милијарда. Мета не објавува статистика за отстранувањето на лажни профили на Инстаграм.

Во исто време, Мета тврди дека прави многу помалку грешки во модерирањето на содржината, што беше едно од главните оправдувања на Закерберг за неговата одлука да го прекине проактивното модерирање.

„Забележавме намалување од приближно 50 проценти на грешките при спроведување на нашите американски платформи од четвртиот квартал на 2024 година до првиот квартал на 2025 година“, соопшти компанијата во јануарското соопштение со кое ја објави промената на правилото. Мета не објасни како дошла до таа бројка, но рече дека идните извештаи „ќе вклучуваат метрики за грешки за луѓето да можат да го следат напредокот“.

Сепак, Мета признава дека постои барем една група каде што проактивната модерација е сè уште неопходна, а тоа се тинејџерите.

„Во исто време, ние остануваме посветени на обезбедување тинејџерите на нашите платформи да имаат најбезбедно можно искуство. Затоа ќе продолжиме проактивно да криеме други видови штетна содржина, како што е малтретирањето“, рече Мета.

Компанијата веќе некое време воведува „тинејџерски сметки“, што би можело да го олесни филтрирањето на содржината специјално за помладите корисници.

Мета, исто така, наведе како користи големи јазични модели за да ги подобри своите напори за модерирање на содржината.

„По тестирањето, почнуваме да гледаме дека LLM работат надвор од човечките перформанси за одредени области на политиката. Исто така, користиме LLM за отстранување содржина од редовите за преглед во одредени околности кога сме многу сигурни дека не ги крши нашите правила“, додаде таа.

Друга важна компонента на промените во политиката на Закерберг беше крајот на партнерствата за проверка на факти на Мета во САД. Компанијата започна да ја објавува својата верзија на „Белешки од заедницата“ на Фејсбук, Инстаграм и Темс претходно оваа година, а оттогаш ги прошири своите напори за да вклучи одговори на Релс и Темс. „Мета“ не понуди увид во ефикасноста на новиот пристап за проверка на фактите врз основа на собирање податоци од корисниците или колку често се појавуваат белешки на нејзината платформа, но вети ажурирања во наредните месеци.

Слични содржини