Shop menü

A METÁNÁL MÁR A HÁBORÚS TARTALMAK TÚLZOTT CENZÚRÁZÁSÁBÓL VAN BALHÉ

A vállalat felügyelőbizottsága nem nézi jó szemmel, hogy az automata moderáció miként kezeli a megosztott tartalmakat.
Szécsi Dániel
Szécsi Dániel
A Metánál már a háborús tartalmak túlzott cenzúrázásából van balhé

A nagy közösségi platformoknak az egyik legtöbb fejtörést a cenzúra és a moderálás okozza az utóbbi időben. Most a Meta kapcsán nagyon érdekes hírek jelentek meg. Nem azzal van a gond, hogy túl sok dolgot engednek ki a platformra, hanem az, hogy olyat is töröltek, amit néhányak szerint nem kellett volna.

A túlságosan laza és megengedő szabályzat, valamint moderáció rendkívül komoly probléma lehet, de igazából nemcsak ez tud gondot okozni, ha túl sok tartalom megy át a különböző szűrőkön, hanem az is, ha fontos tartalmak terjedésének szabnak gátat. Az Izreal-Hamász összecsapások esetében mindkét véglet felmerült a jelek szerint.

Galéria megnyitása

Nem régen számoltunk be arról, hogy az Európai Unió illetékesei megunták, ami az X mikroblognál folyt az utóbbi időben, és a katonai konfliktusoktól indulva egy átfogó vizsgálatot kezdeményeznek a szolgáltatással szemben. Most pedig arról érkezett hír, hogy a Meta felügyelőbizottsága belső vizsgálatot kezdeményezne azért, mert olyan tartalmak elérhetőségét is megszüntette a cég által üzemeltetett automatizált moderáló rendszer, amiket nem kellett volna.

Egy friss jelentésben az olvasható, hogy egy külső vizsgálóbizottság arra a megállapításra jutott, hogy a Facebookról és az Instagramról is indokolatlanul távolítottak el videókat a háborús állapotok kirobbanása alatt. A szakemberek szerint azzal, hogy a Meta eltávolította a szóban forgó videókat, komoly árat fizet a szabad véleménynyilvánítás és az információhozzáférés oltárán. Emiatt szólalt fel a Meta saját felügyelőbizottsága az automatizált rendszer ellen, amiről korábban még teljesen pozitívan nyilatkoztak.

Az emberi beavatkozást nem igénylő moderációs rendszerek egyre nagyobb népszerűségnek örvendenek. A mesterséges intelligencia megoldások térnyerésével ezek is erőteljesebben a figyelem középpontjába kerültek. A Meta már hosszú ideje dolgozik a saját megoldásán, ami a jelek szerint már túlzottan hatékonyan teszi a dolgát. Olyan videókról van szó, amelyeknél nagyon nehezen volt megítélhető, hogy azok mennyire fértek bele a szabályzatba. Mindkét felvétel erőszakos jeleneteket tartalmazott.

Galéria megnyitása

Az egyik videonál a feltöltő fellebbezése is elutasításra került, ami a felügyelőbizottság szerint csak tovább tetézte a problémát. Később egy gyorsított eljárást követően ezt mégis visszaállították, csak egy erőszakra figyelmeztető képernyőt tettek elé. A szakemberek szerint a Meta a háborús helyzet kialakulását követően túlságosan intenzíven kezdett harcolni a felkerülő, kapcsolódó tartalmak ellen, és más esetekben is eltávolítottak olyan dolgokat, amiket nem kellett volna.

A Meta illetékesei úgy vélik, hogy a helytelenül eltávolított tartalmak sokakat érdekeltek volna a platformokon, és segítették volna azt, hogy az emberek pontosabb képet kapjanak a kialakult szomorú helyzetről. A vállalatnak hamarabb kellett volna reagálnia több tekintetben is. A felügyelőbizottság azt is nehezményezte, hogy az említett videók nem tudtak szélesebb figyelmet kapni azért sem, mert az algoritmus „lefokozta” ezeket.

Ez akár változásokat is elindíthatna, de egyelőre nem érdemes arra számítani, hogy a jelenlegi rendszerét túlzottan megbolygatná a Meta. Hiszen azt is látni kell, hogy ha lazítani kezdene, akkor a másik oldalról ott lenne azonnal a hatóság, így például az Európai Unió, hogy a körmére nézzen. És éppen most szigorodnak az előírások a DSA és a DMA jogszabályok miatt.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére