Továbbra is zajlanak Izreal és a Hamász között a véres összecsapások, amik nem kevés áldozatot követelnek, miután a Hamász október elején terrortámadást hajtott végre Izraelben. Az eseményeket nagyon sokan a közösségi médiában közvetítették végig, a platformok pedig nem igazán tudnak ezzel a helyzettel megbirkózni.
Szinte minden közösségi oldalon jelentek meg olyan felvételek, amik az Izraelben és a Gázában zajló eseményeket igyekeznek bemutatni, ezzel párhuzamosan pedig olyan bejegyzések is terjedni kezdtek, amik nem is a valós helyzetet ábrázolják. Videójátékokból és korábbi harcokból származó tartalmakat is terjeszteni kezdtek úgy, mintha azok valódi, aktuális eseményeket örökítenének meg. Ez a probléma pedig csak a jéghegy csúcsa.
Az platformok elmondásuk szerint igyekeznek azt biztosítani, hogy a szabályzatuknak nem megfelelő videókat, képeket, beszámolókat eltávolítsák a felületükről. Az Európai Unió is figyelemmel kíséri a technológiai cégek lépéseit. És minden vállalat valamelyes eltérő módon reagálta le ezt a teljesen váratlan helyzetet. Talán a Meta az, aki látszólag a legtöbbet tette annak érdekében, hogy kontrollálja a felületén zajló mozzanatokat.
A Meta együttműködéséről biztosította az Európai Bizottságot, ahonnan külön felszólítást kaptak, mint minden más nagy online platform is. A vállalat meg is kezdte a különálló akciócsapat felállátását néhány nap alatt, és több közleményt is kiadott arról, hogy éppen milyen törekvésekkel igyekeznek féken tartani a Facebookon és az Instagramon megjelenő bejegyzéseket. Érdekes módon egyébként a Threadsről nem sok szó esik, pedig azon a mikroblogon is vannak a háborúval kapcsolatos beszámolók.
Tehát a Metánál elvileg minden a legnagyobb rendben megy, igyekeznek tényleg megfelelni a hatóságoknak is, és látszólag transzparenciára törekednek. Azonban a The Wall Street Journal most egy olyan beszámolóval állt elő belső információkra hivatkozva, ami egészen más fénybe helyezi a Meta szigorúan felügyelt, harmonikus eljárásait.
Állítólag a moderátori csapatok között meglehetősen nagy a széthúzás, és nem igazán van egységes megállapodás arról, hogy milyen tartalmakat kell eltávolítani az izraeli háborús helyzetet illetően, és mi az, ami eljuthat a nagyközönséghez. Jellemzően károsnak ítélhető képekről, videókról, beszámolókról van itt szó. A belső széthúzás miatt pedig bizony kikerülhetnek olyan dolgok, amiket bizonyos moderátorok elfogadhatónak tartanak, míg mások törölnének. A Meta előírásait nem mindenki igyekszik betartani.
Az pedig, hogy a moderátorok nem igazán tudnak egységes álláspontra jutni, csak az egyik része a problémának. A The Wall Street Journal arról is hírt adott, hogy bizony a mesterséges intelligencia is képes problémás helyzeteket előidézni a közel-keleti események felügyelése során. Az nem titok, hogy a Meta már az MI-t is beveti a moderációban, azonban a rendszereinek a jelek szerint komoly fejtörést tudnak okozni bizonyos nyelvek, így például az arab.
A palesztinokra tett teljesen ártalmatlan megjegyzéseket is hajlamos volt veszélyes és káros tartalomként azonosítani a mesterséges intelligencia. Ez is beillik a generatív MI esetén teljesen megszokott hallucinációs jelenségek közé, csak éppenséggel jelen esetben ennek sokkal nagyobb súlya van. Ahogy az MI lefoghat ártalmatlan bejegyzéseket, úgy bizony átengedhet olyan posztokat, amik egyébként problémásak lehetnek.
A Meta egyelőre nem kommentálta a moderációval kapcsolatosan kiszivárgott dokumentumokról szóló híreket.