És akkor Mona Lisa elmosolyodott...

Egyre hatásosabbak a deepfake technológiák, de a szakértők szerint azért még mindig könnyen ki lehet szúrni ezeket.

És akkor Mona Lisa elmosolyodott...

A híres festmény arcára a Samsung moszkvai laborjának mesterséges intelligenciája csalt széles mosolyt, és hasonló módon Marilyn Monroe és Salvador Dali arcképét is megelevenítette. Az élő portrék úgynevezett deepfake-ek, vagyis látszólag realisztikus, gépi tanulással generált videók (vagy hangfájlok), amelyeket az új módszerrel dolgozó AI ráadásul egy-egy képből generált. Ugyanezzel a módszerrel a fejlesztők elmondása szerint néhány kép felhasználásával még valósághűbb felvételek hozhatók létre, amelyeken a „bábként mozgatott” arc gyakorlatilag bármit megcsinál, amit „mozgatói” kívánnak.

A technológia kapcsán rögtön felmerül, hogy azzal nagyon könnyűvé válhatnak a visszaélések, és néhány kép vagy hangfelvétel nyomán bárkiről olyan videók vagy hanganyagok készíthetők, amelyek a valóságban meg nem történt dolgokat tartalmaznak. Annál is inkább jogos lehet az aggodalom, hogy amikor az első deepfake-ek 2017 végén felbukkantak a reddit bugyraiban, létrehozójuk arra használta a módszert, hogy hírességek, pl. Scarlett Johansson arcát illessze pornószínészek testére. A technológia azóta sokat fejlődött, és továbbra is közszereplők, illetve a celebek a legkönnyebb célpontjai, hiszen róluk a legegyszerűbb olyan anyagokat találni, amelyeken aztán kiképezhetők az algoritmusok.

Az új algoritmus erre ráadásul már egyetlen kép alapján is képes, így akár egy festményt is meg tud eleveníteni, ráadásul ezt rövidebb idő alatt teszi, mint elődei. A rendszert többek közt egy több mint 7000 fotót tartalmazó celeb-adatbázison, és nagyszámú videón képezték ki, amelyek a kamerába beszélő embereket mutatnak. Az algoritmus a látott felvételeken egy sor tájékozódási pontot azonosít, és később a manipulált felvételen ezeket kezdi „mozgatni”.

A rendszer egy úgynevezett konvolúciós neurális hálózaton alapul, amely az állati látókéreg biológiai folyamatainak működését imitálja, és kiválóan alkalmas képsorok feldolgozására és ezek részleteinek felismerésére. A szoftver, hasonlóan a többi képgeneráló rendszerhez, rendszeresen ellenőrzi a kiinduló képek alapján létrehozott felvételek realisztikusságát, és minden furcsaságot kivág a sorozatból, majd újragenerálja ezeket, egyre jobb minőségű videót hozva létre.

A szakértők elmondása szerint a technológia fejlődése ellenére attól még egy darabig nem kell tartani, hogy valóban hitelesnek tűnő végeredmények születnek ezekből a próbálkozásokból, ahogy attól sem, hogy boldog-boldogtalan hamis videók gyártásba kezd, akár saját Facebook-fotóink alapján is. A magas költségek és a szükséges technikai követelmények ugyanis ennek még hosszú ideig gátját szabják, mondja Tim Hwang, a Harvard és az MIT közös mesterséges intelligenciára szakosodott etikai részlegének vezetője.

Galéria megnyitása

Ettől függetlenül a DARPA a 2020-as amerikai választásokra készülve máris vagyonokat költött egy médiakriminalisztikai elemzőprogram fejlesztésére, amely gyorsan képes azonosítani a hamisított felvételeket, de rengeteg startup is hasonló projekteken dolgozik. Ennek kapcsán ugyanakkor a szakértők azt mondják, hogy a választók megtévesztéséhez általában sokkal kevésbé „hightech” megoldások is elegendőek, így az egyelőre közel sem tökéletes deepfake-ek alkalmazása nem valószínű, hogy bárkinek meg fogja érni.

Ahogy Robert Chesney, a Texasi Egyetem jogi professzora mondja, erre kiváló példa a napokban virálissá vált Nancy Pelosi-videó, amelyen úgy tűnhet, hogy az Egyesült Államok képviselőházának elnöke részegen ad interjút, holott mindössze annyi történt, hogy a valós felvételt kicsit lelassították a készítők.

Neked ajánljuk

Kiemelt
-{{ product.discountDiff|formatPriceWithCode }}
{{ discountPercent(product) }}
Új
Teszteltük
{{ product.commentCount }}
{{ voucherAdditionalProduct.originalPrice|formatPrice }} Ft
Ajándékutalvány
0% THM
{{ product.displayName }}
nem elérhető
{{ product.originalPrice|formatPriceWithCode }}
{{ product.grossPrice|formatPriceWithCode }}
{{ product.grossPrice|formatPriceWithCode }}
{{ product.displayName }}

Tesztek

{{ i }}
{{ totalTranslation }}
Sorrend

Szólj hozzá!

A komment írásához előbb jelentkezz be!
{{ orderNumber }}
{{ showMoreLabelTranslation }}
A komment írásához előbb jelentkezz be!
Még nem érkeztek hozzászólások ehhez a cikkhez!
Még nem érkeztek hozzászólások ehhez a cikkhez!
Segíts másoknak, mondd el, mit gondolsz a cikkről.

Kapcsolódó cikkek

Magazin címlap arrow_forward