Közzétették az MIT nagy villamosdilemma-kísérletének eredményeit

Ha az emberi moralitás alapján programozzák a jövő önvezető autóit, a fiatalok, a nagy csoportok és a többi fajjal szemben az emberi lények lesznek a legnagyobb biztonságban az utakon.

Közzétették az MIT nagy villamosdilemma-kísérletének eredményeit

Az MIT 2016-ban élesítette a Moral Machine nevű honlapot, amelyen az emberi felhasználóktól különböző közlekedési helyzeteket bemutatva kérdezték meg, hogy mi lenne a helyes döntés az adott szituációban egy önvezető autó részéről, ha elromlana a fékje. A változatos feladványok révén olyan kérdésekre keresték a választ a szakértők, mint hogy a nagyközönség szerint mi a fontosabb: az utasok vagy a gyalogosok védelme, hogyan befolyásolják a potenciális áldozatok demográfiai mutatói (pl. kora, neme) és létszáma a döntést, illetve hogy befolyásolja-e megkérdezetteket, ha a képernyőn látható emberek között vannak, akik tilosban járnak.

A szakértők most közzétették a kísérlet első eredményeit: 233 országból összesen 40 millió kérdésre érkezett válasz a honlapon, ezeket elemezték a kutatók. Az adatok alapján globális és kulturális tendenciák egyaránt kirajzolódnak. Világszerte általánosan jellemző például, hogy az emberek az emberi életet preferálják védeni a többi fajjal, például a kutyákkal szemben, a gyerekeket jobban védelmezik, mint a felnőtteket, és ha úgy alakul, hajlandóan néhány életet feláldozni egy nagyobb csoport megmentése érdekében – legalábbis a játékos kvíz keretein belül.

A szerzők szerint ezeket a preferenciákat mindenképpen figyelembe kell venni az önvezető autók szabályozása során, a kutatók ugyanakkor azt is hangsúlyozzák, hogy ezt semmiképpen sem úgy képzelik el, hogy a mostani eredményeket döntéshozatali mintákként kellene alkalmazni. Amit itt vizsgáltunk, az leíró etika: vagyis hogy milyen döntéseket preferálnak az emberek elméletben, mondja Edmond Awad, a kutatás egyik résztvevője. A normatív etika, vagyis hogy hogyan kellene valójában történniük a dolgoknak, azonban egészen más tészta, aminek körvonalazásához külön szakértelem szükséges, folytatja Awad.

Az eredményekben, ahogy már említettük, érdekes regionális-kulturális varianciák is megfigyelhetők. Bár ezek egyike sem megy szembe a már említett általános preferenciákkal, azok ereje országonként eltérőnek mutatkozhat. Ázsiában és a Közel-Keleten például kevésbé hangsúlyos az életkor alapján történő válogatás, vagyis hogy inkább a fiatalokat védje meg az autó az idősebbekkel szemben, mint Európában vagy Észak-Amerikában. És az említett régiókban ugyanígy kevésbé befolyásolta a döntést az áldozatok társadalmi státusza, mint Nyugaton.

Érdekes eredmény volt továbbá, hogy a szegényebb országokból származó kitöltők kevésbé szelektáltak a lehetséges áldozatok között azok törvénytisztelete alapján, vagyis kevésbé voltak hajlamosak elütni a piroson átszaladót vagy a bankrablót, mint a magasabb GDP-vel bíró nemzetek tagjai.

A szerzők hangsúlyozzák, hogy az eredményekből nem vonhatók le következtetések a vizsgált országok morális preferenciáira. Egyrészt mert a részvétel önkéntes volt és online jelenlétet igényelt, ami miatt eleve túlreprezentáltak a kitöltők között a képzettség és pénzügyi helyzet tekintetében társadalmilag magasabban álló, valamint a technológia iránt érdeklődő egyének. A kérdőív ráadásul a végletekre lett kihegyezve: két lehetőség közül lehetett választani, és a kérdés mindig az volt, hogy kit ölne meg és kit mentene meg döntésével a válaszadó. Holott a valós helyzetekben ennél sokkal többféle kimenetel és választás adódik, amelyek mérsékelthetik a döntések morális súlyát is.

A szerzők azonban a vizsgálat korlátait kiemelve is úgy vélik, hogy az eredmények fontosak annak alakításában, hogy merre megy tovább az önvezető technológia, valamint az egyre önállóbb robotok és mesterséges intelligenciák. És bár az egyelőre kérdés, hogy az eredményekből hogyan kellene szabályozást „csiholni”, a vizsgálat olyan kérdéseket vet fel az autonóm rendszerekkel kapcsolatban, amelyek kapcsán egyértelműen szükség van a társadalmi egyeztetésre.

Galéria megnyitása

Az önvezető járművek programozása már jelenleg is magába foglal morális szabályokat. 2014-ben a Google X alapítója, Sebastian Thrun azt nyilatkozta, hogy a cég önvezető autói veszélyes helyzetek esetén igyekezni fognak úgy manőverezni, hogy két különböző méretű objektum közül a kisebbnek ütközzenek neki. 2016-ban egy másik Google-munkatárs, Chris Urmson azt mondta, hogy autóik külön figyelmet fordítanak a közlekedés legvédtelenebb résztvevőire, a biciklisekre és a gyalogosokra. Ugyanebben az évben a Mercedes-Benz egyik menedzsere ugyanakkor úgy nyilatkozott, hogy önvezető autóik elsősorban saját utasaikat védik.

Bár attól még messze van a technológia, hogy megbízhatóan különbséget tudjon tenni fiatal és öreg, ember és kutya között, a Moral Machine-ban feltett kérdéseket valamilyen formában idővel tényleg meg kell válaszolniuk az önvezető rendszereknek is, mondják az MIT kutatói. Hogy mik lesznek a válaszok, abban pedig szerintük szerepet kell kapnia az emberi preferenciáknak.

Eddig kizárólag Németországban próbálkoztak hivatalos etikai irányelveket megfogalmazni az önvezető autók kapcsán. A német törvényhozók megoldása az volt a villamosdilemmára, hogy a tervezetben kimondták, minden emberi élet egyenlő értékű, így meg kell tiltani, hogy az önvezető rendszerek életkor vagy nem alapján megkülönböztessék az embereket. Ahogy azonban az MIT szakértői mondják, ha ezt a megközelítést a gyakorlatban is alkalmaznák, az ellentmondana annak a jelek szerint globálisan erős preferenciának, amely szerint ha választani kell, a gyerekek megmentését választjuk az idősebbekkel szemben.

Neked ajánljuk

Kiemelt
-{{ product.discountDiff|formatPriceWithCode }}
{{ discountPercent(product) }}
Új
Teszteltük
{{ product.commentCount }}
{{ voucherAdditionalProduct.originalPrice|formatPrice }} Ft
Ajándékutalvány
0% THM
{{ product.displayName }}
nem elérhető
{{ product.originalPrice|formatPriceWithCode }}
{{ product.grossPrice|formatPriceWithCode }}
{{ product.grossPrice|formatPriceWithCode }}
{{ product.displayName }}

Tesztek

{{ i }}
{{ totalTranslation }}
Sorrend

Szólj hozzá!

A komment írásához előbb jelentkezz be!
{{ orderNumber }}
{{ showMoreLabelTranslation }}
A komment írásához előbb jelentkezz be!
Még nem érkeztek hozzászólások ehhez a cikkhez!
Még nem érkeztek hozzászólások ehhez a cikkhez!
Segíts másoknak, mondd el, mit gondolsz a cikkről.

Kapcsolódó cikkek

Magazin címlap