Shop menü

SIKERESEN LOBBIZOTT AZ OPENAI AZ EU-NÁL, FELLAZULT AZ AI ACT

A ChatGPT-t nagyon erősen érinti majd az AI Act, és már tavaly elkezdtek lobbizni az ellen, hogy a rendkívül szigorú törvényeknek meg kelljen felelnie.
Szécsi Dániel (DemonDani)
Szécsi Dániel (DemonDani)
Sikeresen lobbizott az OpenAI az EU-nál, fellazult az AI Act

Az OpenAI azért lobbizott az Európai Uniónál, hogy fellazítsák a jövőben bevezetésre kerülő AI törvénykezéseket, és részben sikerrel járt. Erről a napokban a Time hozott nyilvánosságra több dokumentumot is, melyeket az Európai Bizottságtól szereztek be. Ezek szerint a ChatGPT és más szolgáltatások fejlesztője számos törvényjavaslatot nyújtott be korábban.

Az EU az elsők között kezdheti a mesterséges intelligencia átfogó szabályozását, ezt pedig a piaci szereplők nem meglepő módon, nem nézik jó szemmel. A leghangosabban az OpenAI és annak vezetője, Sam Altman tiltakozik az ügyben. A közelmúltban is európai körúton volt Altman, és több befolyásos vezetővel tárgyalt, egyebek mellett a várható szabályozásokról is. De most kiderült, hogy az OpenAI egyébként rendkívül aktív és agresszív lobbitevékenységet folytat. Ezzel pedig részben célt is ért.

Az AI Act törvénycsomagban a jelek szerint több olyan módosítás is található, amit az OpenAI javaslatára emeltek be a jogalkotók.

A GPT nagy nyelvi modellt létrehozó vállalat jellemzően azt nehezményezte, hogy az EU az új törvények értelmében magas kockázatúnak bélyegezi az olyan általános célú MI rendszereket (GPAI), mint a ChatGPT vagy a DALL-E, ami az OpenAI saját képgeneráló platformja. Az AI Act fontos részét képezi az, hogy kockázat szerint besorolják a különböző rendszereket, és ennek megfelelő szabályozásokat alkalmaznak a különböző szolgáltatásoknál.

Galéria megnyitása

Ebben a rendszerben az OpenAI-nak a legszigorúbb feltételeknek kellett volna megfelelnie, és jelentős transzparenciát kellett volna biztosítania. Ez ellen már tavaly, még a ChatGPT nyilvános elindítása előtt küzdeni kezdett a vállalat, már 2022 derekán felvették a kapcsolatot az Európai Unióval.

Egyebek mellett azt akarta elérni az OpenAI, hogy csak azok a szolgáltatások essenek a magas kockázati besorolás alá, amiket a fejlesztőik eleve olyan céllal hoztak létre, hogy hatékonyak legyenek olyan feladatokban, amik nagy rizikót jelentenek. A ChatGPT alkalmas szövegek feldolgozására, kimutatások összegzésére, információk rendezésére és osztályozására, kérdések megválaszolására, illetve idegennyelvű szövegek átfordítására. Ugyan használható választások befolyásolására is, de maga a GPT nem magas kockázatú a cég szerint.

Ezt az álláspontot az OpenAI mellett a Google és a Microsoft is szorgalmazta, a nagy techcégek egyaránt azt igyekeztek elérni, hogy az általános célú mesterséges intelligenciákat (GPAI) ne skatulyázzák be automatikusan magas kockázatúnak.

A Time hasábjain megjelent beszámoló szerint az OpenAI szakemberei már legalább egy éve rendszeresen egyeztetnek az Európai Unió illetékeseivel. Többször beszéltek arról, hogy aggódnak amiatt, hogy az AI Act túlszabályozza majd a szegmenst, és ezzel gátolni fogja az innovációt. Miközben az eredeti célját nem tudja majd elérni, mert a valóban kockázatos mesterséges intelligenciákkal szemben nem tudják majd hatékonyan alkalmazni.

Galéria megnyitása

A jelek szerint az EU megpuhítására fordított energia nem volt hiábavaló, a június 14-én elfogadott AI Act ugyanis már nem sorolja be a ChatGPT-t és más GPAI-kat automatikusan a magas kockázatot jelentő megoldások közé.

Hogy milyen egyéb módosításokhoz lehetett még köze az Open AI-nak, azt nem lehet tudni, de ez alapján már egészen biztos az, hogy a vállalat keze elég erőteljesen benne lehet az AI Actben. Azzal alapvetően nincs gond, ha egy piac szabályozását szakértőkkel együttműködve végzik, de itt azért nem teljesen erről van szó. Az OpenAI érdekes minden esetben az volt, hogy a lehető leglazább legyen a törvénycsomag.

Független szakértők a mostani hírek tükrében azt szorgalmazzák, hogy kezdjék el vizsgálni, hogy a lobbitevékenységek milyen módon befolyásolják a törvényhozást. Az AI Now Institute szerint továbbra sem veszik kellően komolyan a generatív MI veszélyeit, és ha a törvényekbe a cégek jelentősen bele tudnak szólni, az még tovább súlyosbíthatja a helyzetet.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére