Shop menü

A GOOGLE FINOMAN TILTJA A BARD BELSŐ HASZNÁLATÁT

Figyelmeztetést adott ki a vállalat, hogy a dolgozók ne osszanak meg semmilyen érzékeny adatot a szolgáltatással.
Szécsi Dániel
Szécsi Dániel
A Google finoman tiltja a Bard belső használatát

Az elmúlt hetekben többször is beszámolhattunk olyan hírekről, amik arról szóltak, hogy a nagy technológiai vállalatok tiltják a generatív MI chatbotok használatát, élen a ChatGPT-vel. A Samsung meg is égette magát a ChatGPT-vel, ott biztosan lehet tudni, hogy érzékeny adatok kerültek rossz kezekbe, tehát szó nincs arról, hogy ez túlzott aggodalom lenne.

A napokban pedig annak is híre ment, hogy a Google bizony ugyancsak figyelmeztette a dolgozóit, hogy csínján bánjanak a chatbotokkal, és ez alól nem jelent kivétel a Bard is.

Belső információk szerint a hónap elején adhatta ki a Google azt az utasítást a munkavállalói számára, hogy a Bardot ne használják olyan esetekben, amikor valamilyen vállalati információt szeretnének feldolgozni, összefoglalni vagy bármilyen más módon kezelni. „Ne adjon meg bizalmas vagy érzékeny információkat a Barddal folytatott beszélgetésekben.” – olvasható az új adatvédelmi irányelvekben.

Galéria megnyitása

Meglehetősen ironikus az, hogy a Google a saját mesterséges intelligencia chatbotjának visszafogására figyelmezteti a saját embereit, miközben ezzel párhuzamosan a vállalat éppen a platform globális terjesztésére törekedik. Mostanra Európában is elérhető lenne a Bard, ha az EU nem lép közbe. Az Európai Unió adatvédelmi aggályok miatt úgy döntött, hogy megakadályozza a Bard bevezetését. Ezzel egy teljes hírben foglalkoztunk a napokban, és úgy fest, hogy egyáltalán nem alaptalan az EU aggodalma.

A Google egyébként mindig szigorúan veszi az adatvédelmi és különböző biztonsági eljárások tekintetében, azért is igyekszik a Bard használatát kordában tartani. A chatbotok nagyon sok információt használnak fel a tanulásra, és egyebek mellett abból is táplálkoznak, amiket a felhasználók visznek be. Persze ez nem általános, a ChatGPT esetében például azok, akik kikapcsolják az előzményeket, azok egyúttal ahhoz sem járulnak hozzá, hogy a beszélgetéseiket tréningezésre tudja használni a platform.

Mivel a bevitt információkból tudnak tanulni a rendszerek, így amikor céges információkat visznek be, akkor bizony reális esély van arra, hogy valamilyen kérdésre válaszolva egy chatbot kikotyoghat érzékeny információkat. Az MI bizonyos körülmények között reprodukálhatja válaszként azt, amit korábban bevittek, így kikerülhetnek például egy belső értekezlet részletei különböző témákat illetően.

Ezen felül a Google arra is felszólította a munkavállalókat, hogy a chatbot által generált kódrészleteket ne használják fel a munkájuk során. Valószínűleg biztonsági fenyegetésként tekint a vállalat az ilyen generált programkódokra.

Galéria megnyitása

A vállalat elmondta, hogy a készen felkívánt kódokat nem kívánatosnak tartja, de hozzátette, hogy ettől függetlenül úgy véli, hogy a Bard nagyon sokat segíthet a programozók számára a különböző feladatok elvégzésében is. A vállalat a technológia jelenlegi korlátjaira hivatkozva tiltja a nagyobb kódrészletetek használatát, és transzparenciát szeretne ezen a fronton.  

Egyre több vállalat lép a tettek mezejére, és korlátozza a generatív MI technológiák használatát a lehetőségeihez mérten. Már az Amazon és a Deutsche Bank is csatlakozott a korlátozók sorához. Azt viszont nehéz megmondani, hogy ezek a tiltások mennyire tudnak hatásosak lenni. Egyes felmérések szerint az előírásokat sokan nem tartják be, és egyébként sem osztották meg a feletteseikkel, ha valamilyen munkafolyamatba bevonták a mesterséges intelligenciát.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére