Shop menü

ÚJ MI VÁLLALKOZÁST INDÍT AZ OPENAI KORÁBBI ALAPÍTÓTAGJA

A biztonságot tűzte ki legfontosabb céljául a szakember, és nem kíván a fogyasztói nyomásnak engedni.
Szécsi Dániel
Szécsi Dániel
Új MI vállalkozást indít az OpenAI korábbi alapítótagja

Az OpenAI-t remek szakemberek alapították 2015-ben, és egy részük mind a mai napig a vállalat kötelékét erősíti. Azonban az évek során többen is távoztak, és az előző hónapban Ilya Sutskever is bejelentette, hogy otthagyja a céget. Nem kellett sokáig várni arra, hogy kiderüljön, mi a célja a szakembernek a távozását követően.

Ilya Sutskever nem akar a mesterséges intelligenciától is eltávolodni, sőt mi több, nagyon komoly elhatározásai és céljai vannak, amit máris elkezd megvalósítani. Az OpenAI korábbi vezető tudósa és biztonsági szakembere egy viszonylag új megközelítés alapján szeretne MI eszközt létrehozni. Úgy döntött, hogy nem egy OpenAI vagy Anthropic riválist szeretne felépíteni, hanem egy olyan startupot, aminél a biztonság és a személyes adatok védelme az első.

Safe Superintelligence Inc. (SSI) néven indul a vállalkozás, és egyetlen fő célra fog koncentrálni: létrehozni egy olyan MI rendszert, ami biztonságos és erőteljes.

A nagy nyelvi modellek és a mesterséges intelligencia hadszínterét jelenleg néhány nagy vállalat uralja, de Ilya Sutskever hisz abban, hogy egyáltalán nincs még ez a meccs lejátszva. Nem is azért szeretne küzdeni, hogy a gigacégekkel szálljon ringbe, hanem egy olyan MI rendszert alkotna meg, ami ténylegesen biztonságos, és nem úgy tekint az adatok védelmére, mint az OpenAI, a Google vagy éppen a Microsoft.

A biztonságnak és a lehetőségeknek egy egészséges egyensúlyban kell lennie a kutató szerint, és nem szabad engedni a fogyasztói nyomásnak. Tehát a Safe Superintelligence nem kíván versenyezni, hogy minél előbb tudja kiszolgálni az embereket, és felhasználók millióit hálózza be a lehető legrövidebb idő alatt. Minden fejlesztésnél a biztonság lesz az előtérben, és semmit nem akarnak úgy siettetni, hogy közben nem győződnek meg arról, hogy az etikus működés nem sérül. Az elmúlt 1,5-2 évben többször láttuk azt, hogy a cégek utólag igyekeztek a hibák után feltakarítani, az SSI viszont a megelőzésre megy majd rá.

Nem fognak kitűzni maguk elé szoros termékciklusokat, és nem kívánnak megfelelni semmilyen menedzsmenti elvárásoknak, nem kérnek a nyomasztás semmilyen formájából, mert Sutskever szerint ezek mindig a biztonság rovására mennek először, mert annak a hiányosságait nem látni elsőre. „Üzleti modellünk azt szolgálja, hogy a biztonság, a védelem és a fejlődés egyaránt el van szigetelve a rövid távú kereskedelemi nyomásoktól” – olvasható a közleményben. „Ilyen módon nyugodtan építkezhetünk.”

A Safe Superintelligence startup több alapítóval indul. Ilya Sutskeverhez Daniel Levy és Daniel Gross is csatlakozott. Daniel Gross korábban az Apple-nél dolgozott a különböző mesterséges intelligencia fejlesztések vezetőjeként, Daniel Levy peig az OpenAI-tól távozott korábban, és a technikai személyzet tagja volt. A trió minden bizonnyal egy olyan csapatot fog felépíteni, amiben a biztonsági megoldásokban járta fejlesztők lehetnek majd túlsúlyban, a célokat figyelembe véve.

Tapasztalt és remek szakemberekről van szó, akik pontosan tudják, hogyan lehet az új MI rendszert felépíteni saját nyelvi modellel. Mindenképpen érdekes lesz majd azt látni, hogy mit mutat majd a Safe Superintelligence terméke, de az elmondottak alapján arra biztosan nem érdemes számítani, hogy belátható időn belül fogyasztóknak elérhető termékkel álljanak elő.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére