SG.hu

Hamisításokat érzékelő szoftvert adott ki az OpenAI

Az MI-startup is részt vesz a mesterséges intelligenciával készült tartalmak kiszűrésére irányuló iparági erőfeszítésekben.

Miközben szakértők arra figyelmeztetnek, hogy a mesterséges intelligencia által generált képek, hang- és videók befolyásolhatják az idei választásokat, az OpenAI egy olyan eszközt adott ki, amely a saját népszerű képgenerátora, a DALL-E által létrehozott tartalmak felismerésére szolgál. A neves MI startup azonban elismeri, hogy ez az eszköz csak egy szelete annak, amire az elkövetkező hónapokban és években szükség lesz az úgynevezett mély hamisítványok (deepfake) elleni küzdelemhez.

Az OpenAI közölte, hogy megosztja új deepfake detektorát a dezinformációs kutatók egy kis csoportjával, hogy azok valós helyzetekben tesztelhessék az eszközt, és segítsenek meghatározni, hogyan lehetne azt továbbfejleszteni. "Ezzel új kutatásokat indítunk el” - mondta Sandhini Agarwal, az OpenAI egyik kutatója, aki a biztonsággal foglalkozik. „Erre nagy szükség van.” Az OpenAI szerint új detektora képgenerátora legújabb verziója, a DALL-E 3 által készített anyagok 98,8 százalékát helyesen azonosította. A vállalat szerint azonban az eszközt nem arra tervezték, hogy más népszerű generátorok, például a Midjourney és a Stability által készített képeket felismerje.


Mivel egy ilyen típusú deepfake detektor a valószínűségek alapján működik, soha nem lehet tökéletes. Ezért sok más vállalathoz, nonprofit szervezethez és tudományos laboratóriumhoz hasonlóan az OpenAI is más módon küzd a probléma ellen. A Google és a Meta technológiai óriásokhoz hasonlóan a vállalat is csatlakozott a Coalition for Content Provenance and Authenticity (C2PA) irányítóbizottságához, amely a digitális tartalmak hitelesítése érdekében dolgozik. A C2PA szabvány egy címke lesz a képek, videók, hangklipek és egyéb fájlokon, amely megmutatja, hogy mikor és hogyan készültek vagy változtatták meg őket - beleértve az MI-t is. Az OpenAI azt is bejelentette, hogy olyan módszereket dolgoz ki, amelyekkel az MI által generált hangokat „vízjelekkel” lehet ellátni, hogy azok valós időben könnyen azonosíthatók legyenek. A vállalat reméli, hogy ezeket a vízjeleket nehéz lesz eltávolítani.

Az olyan cégek, mint az OpenAI, a Google és a Meta által vezetett mesterséges intelligencia-iparágra egyre nagyobb nyomás nehezedik, hogy feleljen adjon a termékei által előállított tartalmakért. A szakértők azt várják az iparágtól, hogy akadályozza meg, hogy a felhasználók félrevezető és rosszindulatú anyagokat hozzanak létre - és kínáljon módot azok eredetének és terjesztésének nyomon követésére. Idén világszerte jelentős választások zajlanak, több milliárd ember járul az urnákhoz, ezért egyre kétségbeesettebbek a felhívások az MI-tartalmak eredetének nyomon követésére. Az elmúlt hónapokban a hang- és képanyagok már befolyásolták a politikai kampányt és a szavazást többek között Szlovákiában, Tajvanon és Indiában. Az OpenAI új deepfake detektora segíthet a probléma megfékezésében, de nem oldja azt meg. Ahogy Sandhini Agarwal fogalmazott: "A deepfake elleni küzdelemben nincs ezüstgolyó."

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
Nem érkezett még hozzászólás. Legyél Te az első!