A mélyhamisítások elleni küzdelem, hogyan harcolhatunk velük

A mélyhamisítások elleni küzdelem, hogyan harcolhatunk velük

A digitális korszak közepette az álhírek iránti aggodalom egyre inkább leköti a közszervezetek, a média és mindenféle személyiség figyelmét. Nem hiába, a Fake Newsnak volt némi súlya olyan fontos választási folyamatokban, mint például az Egyesült Államok 2016-os elnökválasztása, az Egyesült Királyság Európai Unióból való kilépéséről szóló népszavazás vagy a bolsonarói győzelmet hozó brazil tábornokok.

Anélkül, hogy idáig el kellett volna mennie, hazánkban a Facebooknak nemrég három nagy szélsőjobboldali hálózatot kellett bezárnia, amelyek 30 oldalon keresztül csoportok és ismétlődő fiókok több mint másfél millió követőt és több mint 7 millió interakciót halmoztak fel . Ezek a csoportok elkötelezettek voltak a kamu és hamis képek terjesztése mellett.

De most egy másik típusú digitális fenyegetéssel kell szembenéznünk, amely új fejfájást okoz. Az úgynevezett Deepfake-ről beszélünk, amely kifejezés a „Deep Learning”  és a „Fake” kombinációjából ered . Alapvetően ez a mesterséges intelligencia egy olyan formája,  amely lehetővé teszi bármely felhasználó számára, hogy valódinak tűnő hamis videókat és hangokat szerkesszen. Ehhez  antagonista generatív hálózatokat (AGR) használnak , egyfajta algoritmust, amely új típusú adatokat képes létrehozni más, már létező halmazokból.

Végső soron a "mélyhamisítások" a digitális manipulációnak még egy formája , és a legtöbb esetben az egyik legvalószínűbbek a "trollkodásra" . De hogyan fedezhetjük fel őket? És mindenekelőtt mit tesznek a magánintézmények és a vállalatok annak katasztrofális következményeinek megelőzése érdekében? Ebben a különlegességben áttekintjük az új digitális csapás megállítása érdekében tett erőfeszítéseket.

Miért olyan veszélyesek a mélyhamisítások?

A „deepfake” technológia lehetővé teszi számunkra, hogy az egyik ember arcát könnyen helyettesítsük a másik arcával, mintha egyfajta digitális maszkról vagy maszkról lenne szó, hogy elhitessük velünk,  hogy olyan dolgokat mondott, amelyekre soha nem került sor . Mint sejteni lehet, ezeknek a technikáknak meglehetősen jelentős következményei vannak az interneten keringő információk jogszerűségének meghatározásában.

Bár gyakran használják humoros videók készítésére, az az igazság, hogy a "mélyhamisítások" sötét potenciállal rendelkeznek az emberek nyilvános képének megsemmisítésére vagy a közvélemény befolyásolására dezinformáció felhasználásával. Sajnos el kell mondanunk, hogy ez a visszaélés elterjedtebb, mint szeretnénk, és hatalmas sikerrel hozzá kell tennünk.

Világos példa erre a DeepNude alkalmazás, amely lehetővé tette, hogy feltöltsön egy ruhás ember képét, és ugyanabból a meztelen emberből hozzon létre  egy újat . Szerencsére már zárva van, de hangsúlyoznunk kell az ilyen típusú eszközök egyszerű használatát, amelyekhez nincs szükség szerkesztési ismeretekre, mivel maga az algoritmus végzi el az összes munkát.

deepnude

A DeepNude esetében a platform hihetetlenül reális eredményeket kínált, és teljes egészében elérhető volt a Windows és a Linux weboldalán . És ahogy az várható volt, a hírességekkel, például Katy Perry-vel vagy Gal Gadot-nal készült montázsok nem sokáig jelentek meg a hálózaton, olyannyira, hogy e színésznők ügyvédjeinek nyomása nem szűnt meg, amíg a fontos, felnőtteknek szóló tartalmi webhelyek nem távolították el a videókat .

Ez csak a jéghegy csúcsa annak a kezelési kapacitásnak, amely az ilyen típusú alkalmazásoknál lehet. Most képzelje el egy ilyen típusú kampány következményeit, amelyek egy politikai szereplő ellen irányulnak egy ország vagy régió választási folyamatának manipulálása céljából. A gonosz nem ismer határokat.

mélyhamis

Hogyan harcolnak a mélyhamisítások ellen?

Az elsőként felszólaló cégek voltak nem mások, mint a Google, amely bejelentette határozott akaratát a mélyhamisítások elleni küzdelemben, és ahogy ezekben az esetekben mondják, a tűz eloltja a tüzet. A technológiai óriás megerősítette a mesterséges intelligenciával (mélyhamisításokkal) manipulált , legfeljebb 3000 videó teljes adatbázisának elindítását, amelyet kifejezetten a kutatók észlelési eszközeinek finomítása céljából hoztak létre.

Ehhez a Google valódi színészeket vett fel, hogy rögzítsék az arcukat, és referenciaként használják őket annak megállapítására, hogy a videót mesterségesen módosították-e. A mindenki számára elérhető deepfake generációs módszerek felhasználásával ezekből a felvételekből több ezer deepfake készül.

Az így kapott videókat, valódiak és hamisak, feltöltik az együttműködésen alapuló fejlesztési platformra, a GitHub-ra, hogy a kutatók teljes mértékben megértsék, mit gyárt a rendszer. Ez az adatbázis, mint mondjuk, teljesen hozzáférhető, bár először nekik kell engedélyt adniuk .

A Facebook a maga részéről egy hasonló adatbázis létrehozását is tervezi ez év végéig. Vezérigazgatója, Mark Zuckerberg szerint a fő probléma az, hogy  az iparnak nincs szabványosított rendszere a felderítésükre . Ezért összefogott az AI, a Microsoft és a Cornell Tech, az MIT, az oxfordi, az UC Berkeley, a Marylandi Egyetem, a College Park és az Albany-SUNY Egyetem egyesületeivel a Deepfake Detection Challenge felépítéséért. (DFDC angol rövidítésével).

Ez a makroprojekt kiterjedt adatbázist és részletes osztályozást fog tartalmazni , a pénzügyi támogatás és az adományok mellett a lehető legtöbb együttműködő ösztönzésére. Az ötlet egyfajta közösség létrehozása, amely az AI segítségével segít felismerni és elkerülni a manipulált videókat.

Kétségtelen, hogy a "mélyhamisítások" elterjedése nagyon komoly kérdéssé vált, súlyos következményekkel, amelyeket nem lehet figyelmen kívül hagyni. Habár az ezen ügyben elkötelezett legfőbb ügynökök által javasolt intézkedések hosszú távon kivitelezhetetlennek, sőt kontraproduktívnak tűnhetnek, e bűncselekmény felszámolására csak ezek lehetnek az utak. Bár ellentmondásosnak tűnhet, a "mélyhamisítások" elleni küzdelem több "mélyhamisítással" segít az észlelő eszközöknek több adatot felvenni, hogy könnyebben megtalálják az ilyen típusú montázsokat .