A kép- és hanganyag már nem kielégítő bizonyíték. Még ha egy hitelesnek tűnő biztonsági kamera felvételét látjuk, nem tudjuk biztosra mondani, hogy valódi. A deepfake megjelenésével könnyen manipulálhatnak felvételeket. Mutatjuk, hogyan védhetjük ki ezeket!

A mesterséges intelligencia meggyőzően tud emberi arcokat, hangokat lemásolni, a megjelenített kép a megszólalásig hasonlít az eredeti személyekre. Talán nem is kérdés, hogy ezt miképpen lehet rosszindulatúan felhasználni.
A deepfake átverések nem csupán a politikában, de a közéletben is érhetik a felhasználókat. Néhol szexuális tartalmú videók megjelenése is problémát jelenthet, de a felhasználókat személyesen is megtalálhatják ezek a videók.
Előfordult már, hogy videóhívásban ismert közművek, bankok vagy cégek nevében kerestek fel gyanútlan embereket, a meggyőző megjelenés miatt pedig sikerült elérni, hogy adatokat, pénzt csaljanak ki emberekből, vagy éppen káros szoftvert telepíttessenek velük. Ez az úgynevezett vezérigazgatói csalás. Egyúttal ismert közéleti szereplők, influenszerek nevében is küldhetnek olyan üzenetet, amelyben sürgős pénzutalásra szólítják a felhasználókat.
Így járhatunk el a deepfake átverések esetén:
Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.