Mind nagyobb problémát okoz az onlinetérben a deepfake, vagyis a mesterséges intelligencia által készített hamis képek, videók és hangfelvételek rohamos terjedése. A technológia fejlődésével egyre nehezebb megkülönböztetni a valódi és a kreált tartalmakat, ami aláássa az online információk iránti bizalmat. A Deloitte TMT Predictions 2025 tanulmánya szerint ennek a jelenségnek a visszaszorítása drága és összetett feladat, amelyben a technológiai vállalatoknak, a tartalomgyártóknak, a hirdetőknek és a használóknak egyaránt szerepet kell vállalniuk a hitelesség védelme, megőrzése végett. (A nyitó kép forrása: socfradar.io.)
A Deloitte a „2024 Connected Consumer Study” című kutatásában rávilágít a probléma súlyosságára. A válaszadók fele szerint az online tartalmak megbízhatósága romlott a tavalyihoz képest. A generatív mesterséges intelligenciát ismerő vagy használó emberek kétharmada attól tart, hogy ezeket a technológiákat manipulációra és megtévesztésre használják. Többen arról számoltak be, hogy egyre nehezebb felismerni, mely tartalmak származnak valódi emberektől, és melyeket hozott létre mesterséges intelligencia. A megkérdezettek többsége szerint az AI által generált fotók, videók és hanganyagok egyértelmű megjelölése elengedhetetlen, de önmagában ez nem elég a probléma megoldásához.
A deepfake elleni küzdelem ára
A hamis tartalmak felismerésére és kiszűrésére irányuló erőfeszítések egyre nagyobb összegeket emésztenek fel. Szakértői becslések szerint a nagy technológiai és közösségimédia-platformok 2023-ban 5500 millió dollárt fordítottak a deepfake-ek kiszűrésére, és ez az összeg 2026-ra várhatóan eléri a 15 700 millió dollárt. Az ilyen jellegű költségek nemcsak a vállalatokat érintik, hanem a fogyasztóknak, a hirdetőknek és a tartalomkészítőknek is áldozatokat kell hozniuk, ha meg akarják előzni a hamisítók lépéseit.
A védekezés egyik kulcsfontosságú eszköze a mesterséges intelligencia által generált tartalmak felismerése. A technológiai cégek mélytanulási algoritmusokat és gépi látáson alapuló megoldásokat fejlesztenek azért, hogy azonosítani tudják a digitális manipuláció nyomait. Az apró részletek, például a nem természetes ajakmozgás, a hangszín ingadozása vagy a fényvisszaverődés mintázatai árulkodó jelek lehetnek. Az ilyen technológiák azonban nem tökéletesek, hiszen a deepfake fejlesztői folyamatosan új módszereket találnak ki arra, hogy kijátsszák a szűrőket.
A kihívás az, hogy a ma használatos deepfake-felderítő eszközök pontossága legfeljebb 90 százalékos, a csalók pedig könnyen hozzáférhetnek azokhoz az AI-modellekhez, amiknek segítségével, egyre kifinomultabb módszerekkel kikerülhetik vagy egyszerűen túlterhelhetik ezeket a szűrőket” – mondta Gercsák Csilla, a Deloitte Magyarország technológiai tanácsadó üzletágának menedzsere.
A tartalom eredetének nyomon követése szintén fontos szerepet játszik a hitelesség megőrzésében. Az AI-alapú azonosítás mellett egyre több platform alkalmaz olyan megoldásokat, amelyek a képek és videók életciklusának minden lépését rögzítik. A digitális vízjelek és a titkosított metaadatok lehetőséget adnak arra, hogy a használók ellenőrizhessék egy tartalom forrását, és könnyebben megállapíthassák a megbízhatóságát. A Deloitte ezért csatlakozott a Coalition for Content Provenance and Authenticity (C2PA) kezdeményezéshez, amellyel kidolgozták a képek és videók szerkesztési előzményeit részletesen dokumentáló szabványt.
A hitelesség kérdése a digitális térben
A közösségimédia-platformok egy része már vezetett be a hiteles tartalomkészítők és a mesterségesen alkotott „művek” elkülönítését célzó intézkedéseket. Egyes esetekben a használóknak igazolniuk kell személyazonosságukat hivatalos okmányokkal, vagy egy kisebb összeg megfizetésével. Az ilyen megoldások segíthetnek a hamis fiókok és a deepfake-ek terjedésének visszaszorításában, egyúttal felvetik azt a kérdést is, hogy ki viselje a hitelesítés költségeit: az alkotók-e, a hirdetők-e vagy maguk a felhasználók-e.
A deepfake elleni fellépés nem csupán technológiai kihívás, hanem szabályozási és oktatási is. Az Egyesült Államok és az Európai Unió már hozott intézkedéseket avégett, hogy visszaszorítsa az AI által „alkotott” félrevezető tartalmak terjedését, de a szakértők szerint egy világméretű szabályozási rendszer lenne a leghatékonyabb megoldás. Emellett a használók oktatása is elengedhetetlen, hiszen a kellő tájékozottság segíthet abban, hogy tudatosabban fogyasszák az online tartalmakat.
A digitális bizalom megőrzése minden szereplő érdeke, hiszen a hiteles tartalmak és a megbízható információk az online tér egyik alaprésze. A technológiai fejlődés révén egyre hatékonyabb módszerek állnak rendelkezésre a deepfake felismerésére, de a kihívás folyamatos marad, ahogy az AI-modellek is egyre kifinomultabbá válnak. A jövőben azok a platformok és vállalatok lehetnek igazán sikeresek, amelyek képesek megteremteni a biztonságos és megbízható digitális környezet feltételeit.
A deepfake elleni küzdelem kihívásairól és lehetőségeiről további információt a Deloitte elemzésében olvashatnak.