Deepfake technológia alkalmazása a drogok reklámozására
Velenczei Szabolcs
2025.03.26.
Az AI által létrehozott videókban olyan világsztárokkal reklámozzák a droghasználatot, akiknek
erről fogalmuk sincs, hogy a nevüket adják.
A deepfake technológia neve az angol „deep learning” (A gépek és az AI tanulásának módszere, szó
szerinti fordításban: mély tanulás) és „fake” (hamis) szavakból tevődik össze. A technológia olyan
algoritmusokat használ, amelyekkel lehetőség nyílik arra, hogy egy adott személy arcát és hangját egy
másik ember videójára vagy hangfelvételére illesszék. Így létrejöhetnek olyan meggyőző hamis
tartalmak, amelyeket nehéz megkülönböztetni a valóságostól.
A hamis videók széles körben felkeltették a figyelmet, olyan potenciális veszélyekkel, mint a hamis
pornográf tartalmak gyártása (esetleg kiskorúval, hírességgel, vagy egyszerűen bosszúból, zsarolás
miatt), hamis hírek, híradások gyártása, zaklatás, valamilyen pénzügyi csalás és esetleg hamis
reklámok gyártása.
Magyarországon az ilyen technológia még nem terjedt el széles körben a bűnözésben, de a globális
trendek azt mutatják, hogy a deepfake felhasználása a drogkereskedelemben és online
drogpropagandában hamarosan komoly problémát jelenthet.
Míg a videóban szereplő személy a hozzájárulása nélkül használják az arcát és hangját önös célokra,
addig a videót készítő teljes anonimitásban marad.
A közösségi média óriási szerepet játszik az információterjesztésben, és sok esetben ezek a
platformok a deepfake drogpromóciók fő területei lehetnek. Az olyan oldalak, mint a Facebook,
Instagram vagy a TikTok, komoly kihívással néznek szembe, mivel ezek a hamis videók gyorsan
terjednek. Bár ezek a nagy platformok használnak mesterséges intelligencia alapú cenzúrát a hamis
tartalmak kiszűrésére, ez a technológia még nem tökéletes, és sokszor a valóban káros videók is
fennmaradnak az interneten.
A drogkereskedelem és drogok népszerűsítésének területén a legnagyobb potenciális veszélyt a
hamis, deepfake technológiával készített reklámok jelentik. Képzeljük el, hogy kedvenc hírességünk
arcát viselve, az ő eredeti hangján szólal meg egy általunk valósnak vélt szereplő egy reklámban,
kábítószereket és annak használatát népszerűsítve. A közösségi médiát használva, egyre gyakrabban
szembe találkozhatunk a jelenséggel, ahol nagyon egyszerűen és gyorsan terjeszthető ilyen jellegű,
hamis anyag.
Az alábbi linken elérhető egy, a közösségi médiában megjelent, Snoop Dogg-ot ábrázoló és hangján
megszólaló videó, ahol egy prágai drogkereskedő weboldalt reklámoz: Videó Itt érhető el
Az is könnyen elképzelhető, hogy nem egy híresség bőrébe bújnak, hanem egy orvos, kutató vagy
professzor előadását imitálják. Félrevezető lehet sok ember számára, ha egy valósnak vélt szakértő
egy videóban arról tart előadást, hogy a drogok használata veszélytelen, néhány esetben pedig akár
pozitív hatása is van a szervezetre. Ez a hazai designer drogok problémáját, beleértve a HHC-t, még
inkább súlyosbíthatja. A főleg fiatalokat célzó designer drogok marketingje sokszor épít arra a téves
kijelentésre, hogy az általuk reklámozott termék az egészségre nem káros, sőt, nyugtató, szorongás
csökkentő hatású. A figyelmesebbek gyanúját azonban felkeltheti, hogy míg a legális gyógyszerekről
szóló reklámokban még az esetleges mellékhatásokra is felhívják a figyelmet, addig ezekben a hamis
marketing videókban csak a pozitívnak beállított hatásokról van szó.
A deepfake segítségével a közvélemény egyes drogokhoz való hozzáállása is megváltoztatható. Hamis
videókkal képesek azt a látszatot kelteni, hogy egy politikus, aktivista vagy esetleg rendőri vezető
támogatja a kábítószerek legalizálását.
Mivel a deepfake technológia folyamatosan fejlődik, így egyre nehezebb lesz felismerni a hamis
videókat. A jogi szabályozás sok országban még nem tart lépést ezzel a fenyegetéssel, így a
drogkereskedők és illegális reklámok készítői könnyen kihasználhatják ezt a lehetőséget.
A deepfake technológia elleni védekezés alapja a hamis videók felismerése. Erre olyan AI-alapú
rendszereket fejlesztenek a nagyobb tech cégek, mint a Google, Facebook vagy Microsoft, ami képes
felismerni a pixeleltérések, szemmozgás anomáliák és szokatlan fényhatások alapján a manipulált
anyagokat.
Fontos eleme azonban a védekezésnek, hogy növeljük a médiatudatosságunkat. Meg kell értenünk,
hogy ami a közösségi médiában megjelenik, nem mindig hiteles forrásból származik és nem mindig
igaz. Kritikus szemmel kell ezért kezelni az ott megjelenő tartalmakat és ellenőrizni a forrásuk
hitelességét.
Erre a tudatos internethasználatra kell nevelni az ebben a digitális világban felnővő generációt is, akik
a közösségi médián kívül szinte semmilyen más hiteles forrásból nem tájékozódnak a valós hírekről és
mégis könnyen befolyásolhatóak.