Len v prípade, že si nie ste vedomí najnovších podvodov, ktoré prenikajú komunitou, novšia schéma odkazov sa šíri prostredníctvom e-mailu.
Nie je to úplne nové, aj keď niektoré časti podvodu sú nové.
TheNextWeb.com nahlásil tento podvod 24. apríla 2022.
Čo sa stane, je toto: podvodník vám pošle e-mail s tvrdením, že je konkrétna právnická firma alebo právnik. Budú mať pekný e-mailový hlavičkový papier, všetky diela.
Budú tvrdiť, že sú právnikmi, ktorí oslovujú, pretože vaša stránka porušuje ich autorské práva a porušuje ich.
Potom sa vám budú vyhrážať súdnym sporom za odkaz.
Glenn Gabe o tom tiež skvele napísal na Twitteri:
“Avšak siete GAN stále vytvárajú neprirodzené artefakty, ktoré sa dajú ľahko odhaliť, ak ste oboznámení s technológiou. Ľahko zistíte nepravidelnosti na miestach, ako sú náušnice, tieňovanie na boku tváre, okraj vlasov a brady, vrásky, okraje.” obočia a strán okuliarov.” pic.twitter.com/kFvkVWMnqQ
— Glenn Gabe (@glenngabe) 24. apríla 2022
Ako podvodníci generujú tieto fotografie?
V dnešnej dobe je to celkom jednoduché. K dispozícii je softvér AI, ktorý vám umožňuje vygenerovať náhodnú fotografiu akéhokoľvek druhu osoby, ktorej chcete vytvoriť fiktívnu identitu.
Napríklad, vygenerované.fotky je jednou z takýchto služieb.
Predtým, ako sa začneme zaoberať, však tieto fotografie nie sú vždy nezákonné. Na legitímne použitie môžu dizajnéri použiť tieto typy fotografií na modelové snímky na stránkach, kde nemusia mať veľa peňazí na nákup práv na fotografie skutočných modelov.
Alebo sú fotografie príliš drahé.
Nech je to akokoľvek.
Technológia za podvodom: Generative Adversarial Network (GAN)
Súčasťou technológie, ktorú títo podvodníci používajú na nalákanie ľudí na poskytovanie odkazov, je GAN (alebo Generative Adversarial Networks).
Ide o typ neurónovej siete, ktorá využíva hlboké učenie s cieľom identifikovať, ako kreatívne generovať ľudské tváre na základe vstupu používateľov.
Ako uvádza bdtechtalks.com v roku 2018:
„Momenty zjavenia majú tendenciu prísť za tých najnepravdepodobnejších okolností. Pre Iana Goodfellowa, PhD v odbore strojové učenie, to prišlo pri diskusii o umelej inteligencii s priateľmi v krčme v Montreale jednej neskorej noci v roku 2014. To, čo vzišlo z tohto osudového stretnutia, bola „generative adversarial network“ alebo (GAN), inovácia, ktorú odborníci na AI opísali ako „najlepší nápad hlbokého učenia za posledných 20 rokov“.
Goodfellowovi priatelia diskutovali o tom, ako použiť AI na vytvorenie fotografií, ktoré vyzerajú realisticky. Problém, ktorému čelili, bol, že súčasné techniky a architektúry AI, algoritmy hlbokého učenia a hlboké neurónové siete sú dobré pri klasifikácii obrázkov, ale nie príliš dobré pri vytváraní nových.
Goodfellow prišiel s myšlienkou novej techniky, v ktorej sa rôzne neurónové siete navzájom vyzývali, aby sa naučili vytvárať a zlepšovať nový obsah v rekurzívnom procese. V tú istú noc zakódoval a otestoval svoj nápad a fungovalo to. S pomocou kolegov vedcov a absolventov zo svojej alma mater, Université de Montréal, Goodfellow neskôr dokončil a skompiloval svoju prácu do slávnej a vysoko citovanej bielej knihy s názvom „Generative Adversarial Nets“.
Hoci táto technológia nebola pôvodne navrhnutá na použitie na podvody, podvodníci našli spôsob, ako obísť konvenčné obmedzenia (ako obvykle).
Nevýhody tvárí GAN
Vygenerované tváre, ako možno očakávate, nie sú úplne dokonalé. Hoci majú niekoľko výhod v rôznych prípadoch použitia, majú aj svoje nevýhody.
Môžete si napríklad všimnúť jednu alebo dve veci, ktoré nie sú na svojom mieste, napríklad mihalnicu, ktorá nebola správne vygenerovaná.
Alebo si môžete všimnúť ušný lalôčik, ktorý tiež nemusí byť na svojom mieste.
To je dôvod, prečo AI nie je presne to jediné, čím sa má stať: s týmto softvérom existujú obmedzenia a zatiaľ nemôžete vytvoriť niečo, čo je 100 percent dokonalé.
Je však nepopierateľné, že táto technológia určite prešla dlhú cestu.
Ako vidíte, hlavné nedokonalosti na vygenerovaných obrázkoch sú zakrúžkované červenou farbou a pre náročné oko nevyzerajú 100 percent realisticky.
Ale možno práve v tom je problém. Nie každý bude mať bystré oko a možno práve o to ide: aby boli obrázky čo najdokonalejšie, ale neboli 100-percentne správne.
Tak či onak, prejde pachovým testom laika, ktorý nevie, čo má hľadať.
A mohol by byť ľahko použitý na podvod.