La Nombro de Deepfalsaj Videoj Pliiĝas Je 900 Procento Ĉiujare

Nombro de Deepfake Videoj Pliigas Procenton Ĉiujare
La Nombro de Deepfalsaj Videoj Pliiĝas Je 900 Procento Ĉiujare

Laŭ la Monda Ekonomia Forumo (WEF), la nombro da interretaj deepfalsaj videoj pliiĝas je 900% ĉiujare. Pluraj rimarkindaj kazoj de profundaj falsaj fraŭdoj faris la novaĵajn titolojn, kun raportoj pri ĉikanado, venĝo kaj kriptaj fraŭdoj. Kaspersky-esploristoj lumigas la tri plej bonajn fraŭdajn kabalojn uzante profundajn falsaĵojn, pri kiuj uzantoj devus atenti.

La uzo de artefaritaj neŭralaj retoj, profunda lernado, kaj tiel profundaj trompteknikoj permesas al uzantoj ĉirkaŭ la mondo ciferece ŝanĝi siajn vizaĝojn aŭ korpojn, tiel produktante realismajn bildojn, video- kaj sonmaterialojn kie iu ajn povas aspekti kiel iu alia. Ĉi tiuj manipulitaj filmetoj kaj bildoj ofte estas uzataj por disvastigi misinformadon kaj aliajn malicajn celojn.

financa fraŭdo

Deepfalsaĵoj povas esti la temo de sociaj inĝenieraj teknikoj, kiuj uzas bildojn kreitajn de krimuloj por parodii famulojn por logi viktimojn en siajn kaptilojn. Ekzemple, artefarite kreita video de Elon Musk promesanta altajn rendimentojn de dubinda kripta mona investskemo rapide disvastiĝis la pasintjare, kaŭzante uzantojn perdi monon. Fraŭdistoj uzas bildojn de famuloj por krei falsajn filmetojn kiel ĉi tiu, kunmetante malnovajn filmetojn kaj lanĉante vivajn riveretojn sur sociaj amaskomunikiloj, promesante duobligi ajnajn kriptajn monerpagojn senditajn al ili.

pornografia deepfalso

Alia uzo por deepfalsaĵoj estas malobservi la privatecon de individuo. Deepfalsaj vidbendoj povas esti kreitaj supermetante la vizaĝon de persono al pornografia video, kaŭzante grandan damaĝon kaj aflikton. En unu kazo, deepfalsaj filmetoj aperis en la Interreto, en kiuj la vizaĝoj de iuj famuloj estis supermetitaj al la korpoj de pornografiaj aktorinoj en eksplicitaj scenoj. Kiel rezulto, en tiaj kazoj, la reputacio de viktimoj de atakoj estas damaĝita kaj iliaj rajtoj estas malobservitaj.

Komercaj riskoj

Ofte, deepfalsaĵoj estas uzataj por celi entreprenojn por krimoj kiel ĉantaĝo de kompanioj, ĉantaĝo kaj industria spionado. Ekzemple, uzante deepfalsan voĉon, ciberkrimuloj sukcesis trompi bankdirektoron en la UAE kaj ŝteli $ 35 milionojn. En la koncerna kazo, necesis nur malgranda registrado de la voĉo de lia estro por esti kaptita por krei konvinkan deepfalsaĵon. En alia kazo, skamistoj provis trompi la plej grandan kriptan monerplatformon Binance. Binance-oficulo diris "Dankon!" pri Zoom-renkontiĝo, kiun li neniam ĉeestis. Li estis surprizita kiam li komencis ricevi mesaĝojn. La atakantoj sukcesis krei deepfalsaĵon kun publikaj bildoj de la manaĝero kaj efektivigi ĝin per parolado nome de la manaĝero en interreta renkontiĝo.

FBI avertas administrantojn de homaj rimedoj!

Ĝenerale, la celoj de skamantoj uzantaj deepfalsaĵojn inkluzivas misinformadon kaj publikan manipuladon, ĉantaĝon kaj spionadon. Oficistoj pri homaj rimedoj jam atentas pri la uzo de deepfalsaĵoj de kandidatoj petantaj por fora laboro, laŭ alarmo de FBI. En la kazo Binance, la atakantoj uzis bildojn de realaj homoj el la interreto por krei profundajn falsaĵojn, kaj eĉ aldonis siajn fotojn al rekomencoj. Se ili sukcesas trompi administrantojn de homaj rimedoj tiamaniere kaj poste ricevi oferton, ili poste povas ŝteli datumojn de dunganto.

Deepfakes daŭre estas multekosta formo de fraŭdo, kiu postulas grandan buĝeton kaj pliiĝas en nombro. Pli frua studo de Kaspersky malkaŝas la koston de deepfalsaĵoj sur la mallumreto. Se ordinara uzanto trovas programaron en la Interreto kaj provas profunde falsi ĝin, la rezulto estos nereala kaj fraŭda estas evidenta. Malmultaj homoj kredas je malaltkvalita deepfalso. Li tuj povas rimarki prokrastojn en vizaĝa esprimo aŭ neklaran mentonon.

Tial, ciberkrimuloj bezonas grandajn kvantojn da datumoj prepari por atako. Kiel fotoj, filmetoj kaj voĉoj de la persono, kiun ili volas personigi. Malsamaj anguloj, malpeza brilo, vizaĝaj esprimoj, ĉiuj ludas grandan rolon en la fina kvalito. Ĝisdata komputila potenco kaj programaro estas postulataj por ke la rezulto estu realisma. Ĉio ĉi postulas grandan kvanton da rimedoj, kaj nur malgranda nombro da ciberkrimuloj havas aliron al ĉi tiu rimedo. Tial deepfake ankoraŭ restas ekstreme malofta minaco, malgraŭ la danĝeroj, kiujn ĝi povas prezenti, kaj nur malgranda nombro da aĉetantoj povas pagi ĝin. Kiel rezulto, la prezo de unuminuta deepfalso komenciĝas je $ 20.

"Foje reputaciaj riskoj povas havi tre gravajn sekvojn"

Dmitry Anikin, Senior Security Specialist ĉe Kaspersky, diras: "Unu el la plej gravaj minacoj kiujn Deepfake prezentas al entreprenoj ne ĉiam estas la ŝtelo de kompaniaj datumoj. Kelkfoje reputaciaj riskoj povas havi tre gravajn sekvojn. Imagu filmeton de via administranto faranta polarigajn rimarkojn pri (ŝajne) sentemaj temoj. Por la kompanio, ĉi tio povus konduki al rapida malkresko de akciaj prezoj. Tamen, kvankam la riskoj de tia minaco estas ekstreme altaj, la ŝancoj esti hakita tiamaniere estas ekstreme malaltaj pro la kosto de kreado de deepfalso kaj tre malmultaj atakantoj povas krei altkvalitan deepfalsaĵon. Kion vi povas fari pri ĝi estas konscii pri la ĉefaj trajtoj de deepfalsaj videoj kaj esti skeptika pri voĉmesaĝoj kaj videoj kiuj venas al vi. Ankaŭ certigu, ke viaj dungitoj komprenas, kio estas deepfalso kaj kiel ili povas ekvidi ĝin. Ekzemple, signoj kiel saka movado, ŝanĝoj en haŭtnuanco, stranga palpebrumado aŭ ne palpebrumado estos indikaj."

Daŭra monitorado de mallumretaj rimedoj provizas valorajn sciojn pri la profunda falsa industrio, permesante al esploristoj sekvi la plej novajn tendencojn kaj agadojn de minacaktoroj en ĉi tiu spaco. Monitorante la mallumreton, esploristoj povas malkovri novajn ilojn, servojn kaj foirejojn uzatajn por la kreado kaj distribuado de deepfalsaĵoj. Ĉi tiu speco de monitorado estas kritika komponanto de profunda falsa esplorado kaj helpas nin plibonigi nian komprenon pri la evoluanta minaca pejzaĝo. Kaspersky Digital Footprint Intelligence-servo inkluzivas ĉi tiun tipon de monitorado por helpi siajn klientojn resti unu paŝon antaŭen se temas pri deepfals-rilataj minacoj.