Deepfake: prihaja doba globokih ponaredkov, v kateri ne boste ločili manipulacije od resničnosti
POSLUŠAJ ČLANEK
Deepfake (globok ponaredek) je digitalno obdelan sintetični medij, ki lahko verodostojno nadomesti podobo ene osebe s podobo druge osebe. Gre za tehnološko revolucijo, ki je odprla veliko novih možnosti, vključno z »oživljanjem« slavnih pokojnikov, ki lahko zdaj preko holograma celo »stopijo na oder«, in drugimi, s katerimi ta nova tehnologija spreminja medijsko igro.
Manipulacija foto in video vsebin sicer ni novost, vendar se pri deepfake uporabljajo zmogljive tehnike strojnega učenja in umetne inteligence za manipulacijo ali ustvarjanje video in zvočnih vsebin, ki jih je mogoče zlahka ponovno ustvariti. Glavne tehnike strojnega učenja, ki se uporabljajo pri deepfake, so tehnike globokega učenja, ki je večplastno in visoko sofisticirano.
V zadnjem času so kot primer po spletu zavajale slike papeža Frančiška v zimski opravi, ki je ni nikoli nosil, še pred aretacijo bivšega ameriškega predsednika Donalda Trumpa pa so slike njegove »delno nasilne« aretacije zavedle še več ljudi.
Najmanj od leta 2018, ko je prvič vstopil v komercialno uporabo in postal splošno dostopen, je deepfake pritegnil veliko pozornosti in povzročil veliko kontroverznosti, saj se lahko preko njega ustvari na videz povsem pristne vsebine, ki pa lahko uprizarjajo spolno zlorabo otrok, pornografijo, ki vključuje znane osebnosti, ali posnetke za izsiljevanje. So tudi zelo učinkovito sredstvo za manipulacijo in ustvarjanje lažnih novic, prevar, nadlegovanj, finančnih goljufij in podobno. Zato se tako v industriji kot v številnih vladah po svetu začenja razprava o omejitvi uporabe tovrstne tehnologije, ki pa za zdaj še ni splošno uveljavljena.
Do danes je internet preplavljen z množico deepfake fotografij, kar pomeni, da ne moremo nikoli biti popolnoma prepričani, da gre za pristen posnetek, saj je ponaredke sploh običajnemu uporabniku interneta zelo težko prepoznati. Po tem, ko so programerji zamenjali obraz Angeli Merkel z obrazom Donalda Trumpa leta 2018 in je nova tehnologija dosegla veliko svetovne pozornosti, je ameriški raziskovalec umetne inteligence Alex Champandard povedal, da se ljudje »morajo zavedati, kako enostavno je ustvariti ponarejene slike in videoposnetke, ki čez nekaj mesecev ne bodo več prepoznavni kot ponaredki«. Trdi, da je to neizogibno in da se problema ne bi smeli lotiti s tehnološkega vidika, temveč skozi prizmo zaupanja v informacije in novinarstvo. Globoki ponaredki se lahko uporabljajo za obrekovanje, ponarejanje in širjenje napačnih informacij. Največja grožnja je, da ljudje ne bodo več znali presoditi, ali je medijska vsebina resnična ali lažna.
Aprila 2020 so bili na primer številni Belgijci in tudi drugi zavedeni z deepfake videom, ki ga je na Twitterju objavila radikalnejša okoljska organizacija Extinction Rebellion. V njem so s tehnologijo ustvarili takratno belgijsko premierko Sophie Wilmès, ki tako v flamščini kot francoščini povezuje degradacijo okolja s pojavom covida-19 in se zavzema za odločno ukrepanje, vključno z zborovanji državljanov v boju proti tem medsebojno povezanim pojavom. Video je videla velika masa ljudi, med katerimi je večina verjela, da gre za pravi posnetek.
https://twitter.com/XR_Belgium/status/1249978518596968450?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1249978518596968450%7Ctwgr%5Efc3ce9d55defc07bd04879a37a16199632bbcca9%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fjournalism.design%2Fextinction-rebellion-sempare-des-deepfakes%2F
Prav tako leta 2020 so bile podobe severnokorejskega diktatorja Kim Džong-Una in predsednika Rusije Vladimirja Putina mišljene kot propagandni oglas neprofitne organizacije RepresentUs v opozorilo na ogroženost demokracije in domnevno vmešavanje diktatorjev v ameriške volitve. V dveh lažnih videoposnetkih diktatorja opozarjata Američane na vmešavanje v volitve in vse večje politične delitve.
Namen oglasa je bil tudi ozavestiti ameriško javnost o krhkosti demokracije in o tem, da lahko mediji in informacije pomembno vplivajo na razvoj države, ne glede na njihovo verodostojnost. Posnetki so bili tako prepričljivi in zavajajoči, da je na koncu bilo odločeno, da kot oglas ne bodo izdani, saj bi resnično lahko povzročili stres pri ljudeh.
[video width="1280" height="720" webm="https://www.domovina.je/wp-content/uploads/2023/04/putin_deepfake.webm"][/video]
[video width="1280" height="720" webm="https://www.domovina.je/wp-content/uploads/2023/04/dzong_un_deepfake.webm"][/video]
Verjetno ne preseneča, da se je že pred splošno dostopnostjo prvič leta 2017 na spletu pojavila globoka pornografija (deepporn), danes pa številne spletne strani vključujejo pornografijo ženskih zvezdnic, katerih slike se pogosto uporabljajo brez njihovega soglasja, proti čemur nekatere glasno nasprotujejo. Leta 2019 je nizozemsko podjetje za kibernetsko varnost Deeptrace objavilo poročilo, da je bilo 96 % spletnih globokih ponaredkov pornografskih. Poleg tega se s tako lahkim ustvarjanjem vsebin še bolj širijo zvrsti pornografije, ki so lahko za zasvojence še bolj škodljive.
Deepfake tehnologija omogoča hitrejše, varnejše in lažje ustvarjanje gradiva otroške pornografije. Globoki ponaredki se lahko uporabljajo za ustvarjanje novega iz obstoječega gradiva ali za uporabo otrok, ki niso bili spolno zlorabljeni. Globoki ponaredki pa imajo lahko dejanske in neposredne posledice za otroke, vključno z obrekovanjem, nadlegovanjem, grožnjami in ustrahovanjem.
Manipulacija foto in video vsebin sicer ni novost, vendar se pri deepfake uporabljajo zmogljive tehnike strojnega učenja in umetne inteligence za manipulacijo ali ustvarjanje video in zvočnih vsebin, ki jih je mogoče zlahka ponovno ustvariti. Glavne tehnike strojnega učenja, ki se uporabljajo pri deepfake, so tehnike globokega učenja, ki je večplastno in visoko sofisticirano.
V zadnjem času so kot primer po spletu zavajale slike papeža Frančiška v zimski opravi, ki je ni nikoli nosil, še pred aretacijo bivšega ameriškega predsednika Donalda Trumpa pa so slike njegove »delno nasilne« aretacije zavedle še več ljudi.
Manipulacije že v polnem teku, največ politične
Najmanj od leta 2018, ko je prvič vstopil v komercialno uporabo in postal splošno dostopen, je deepfake pritegnil veliko pozornosti in povzročil veliko kontroverznosti, saj se lahko preko njega ustvari na videz povsem pristne vsebine, ki pa lahko uprizarjajo spolno zlorabo otrok, pornografijo, ki vključuje znane osebnosti, ali posnetke za izsiljevanje. So tudi zelo učinkovito sredstvo za manipulacijo in ustvarjanje lažnih novic, prevar, nadlegovanj, finančnih goljufij in podobno. Zato se tako v industriji kot v številnih vladah po svetu začenja razprava o omejitvi uporabe tovrstne tehnologije, ki pa za zdaj še ni splošno uveljavljena.
Do danes je internet preplavljen z množico deepfake fotografij, kar pomeni, da ne moremo nikoli biti popolnoma prepričani, da gre za pristen posnetek, saj je ponaredke sploh običajnemu uporabniku interneta zelo težko prepoznati. Po tem, ko so programerji zamenjali obraz Angeli Merkel z obrazom Donalda Trumpa leta 2018 in je nova tehnologija dosegla veliko svetovne pozornosti, je ameriški raziskovalec umetne inteligence Alex Champandard povedal, da se ljudje »morajo zavedati, kako enostavno je ustvariti ponarejene slike in videoposnetke, ki čez nekaj mesecev ne bodo več prepoznavni kot ponaredki«. Trdi, da je to neizogibno in da se problema ne bi smeli lotiti s tehnološkega vidika, temveč skozi prizmo zaupanja v informacije in novinarstvo. Globoki ponaredki se lahko uporabljajo za obrekovanje, ponarejanje in širjenje napačnih informacij. Največja grožnja je, da ljudje ne bodo več znali presoditi, ali je medijska vsebina resnična ali lažna.
Aprila 2020 so bili na primer številni Belgijci in tudi drugi zavedeni z deepfake videom, ki ga je na Twitterju objavila radikalnejša okoljska organizacija Extinction Rebellion. V njem so s tehnologijo ustvarili takratno belgijsko premierko Sophie Wilmès, ki tako v flamščini kot francoščini povezuje degradacijo okolja s pojavom covida-19 in se zavzema za odločno ukrepanje, vključno z zborovanji državljanov v boju proti tem medsebojno povezanim pojavom. Video je videla velika masa ljudi, med katerimi je večina verjela, da gre za pravi posnetek.
https://twitter.com/XR_Belgium/status/1249978518596968450?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1249978518596968450%7Ctwgr%5Efc3ce9d55defc07bd04879a37a16199632bbcca9%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fjournalism.design%2Fextinction-rebellion-sempare-des-deepfakes%2F
Prav tako leta 2020 so bile podobe severnokorejskega diktatorja Kim Džong-Una in predsednika Rusije Vladimirja Putina mišljene kot propagandni oglas neprofitne organizacije RepresentUs v opozorilo na ogroženost demokracije in domnevno vmešavanje diktatorjev v ameriške volitve. V dveh lažnih videoposnetkih diktatorja opozarjata Američane na vmešavanje v volitve in vse večje politične delitve.
Namen oglasa je bil tudi ozavestiti ameriško javnost o krhkosti demokracije in o tem, da lahko mediji in informacije pomembno vplivajo na razvoj države, ne glede na njihovo verodostojnost. Posnetki so bili tako prepričljivi in zavajajoči, da je na koncu bilo odločeno, da kot oglas ne bodo izdani, saj bi resnično lahko povzročili stres pri ljudeh.
[video width="1280" height="720" webm="https://www.domovina.je/wp-content/uploads/2023/04/putin_deepfake.webm"][/video]
[video width="1280" height="720" webm="https://www.domovina.je/wp-content/uploads/2023/04/dzong_un_deepfake.webm"][/video]
Nova brezna pornografije
Verjetno ne preseneča, da se je že pred splošno dostopnostjo prvič leta 2017 na spletu pojavila globoka pornografija (deepporn), danes pa številne spletne strani vključujejo pornografijo ženskih zvezdnic, katerih slike se pogosto uporabljajo brez njihovega soglasja, proti čemur nekatere glasno nasprotujejo. Leta 2019 je nizozemsko podjetje za kibernetsko varnost Deeptrace objavilo poročilo, da je bilo 96 % spletnih globokih ponaredkov pornografskih. Poleg tega se s tako lahkim ustvarjanjem vsebin še bolj širijo zvrsti pornografije, ki so lahko za zasvojence še bolj škodljive.
Deepfake tehnologija omogoča hitrejše, varnejše in lažje ustvarjanje gradiva otroške pornografije. Globoki ponaredki se lahko uporabljajo za ustvarjanje novega iz obstoječega gradiva ali za uporabo otrok, ki niso bili spolno zlorabljeni. Globoki ponaredki pa imajo lahko dejanske in neposredne posledice za otroke, vključno z obrekovanjem, nadlegovanjem, grožnjami in ustrahovanjem.
Povezani članki
Zadnje objave
P. Metod Benedik, cerkveni zgodovinar: Škofjeloški pasijon je unikum v svetu
29. 3. 2024 ob 6:31
Svoboda govora ali govor Svobode
28. 3. 2024 ob 7:31
Ekskluzivno za naročnike
Domovina 141: 30 let uroka Depale vasi
27. 3. 2024 ob 6:29
Domovina 140: Kam gre denar od precenjenih železniških postaj
20. 3. 2024 ob 6:29
To je groza, ni pa strah – Justin Earl Grant
18. 3. 2024 ob 23:11
Prihajajoči dogodki
MAR
29
V kapeli Zavoda ŽIVIM križev pot za življenje
15:00 - 15:45
MAR
29
FKK 4: Za post
19:30 - 21:30
MAR
31
ZAJETI V IZVIRU - SLOVENSKI OTROCI LEBENSBORNA
18:00 - 19:00
APR
01
APR
01
KINO V ŽIVO: OKRONANA
19:00 - 21:00
4 komentarjev
Andrej Muren
Zadeva je kot naročena za lažnive in manipulatorske levičarje, ki bodo gotovo glavni uporabniki
tega deepfaka.
Friderik
Andrej Muren, kar zadeva greha, lažnivosti in ostalih 6 naglavnih grehov, so ti lepo porazdeljeni med prebivalstvom ne glede na raso, spol, narodnost, veroizpoved.... Zakaj pa imajo v cerkvah spovednice? Za " levičarje"? Če smo natančni, že takole podtikanje iz sovraštva je greh.
Friderik
Grozljivo. Kako bomo sploh vedeli kaj je res?
AlojzZ
Pa ve se, kdo je premagal tega gospodarja laži. Nanj se je potrebno nasloniti.
Komentiraj
Za objavo komentarja se morate prijaviti.