Deepfake: prihaja doba globokih ponaredkov, v kateri ne boste ločili manipulacije od resničnosti

Deepfake (globok ponaredek) je digitalno obdelan sintetični medij, ki lahko verodostojno nadomesti podobo ene osebe s podobo druge osebe. Gre za tehnološko revolucijo, ki je odprla veliko novih možnosti, vključno z »oživljanjem« slavnih pokojnikov, ki lahko zdaj preko holograma celo »stopijo na oder«, in drugimi, s katerimi ta nova tehnologija spreminja medijsko igro.
Manipulacija foto in video vsebin sicer ni novost, vendar se pri deepfake uporabljajo zmogljive tehnike strojnega učenja in umetne inteligence za manipulacijo ali ustvarjanje video in zvočnih vsebin, ki jih je mogoče zlahka ponovno ustvariti. Glavne tehnike strojnega učenja, ki se uporabljajo pri deepfake, so tehnike globokega učenja, ki je večplastno in visoko sofisticirano.
V zadnjem času so kot primer po spletu zavajale slike papeža Frančiška v zimski opravi, ki je ni nikoli nosil, še pred aretacijo bivšega ameriškega predsednika Donalda Trumpa pa so slike njegove »delno nasilne« aretacije zavedle še več ljudi.
Najmanj od leta 2018, ko je prvič vstopil v komercialno uporabo in postal splošno dostopen, je deepfake pritegnil veliko pozornosti in povzročil veliko kontroverznosti, saj se lahko preko njega ustvari na videz povsem pristne vsebine, ki pa lahko uprizarjajo spolno zlorabo otrok, pornografijo, ki vključuje znane osebnosti, ali posnetke za izsiljevanje. So tudi zelo učinkovito sredstvo za manipulacijo in ustvarjanje lažnih novic, prevar, nadlegovanj, finančnih goljufij in podobno. Zato se tako v industriji kot v številnih vladah po svetu začenja razprava o omejitvi uporabe tovrstne tehnologije, ki pa za zdaj še ni splošno uveljavljena.
Do danes je internet preplavljen z množico deepfake fotografij, kar pomeni, da ne moremo nikoli biti popolnoma prepričani, da gre za pristen posnetek, saj je ponaredke sploh običajnemu uporabniku interneta zelo težko prepoznati. Po tem, ko so programerji zamenjali obraz Angeli Merkel z obrazom Donalda Trumpa leta 2018 in je nova tehnologija dosegla veliko svetovne pozornosti, je ameriški raziskovalec umetne inteligence Alex Champandard povedal, da se ljudje »morajo zavedati, kako enostavno je ustvariti ponarejene slike in videoposnetke, ki čez nekaj mesecev ne bodo več prepoznavni kot ponaredki«. Trdi, da je to neizogibno in da se problema ne bi smeli lotiti s tehnološkega vidika, temveč skozi prizmo zaupanja v informacije in novinarstvo. Globoki ponaredki se lahko uporabljajo za obrekovanje, ponarejanje in širjenje napačnih informacij. Največja grožnja je, da ljudje ne bodo več znali presoditi, ali je medijska vsebina resnična ali lažna.
Aprila 2020 so bili na primer številni Belgijci in tudi drugi zavedeni z deepfake videom, ki ga je na Twitterju objavila radikalnejša okoljska organizacija Extinction Rebellion. V njem so s tehnologijo ustvarili takratno belgijsko premierko Sophie Wilmès, ki tako v flamščini kot francoščini povezuje degradacijo okolja s pojavom covida-19 in se zavzema za odločno ukrepanje, vključno z zborovanji državljanov v boju proti tem medsebojno povezanim pojavom. Video je videla velika masa ljudi, med katerimi je večina verjela, da gre za pravi posnetek.
https://twitter.com/XR_Belgium/status/1249978518596968450?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1249978518596968450%7Ctwgr%5Efc3ce9d55defc07bd04879a37a16199632bbcca9%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fjournalism.design%2Fextinction-rebellion-sempare-des-deepfakes%2F
Prav tako leta 2020 so bile podobe severnokorejskega diktatorja Kim Džong-Una in predsednika Rusije Vladimirja Putina mišljene kot propagandni oglas neprofitne organizacije RepresentUs v opozorilo na ogroženost demokracije in domnevno vmešavanje diktatorjev v ameriške volitve. V dveh lažnih videoposnetkih diktatorja opozarjata Američane na vmešavanje v volitve in vse večje politične delitve.
Namen oglasa je bil tudi ozavestiti ameriško javnost o krhkosti demokracije in o tem, da lahko mediji in informacije pomembno vplivajo na razvoj države, ne glede na njihovo verodostojnost. Posnetki so bili tako prepričljivi in zavajajoči, da je na koncu bilo odločeno, da kot oglas ne bodo izdani, saj bi resnično lahko povzročili stres pri ljudeh.
[video width="1280" height="720" webm="https://www.domovina.je/wp-content/uploads/2023/04/putin_deepfake.webm"][/video]
[video width="1280" height="720" webm="https://www.domovina.je/wp-content/uploads/2023/04/dzong_un_deepfake.webm"][/video]
Verjetno ne preseneča, da se je že pred splošno dostopnostjo prvič leta 2017 na spletu pojavila globoka pornografija (deepporn), danes pa številne spletne strani vključujejo pornografijo ženskih zvezdnic, katerih slike se pogosto uporabljajo brez njihovega soglasja, proti čemur nekatere glasno nasprotujejo. Leta 2019 je nizozemsko podjetje za kibernetsko varnost Deeptrace objavilo poročilo, da je bilo 96 % spletnih globokih ponaredkov pornografskih. Poleg tega se s tako lahkim ustvarjanjem vsebin še bolj širijo zvrsti pornografije, ki so lahko za zasvojence še bolj škodljive.
Deepfake tehnologija omogoča hitrejše, varnejše in lažje ustvarjanje gradiva otroške pornografije. Globoki ponaredki se lahko uporabljajo za ustvarjanje novega iz obstoječega gradiva ali za uporabo otrok, ki niso bili spolno zlorabljeni. Globoki ponaredki pa imajo lahko dejanske in neposredne posledice za otroke, vključno z obrekovanjem, nadlegovanjem, grožnjami in ustrahovanjem.
Manipulacija foto in video vsebin sicer ni novost, vendar se pri deepfake uporabljajo zmogljive tehnike strojnega učenja in umetne inteligence za manipulacijo ali ustvarjanje video in zvočnih vsebin, ki jih je mogoče zlahka ponovno ustvariti. Glavne tehnike strojnega učenja, ki se uporabljajo pri deepfake, so tehnike globokega učenja, ki je večplastno in visoko sofisticirano.
V zadnjem času so kot primer po spletu zavajale slike papeža Frančiška v zimski opravi, ki je ni nikoli nosil, še pred aretacijo bivšega ameriškega predsednika Donalda Trumpa pa so slike njegove »delno nasilne« aretacije zavedle še več ljudi.
Manipulacije že v polnem teku, največ politične
Najmanj od leta 2018, ko je prvič vstopil v komercialno uporabo in postal splošno dostopen, je deepfake pritegnil veliko pozornosti in povzročil veliko kontroverznosti, saj se lahko preko njega ustvari na videz povsem pristne vsebine, ki pa lahko uprizarjajo spolno zlorabo otrok, pornografijo, ki vključuje znane osebnosti, ali posnetke za izsiljevanje. So tudi zelo učinkovito sredstvo za manipulacijo in ustvarjanje lažnih novic, prevar, nadlegovanj, finančnih goljufij in podobno. Zato se tako v industriji kot v številnih vladah po svetu začenja razprava o omejitvi uporabe tovrstne tehnologije, ki pa za zdaj še ni splošno uveljavljena.
Do danes je internet preplavljen z množico deepfake fotografij, kar pomeni, da ne moremo nikoli biti popolnoma prepričani, da gre za pristen posnetek, saj je ponaredke sploh običajnemu uporabniku interneta zelo težko prepoznati. Po tem, ko so programerji zamenjali obraz Angeli Merkel z obrazom Donalda Trumpa leta 2018 in je nova tehnologija dosegla veliko svetovne pozornosti, je ameriški raziskovalec umetne inteligence Alex Champandard povedal, da se ljudje »morajo zavedati, kako enostavno je ustvariti ponarejene slike in videoposnetke, ki čez nekaj mesecev ne bodo več prepoznavni kot ponaredki«. Trdi, da je to neizogibno in da se problema ne bi smeli lotiti s tehnološkega vidika, temveč skozi prizmo zaupanja v informacije in novinarstvo. Globoki ponaredki se lahko uporabljajo za obrekovanje, ponarejanje in širjenje napačnih informacij. Največja grožnja je, da ljudje ne bodo več znali presoditi, ali je medijska vsebina resnična ali lažna.
Aprila 2020 so bili na primer številni Belgijci in tudi drugi zavedeni z deepfake videom, ki ga je na Twitterju objavila radikalnejša okoljska organizacija Extinction Rebellion. V njem so s tehnologijo ustvarili takratno belgijsko premierko Sophie Wilmès, ki tako v flamščini kot francoščini povezuje degradacijo okolja s pojavom covida-19 in se zavzema za odločno ukrepanje, vključno z zborovanji državljanov v boju proti tem medsebojno povezanim pojavom. Video je videla velika masa ljudi, med katerimi je večina verjela, da gre za pravi posnetek.
https://twitter.com/XR_Belgium/status/1249978518596968450?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1249978518596968450%7Ctwgr%5Efc3ce9d55defc07bd04879a37a16199632bbcca9%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fjournalism.design%2Fextinction-rebellion-sempare-des-deepfakes%2F
Prav tako leta 2020 so bile podobe severnokorejskega diktatorja Kim Džong-Una in predsednika Rusije Vladimirja Putina mišljene kot propagandni oglas neprofitne organizacije RepresentUs v opozorilo na ogroženost demokracije in domnevno vmešavanje diktatorjev v ameriške volitve. V dveh lažnih videoposnetkih diktatorja opozarjata Američane na vmešavanje v volitve in vse večje politične delitve.
Namen oglasa je bil tudi ozavestiti ameriško javnost o krhkosti demokracije in o tem, da lahko mediji in informacije pomembno vplivajo na razvoj države, ne glede na njihovo verodostojnost. Posnetki so bili tako prepričljivi in zavajajoči, da je na koncu bilo odločeno, da kot oglas ne bodo izdani, saj bi resnično lahko povzročili stres pri ljudeh.
[video width="1280" height="720" webm="https://www.domovina.je/wp-content/uploads/2023/04/putin_deepfake.webm"][/video]
[video width="1280" height="720" webm="https://www.domovina.je/wp-content/uploads/2023/04/dzong_un_deepfake.webm"][/video]
Nova brezna pornografije
Verjetno ne preseneča, da se je že pred splošno dostopnostjo prvič leta 2017 na spletu pojavila globoka pornografija (deepporn), danes pa številne spletne strani vključujejo pornografijo ženskih zvezdnic, katerih slike se pogosto uporabljajo brez njihovega soglasja, proti čemur nekatere glasno nasprotujejo. Leta 2019 je nizozemsko podjetje za kibernetsko varnost Deeptrace objavilo poročilo, da je bilo 96 % spletnih globokih ponaredkov pornografskih. Poleg tega se s tako lahkim ustvarjanjem vsebin še bolj širijo zvrsti pornografije, ki so lahko za zasvojence še bolj škodljive.
Deepfake tehnologija omogoča hitrejše, varnejše in lažje ustvarjanje gradiva otroške pornografije. Globoki ponaredki se lahko uporabljajo za ustvarjanje novega iz obstoječega gradiva ali za uporabo otrok, ki niso bili spolno zlorabljeni. Globoki ponaredki pa imajo lahko dejanske in neposredne posledice za otroke, vključno z obrekovanjem, nadlegovanjem, grožnjami in ustrahovanjem.
Zadnje objave

Ponovno dvig RTV prispevka: Zoprno se stara zagotovilo kulturne ministrice
16. 5. 2025 ob 18:14

Nekatere ceste po neurju na Cerkljanskem še vedno neprevozne
16. 5. 2025 ob 16:37

Slovesnost v spomin na žrtve komunističnega nasilja
16. 5. 2025 ob 15:16

Boleči povodi za upad slovenskega BDP
16. 5. 2025 ob 14:29

Zakaj si je 267. papež izbral ravno ime Leon?
16. 5. 2025 ob 9:00

Avre ni več: ljudje na referendumu prizemljili Roberta Goloba
16. 5. 2025 ob 6:00
Ekskluzivno za naročnike

Zakaj si je 267. papež izbral ravno ime Leon?
16. 5. 2025 ob 9:00

Avre ni več: ljudje na referendumu prizemljili Roberta Goloba
16. 5. 2025 ob 6:00

Protipravna zelena luč za novogradnjo ustavne sodnice Špelce Mežnar
15. 5. 2025 ob 12:00
Prihajajoči dogodki
MAJ
16
Ansambel Saša Avsenika in Firbci - Žur leta Pr' Pišek
20:00 - 06:00
MAJ
17
14. grajski dnevi
09:00 - 18:00
MAJ
17
MAJ
18
Mednarodni dan muzejev na gradu Bogenšperk
10:00 - 18:00
MAJ
21
Tečaj študijskega risanja in slikanja za otroke
16:30 - 16:30
Video objave
Izbor urednika

Okrogla in prenovljena: 200. številka tednika Domovina
14. 5. 2025 ob 6:10

Kdo je papež Leon XIV.?
9. 5. 2025 ob 1:14
4 komentarjev
Andrej Muren
Zadeva je kot naročena za lažnive in manipulatorske levičarje, ki bodo gotovo glavni uporabniki
tega deepfaka.
Friderik
Andrej Muren, kar zadeva greha, lažnivosti in ostalih 6 naglavnih grehov, so ti lepo porazdeljeni med prebivalstvom ne glede na raso, spol, narodnost, veroizpoved.... Zakaj pa imajo v cerkvah spovednice? Za " levičarje"? Če smo natančni, že takole podtikanje iz sovraštva je greh.
Friderik
Grozljivo. Kako bomo sploh vedeli kaj je res?
AlojzZ
Pa ve se, kdo je premagal tega gospodarja laži. Nanj se je potrebno nasloniti.
Komentiraj
Za objavo komentarja se morate prijaviti.