Umetna inteligenca – vir lažnih novic ali čuvaj pred njimi?
Umetna inteligenca trenutno nekaterim velikim medijskim hišam povzroča težave z ustvarjanjem in deljenjem lažnih novic. A v prihodnosti nas bo morda lahko pred njimi varovala ...
Tehnološki velikan Apple se sooča s pozivi, naj umakne svojo novo funkcijo umetne inteligence (UI), ki na najnovejših iPhonih ustvarja netočna obvestila o novicah. Funkcija Apple Intelligence je namenjena povzemanju obvestil o udarnih novicah, vendar pa v nekaterih primerih ustvarja popolnoma napačne trditve.
Decembra lani je lažno trdila, da je BBC objavil članek, v katerem trdi, da se je Luigi Mangione, obtoženi umora izvršnega direktorja zdravstvenega zavarovanja Briana Thompsona v New Yorku, ustrelil.
Apple's AI generates false news summaries again. pic.twitter.com/SmG2yFmB2t
— Gadget Tech (@gadgetech94) January 7, 2025
Apple Intelligence je tudi trdila, da je britanski igralec pikada Luke Littler zmagal na finalu svetovnega prvenstva v pikadu PDC – dan pred dejanskim finalom, kjer je Littler sicer res zmagal. Le nekaj ur pozneje je poslala ločeno obvestilo, ki je lažno trdilo, da je teniška legenda Rafael Nadal razkril, da je gej.
BBC ni edina tiskovna organizacija, ki jo je prizadel Apple Intelligence z netočnim povzemanjem obvestil o novicah. Novembra je UI poslala obvestilo, v katerem je napačno trdila, da New York Times poroča, da je bil izraelski premier Benjamin Netanyahu aretiran.
Nepripravljena tehnologija ušla izpod nadzora
Čeprav incidenti segajo v prejšnje leto, se je Apple odzval šele zdaj. »Funkcija Apple Intelligence je v različici beta in jo nenehno izboljšujemo s pomočjo povratnih informacij uporabnikov,« je družba zapisala v izjavi za BBC. Apple je dodal, da uporabnike spodbuja, naj prijavijo napako, če vidijo »nepričakovan povzetek obvestila«.
Alan Rusbridger, nekdanji urednik Guardiana, je za BBC povedal, da mora Apple iti veliko dlje in umakniti izdelek, ki da »očitno ni pripravljen«. Rusbridger, ki sedi tudi v nadzornem odboru Mete, ki pregleduje pritožbe na odločitve družbe o moderiranju vsebine, je dodal, da je tehnologija »ušla izpod nadzora« in predstavlja precejšnje tveganje napačnih informacij. »Zaupanje v novice je dovolj nizko že brez velikih ameriških korporacij, ki bi jih uporabile kot nekakšen testni izdelek,« je dejal.
Britanski Nacionalni sindikat novinarjev, eden največjih sindikatov novinarjev na svetu, je dejal, da mora Apple hitro ukrepati in odstraniti Apple Intelligence, da se izogne napačnemu obveščanju javnosti - kar sledi podobnim pozivom novinarskega telesa Novinarji brez meja (RSF).
V RSF so tudi nezadovoljni z odzivom Appla. »Odgovornost le prenašajo na uporabnike, od katerih se bo v že tako zmedeni informacijski pokrajini pričakovalo, da preverijo, ali so informacije resnične ali ne,« je dejal Vincent Berthier, vodja oddelka za tehnologijo in novinarstvo pri RSF.

Kakšen bo odziv?
Generativna UI deluje tako, da poskuša ugotoviti najboljši možni odgovor na vprašanje ali poziv, ki ga vstavi uporabnik, pri čemer se zanaša na ogromne količine podatkov, na katerih se usposabljajo njeni veliki jezikovni modeli, ki se uporabljajo za ustvarjanje chatbotov, kot je ChatGPT. Včasih UI morda ne pozna odgovora. Toda ker je bila programirana tako, da vedno predstavi odgovor na uporabniške pozive, lahko to povzroči primere, ko UI dejansko laže.
»Sumim, da Apple ne bo sam pri izzivih z vsebino, ki jo ustvari umetna inteligenca. Videli smo že številne primere storitev umetne inteligence, ki samozavestno govorijo neresnice, tako imenovane ‘halucinacije’,« je za CNBC povedal Ben Wood, glavni analitik pri podjetju za tržne raziskave CCS Insights.
Ker v Applovem primeru umetna inteligenca poskuša združiti obvestila in jih zgostiti, da bi prikazala samo osnovni povzetek informacij, je besede zmešala skupaj na način, ki netočno opisuje dogodke – vendar jih samozavestno predstavlja kot dejstva.
»Apple je imel dodatno kompleksnost pri poskusu stiskanja vsebine v zelo kratke povzetke, kar je na koncu prineslo napačna sporočila,« je dodal Wood. »Apple si bo to nedvomno prizadeval čim prej rešiti in prepričan sem, da bodo tekmeci pozorno spremljali, kako se bo odzval.«
UI kot pomočnik
A slika ni le črna. Medtem ko so trenutno še vedno v fazi učenja, se veliki jezikovni modeli zaposlujejo tudi za odkrivanje lažnih novic. Orodja umetne inteligence naslednje ravni bodo personalizirala zaznavanje lažnih vsebin in nas zaščitila pred njimi. Za ta končni preskok v UI, osredotočeno na uporabnika, se mora podatkovna znanost obrniti na vedenjsko in nevroznanost, trdi The Conversation.
Personalizacija preverjevalnika lažnih novic z UI se oblikuje z uporabo ugotovitev iz podatkov o gibanju človeških oči in električne možganske aktivnosti, ki pokaže, katere vrste lažnih vsebin imajo največji živčni, psihološki in čustveni vpliv, in na koga. Ob poznavanju naših posebnih interesov, osebnosti in čustvenih reakcij bi lahko sistem za preverjanje dejstev z UI zaznal in predvidel, katera vsebina bi v nas sprožila najhujšo reakcijo. To bi lahko pomagalo ugotoviti, kdaj so ljudje informacijo sprejeli in kakšen material ljudi najlažje preslepi.
Sledi prilagajanje zaščitnih ukrepov. Za zaščito pred škodo lažnih novic je potrebna tudi izgradnja sistemov, ki bi lahko posredovali – neke vrste digitalni protiukrep proti lažnim novicam. Obstaja več načinov, kot so opozorilne oznake, povezave do strokovno potrjene verodostojne vsebine in celo pozivanje ljudi, naj poskušajo upoštevati različne perspektive, ko nekaj berejo.
Algoritmi zavajanje zaznajo bolje kot ljudje
Da algoritmi strojnega učenja bistveno prekašajo človeško presojo pri odkrivanju laganja, pa je pokazala raziskava Univerze Kalifornije v San Diegu. Ta se je osredotočila na zmožnost udeležencev, da zaznajo laganje v priljubljeni britanski televizijski oddaji 'Golden Balls'. Ugotavlja, da medtem ko ljudje težko napovedujejo zavajajoče vedenje tekmovalcev, algoritmi deluje veliko bolje.

Algoritmi, uporabljeni v raziskavi, so dosegli impresivno stopnjo natančnosti in pravilno napovedali vedenje tekmovalca v 74 % primerov, v primerjavi z 51–53 % stopnjo natančnosti, ki jo je doseglo več kot 600 ljudi, ki so sodelovali v študiji.
Poleg primerjave strojnega učenja in človeških sposobnosti za odkrivanje prevare je študija preizkušala tudi, kako bi lahko algoritme uporabili za pomoč ljudem pri boljšem ločevanju tistih, ki lažejo, od tistih, ki govorijo resnico.
V enem poskusu sta dve različni skupini udeležencev študije gledali isti niz epizod 'Golden Balls'. Ena skupina je imela videoposnetke označene s pomočjo strojnega učenja, preden so si jih ogledali. Zastavice so pokazale, da je algoritem predvidel, da tekmovalec najverjetneje laže. Druga skupina je gledala isti videoposnetek in ko so si ga ogledali, so jim povedali, da je algoritem videoposnetek označil za zavajanje. Udeleženci so veliko bolj verjetno zaupali vpogledom strojnega učenja in bolje napovedali laganje, če so pred ogledom videoposnetka prejeli sporočilo z zastavico.
Avtorji zaključujejo: »Naša študija kaže, kako lahko tehnologija izboljša človeško odločanje, in je primer, kako lahko ljudje komunicirajo z UI – ko je UI lahko v pomoč. Upamo, da bodo ugotovitve lahko pomagale organizacijam in platformam pri boljšem oblikovanju in uvajanju orodij za strojno učenje, zlasti v situacijah, kjer je natančno odločanje ključnega pomena.«
Izbrano za naročnike
Zadnje objave

Pavle Ravnohrib: »Zdrava pamet je danes prepovedana«

So muslimanske naglavne rute zdravstvenih delavk sporne?

Evroposlanka Tomašič: Gre za resno kršitev demokratičnih načel

Tri leta svobode, ki to nikoli ni bila

Italijani (znova) pozabili na slovenščino

Fiskalni svet: manjši prihodki, večji odhodki
Ekskluzivno za naročnike

Pavle Ravnohrib: »Zdrava pamet je danes prepovedana«

So muslimanske naglavne rute zdravstvenih delavk sporne?

Tri leta svobode, ki to nikoli ni bila
Prihajajoči dogodki
Prešernov dan v Koroškem pokrajinskem muzeju
Prešernov smenj 2025
Pogovorni večer s pisateljem Ivanom Sivcem
Valentinov romantični operni koncert za zamudnike
Izbor urednika

Tri leta svobode, ki to nikoli ni bila

Sobodajalci vladi očitajo, da se uničuje steber slovenskega turizma

[Video] Drzni zmagovalci: Prof. dr. Janez Štrancar

Pred praznikom kulture – 186. številka tednika Domovine

1 komentar
Andrej Muren
Umetna inteligenca ponuja neslutene možnosti dobre, toda tudi slabe. Potreben bo temeljit premislek pri njeni uporabi in ustrezen nadzor. Saj smo brali kar nekaj znanstveno fantastičnih romanov, ki opisujejo, kaj vse se lahko zgodi.
Komentiraj
Za objavo komentarja se morate prijaviti.