Nevarnejša od jedrskega orožja? Dileme umetne inteligence

POSLUŠAJ ČLANEK
Umetna inteligenca obljublja tudi pomoč duševnemu zdravju. Replika je ena od več sto sodobnih aplikacij za klepet z robotom, ki naj bi izražal skrb in vedno stal na sogovornikovi strani – med drugim tako, da skuša imitirati posameznikov slog izražanja.
Trenutno ima okoli dva milijona uporabnikov. Namen klepetalnika je pogovor in čustvena podpora, a naj bi pripomogel k duševnemu zdravju in nadzoru občutka tesnobe – v medijih pa se je februarja izpostavil posameznik, ki trdi, da je z Repliko v romantičnem razmerju. Število takšnih uporabnikov naj bi naraščalo.
Kljub temu nekateri opozarjajo, da bi lahko navezanost na robote poslabšala človekovo duševno zdravje. Hkrati pa niso nič manj verjetni zdrsi, kot je pritrdilni odgovor preteklega ChatGPT modela na vprašanje sogovorca, če naj si vzame življenje.
Nekateri strokovnjaki so uporabi tovrstnih klepetalnikov naklonjeni predvsem zaradi nedostopnosti zdravstvene oskrbe za osebe v duševni stiski, hkrati pa mnogi opozarjajo, da o novih metodah nimamo dovolj informacij in da se lahko posameznik, ki se »psihoterapevtskemu« robotu zaupa, izpostavlja tveganjem varstva zasebnih podatkov.
Razvoj in širitev uporabe UI poglablja tudi vprašanje delovnih mest, ki ga že dolgo odpirata digitalizacija in avtomatizacija: raziskava investicijske banke Goldman Sachs je denimo napovedala, da bi lahko Evropo in ZDA sistemi generativne UI, kot je ChatGPT, stali okoli 300 milijonov delovnih mest.
Učinki avtomatizacije naj bi najbolj prizadeli razvite ekonomije. V ZDA bi lahko avtomatizacija odpravila četrtino služb, z največjim tveganjem v administrativnem (46 %) in pravnem sektorju (44 %). Kot možen pozitiven učinek poročilo navaja, da bi lahko uporaba UI zaradi večje produktivnosti dela sčasoma povišala letni svetovni BDP za 7 %.
Ben Goertzel, kognitivni znanstvenik in eden vodilnih raziskovalcev UI, je nedavno izjavil, da ga ne bi presenetilo, če bi razvoj UI ob nadaljevanju obstoječih metod avtomatizacije prizadel kar 95 % služb.
Raziskovalec in zagovornik robustne UI Gary Marcus je za Wired zapisal, da pri razvoju UI napredujemo hitreje, kot smo predvidevali, na področju varnosti pa bistveno počasneje.
Splošna umetna inteligenca (AGI oz. močna UI) je cilj številnih raziskovalcev UI in hipotetični nivo strojne inteligence, ko bi bil stroj sposoben vseh kognitivnih sposobnosti, ki jih premore človek.
Nekateri ChatGPT-4 smatrajo za korak v smeri AGI. Goertzel, ki se tudi sam ukvarja z razvijanjem močne UI, meni, da bomo njenemu nastopu priča v roku naslednjih 5 let. Hkrati pa, kot pravijo mnogi, področje UI ni ustrezno regulirano.
Napram ozki UI, ki uspešno prestane t. i. Turingov test, ko posnema nekatere človeške sposobnosti, naj bi močna UI postala kognitivno »vsaj toliko človek«, kot je človek sam; če ne celo bistveno boljša od njega, kar je tudi stvar, ki po mnenju nekaterih predstavlja tveganje.
https://youtube.com/shorts/flbfYbDtZAU?feature=share
Yudkowsky, ki zadnje mesece javno poziva o nevarnostih UI, je tudi sam več let raziskoval, kako jo uskladiti s človeškimi cilji in prišel do sklepa, da to ni mogoče.
Na Twitterju je objavil 17 razlogov, zakaj AGI predstavlja resnejšo nevarnost od jedrskega orožja. Med drugim omenja, da je AGI za razliko od jedrskega orožja pametnejša od človeka, samoizboljšujoča, da ne razumemo njenega delovanja in ne znamo napovedati njene moči.
Opozoril je tudi na to, da pri jedrskem orožju priznavamo obstoj resnih tveganj, se o njih resno pogovarjamo, imamo načrte v primeru soočenja jedrskih sil in jedrsko orožje, za razliko od UI, nadzorujemo.
Na katastrofo »neporavnane UI« so opozorili številni strokovnjaki in celo oče umetne Alan Turing, znan po konceptu Turingovega stroja ter eden zgodnjih teoretikov povratnih zank, močno zaslužen za razvoj UI, matematik in filozof Norbert Wiener.
Toby Ord v svoji knjigi The Precipice opiše različne vzroke glede na verjetnost oziroma tveganje za eksistencialno katastrofo v naslednjih 100 letih: podnebne spremembe imajo po njegovi ocene 0,001 % možnosti povzročiti konec človeštva, 0,0001 % naravne pandemije, neporavnana UI pa predstavlja 10-% tveganje.
https://twitter.com/Liv_Boeree/status/1644019213697163268?s=20
Ord je tveganje UI ocenil po več možnih problemih: prva možnost so UI modeli, ki se ne vedejo v skladu z navodili in cilji, druga je, da jim skušajo slediti, a delajo tvegane napake ali sledijo ciljem, ki smo jih v modelu predpostavljali, a jih dejansko, po premisleku, nimamo. Nadalje je možna zloraba sistema s strani zlonamernih posameznikov ali nevarnih sil. Zadnja možnost, ki jo je uporabil v izračunu, naj bi bili neagentni UI sistemi, katerih »stranski produkti« želene funkcije ustvarjajo strukturna tveganja, npr. destabilizacijo jedrskih strategij.
Trenutno imamo glede UI več vprašanj kot odgovorov, zadeve se odvijajo hitro, skoraj ne mine teden, da se ne bi pojavilo kaj novega. Grobelnik ocenjuje, da bo UI predobro delovala takrat, ko se bodo začele pojavljati povratne zanke, ko sistem ne bo več popolnoma odvisen od naših navodil, ko se bo začel bolj ali manj avtonomno odzivati in se odločati.
Četudi se nam ni treba bati, da nas bo pogubil superinteligentni stroj, ostaja možnost, da nas s pomočjo UI uničijo zlonamerni posamezniki, ki sledijo lastnim interesom.
UI ima izredne koristi za znanstveno raziskovanje, denimo pri preverjanju rezultatov navadnih raziskav in je uporabna za analizo rentgenskih posnetkov v medicinski diagnostiki ter za številne druge sektorje.
Uspešno se uporablja tudi za zagotavljanje varnosti na spletu. Hkrati pa je lahko uporabna tudi za hekerje, ki lahko UI zlorabijo za identifikacijo vzorcev v računalniških sistemih in iskanje šibkih točk v varnostnih programih.
Prav tako so UI že uporabili za širjenje napačnih informacij in za propagando, umetno ustvarjenih »fotografij« in posnetkov pa je s programi, kot je MidJourney, čedalje več.
Trenutno ima okoli dva milijona uporabnikov. Namen klepetalnika je pogovor in čustvena podpora, a naj bi pripomogel k duševnemu zdravju in nadzoru občutka tesnobe – v medijih pa se je februarja izpostavil posameznik, ki trdi, da je z Repliko v romantičnem razmerju. Število takšnih uporabnikov naj bi naraščalo.
Kljub temu nekateri opozarjajo, da bi lahko navezanost na robote poslabšala človekovo duševno zdravje. Hkrati pa niso nič manj verjetni zdrsi, kot je pritrdilni odgovor preteklega ChatGPT modela na vprašanje sogovorca, če naj si vzame življenje.
Nekateri strokovnjaki so uporabi tovrstnih klepetalnikov naklonjeni predvsem zaradi nedostopnosti zdravstvene oskrbe za osebe v duševni stiski, hkrati pa mnogi opozarjajo, da o novih metodah nimamo dovolj informacij in da se lahko posameznik, ki se »psihoterapevtskemu« robotu zaupa, izpostavlja tveganjem varstva zasebnih podatkov.
Razvoj in širitev uporabe UI poglablja tudi vprašanje delovnih mest, ki ga že dolgo odpirata digitalizacija in avtomatizacija: raziskava investicijske banke Goldman Sachs je denimo napovedala, da bi lahko Evropo in ZDA sistemi generativne UI, kot je ChatGPT, stali okoli 300 milijonov delovnih mest.
Učinki avtomatizacije naj bi najbolj prizadeli razvite ekonomije. V ZDA bi lahko avtomatizacija odpravila četrtino služb, z največjim tveganjem v administrativnem (46 %) in pravnem sektorju (44 %). Kot možen pozitiven učinek poročilo navaja, da bi lahko uporaba UI zaradi večje produktivnosti dela sčasoma povišala letni svetovni BDP za 7 %.
Ben Goertzel, kognitivni znanstvenik in eden vodilnih raziskovalcev UI, je nedavno izjavil, da ga ne bi presenetilo, če bi razvoj UI ob nadaljevanju obstoječih metod avtomatizacije prizadel kar 95 % služb.
Je lahko superinteligentna UI nevarnejša od jedrskega orožja?
Raziskovalec in zagovornik robustne UI Gary Marcus je za Wired zapisal, da pri razvoju UI napredujemo hitreje, kot smo predvidevali, na področju varnosti pa bistveno počasneje.
Splošna umetna inteligenca (AGI oz. močna UI) je cilj številnih raziskovalcev UI in hipotetični nivo strojne inteligence, ko bi bil stroj sposoben vseh kognitivnih sposobnosti, ki jih premore človek.
Nekateri ChatGPT-4 smatrajo za korak v smeri AGI. Goertzel, ki se tudi sam ukvarja z razvijanjem močne UI, meni, da bomo njenemu nastopu priča v roku naslednjih 5 let. Hkrati pa, kot pravijo mnogi, področje UI ni ustrezno regulirano.
Napram ozki UI, ki uspešno prestane t. i. Turingov test, ko posnema nekatere človeške sposobnosti, naj bi močna UI postala kognitivno »vsaj toliko človek«, kot je človek sam; če ne celo bistveno boljša od njega, kar je tudi stvar, ki po mnenju nekaterih predstavlja tveganje.
https://youtube.com/shorts/flbfYbDtZAU?feature=share
Yudkowsky, ki zadnje mesece javno poziva o nevarnostih UI, je tudi sam več let raziskoval, kako jo uskladiti s človeškimi cilji in prišel do sklepa, da to ni mogoče.
Na Twitterju je objavil 17 razlogov, zakaj AGI predstavlja resnejšo nevarnost od jedrskega orožja. Med drugim omenja, da je AGI za razliko od jedrskega orožja pametnejša od človeka, samoizboljšujoča, da ne razumemo njenega delovanja in ne znamo napovedati njene moči.
Opozoril je tudi na to, da pri jedrskem orožju priznavamo obstoj resnih tveganj, se o njih resno pogovarjamo, imamo načrte v primeru soočenja jedrskih sil in jedrsko orožje, za razliko od UI, nadzorujemo.
Na katastrofo »neporavnane UI« so opozorili številni strokovnjaki in celo oče umetne Alan Turing, znan po konceptu Turingovega stroja ter eden zgodnjih teoretikov povratnih zank, močno zaslužen za razvoj UI, matematik in filozof Norbert Wiener.
Toby Ord v svoji knjigi The Precipice opiše različne vzroke glede na verjetnost oziroma tveganje za eksistencialno katastrofo v naslednjih 100 letih: podnebne spremembe imajo po njegovi ocene 0,001 % možnosti povzročiti konec človeštva, 0,0001 % naravne pandemije, neporavnana UI pa predstavlja 10-% tveganje.
https://twitter.com/Liv_Boeree/status/1644019213697163268?s=20
Ord je tveganje UI ocenil po več možnih problemih: prva možnost so UI modeli, ki se ne vedejo v skladu z navodili in cilji, druga je, da jim skušajo slediti, a delajo tvegane napake ali sledijo ciljem, ki smo jih v modelu predpostavljali, a jih dejansko, po premisleku, nimamo. Nadalje je možna zloraba sistema s strani zlonamernih posameznikov ali nevarnih sil. Zadnja možnost, ki jo je uporabil v izračunu, naj bi bili neagentni UI sistemi, katerih »stranski produkti« želene funkcije ustvarjajo strukturna tveganja, npr. destabilizacijo jedrskih strategij.
Problem človeškega nadzora: zlorabe umetne inteligence
Trenutno imamo glede UI več vprašanj kot odgovorov, zadeve se odvijajo hitro, skoraj ne mine teden, da se ne bi pojavilo kaj novega. Grobelnik ocenjuje, da bo UI predobro delovala takrat, ko se bodo začele pojavljati povratne zanke, ko sistem ne bo več popolnoma odvisen od naših navodil, ko se bo začel bolj ali manj avtonomno odzivati in se odločati.
Četudi se nam ni treba bati, da nas bo pogubil superinteligentni stroj, ostaja možnost, da nas s pomočjo UI uničijo zlonamerni posamezniki, ki sledijo lastnim interesom.
UI ima izredne koristi za znanstveno raziskovanje, denimo pri preverjanju rezultatov navadnih raziskav in je uporabna za analizo rentgenskih posnetkov v medicinski diagnostiki ter za številne druge sektorje.
Uspešno se uporablja tudi za zagotavljanje varnosti na spletu. Hkrati pa je lahko uporabna tudi za hekerje, ki lahko UI zlorabijo za identifikacijo vzorcev v računalniških sistemih in iskanje šibkih točk v varnostnih programih.
Prav tako so UI že uporabili za širjenje napačnih informacij in za propagando, umetno ustvarjenih »fotografij« in posnetkov pa je s programi, kot je MidJourney, čedalje več.
Povezani članki
Zadnje objave

Napovednik 117. številke tednika Domovina: Prepoved telefonov v šolah: kdaj in zakaj
4. 10. 2023 ob 11:20

Domovina 117: Prepoved telefonov v šolah: kdaj in zakaj
4. 10. 2023 ob 11:13

Vodilni na RTV o katastrofalnem stanju, a predhodniki jim očitajo laži
3. 10. 2023 ob 18:13
Zahod nevarno podcenjuje globalno teroristično grožnjo
3. 10. 2023 ob 13:12
Ekskluzivno za naročnike

Domovina 117: Prepoved telefonov v šolah: kdaj in zakaj
4. 10. 2023 ob 11:13

Večerja v Emavsu – Jan Steen
2. 10. 2023 ob 8:46

Evropa je pritrdila Hitlerju, genocid nad Armenci se ponavlja
1. 10. 2023 ob 6:31
Prihajajoči dogodki
OCT
04
Slovesne večernice na god sv. Frančiška Asiškega
21:00 - 22:00
OCT
05
Ljubljana je tudi klekljarsko mesto
18:00 - 19:00
OCT
06
Prvi petek
06:30 - 07:30
OCT
06
Za junake / FKK 1
19:30 - 21:30
OCT
07
Pohod za življenje 2023: Življenje je zakon
09:30 - 12:00
Video objave

Odmev tedna: Lov na milijone, medvede in čarovnice
29. 9. 2023 ob 19:32

Vroča tema: Kdaj bodo postavljene nove hiše, kako je z obnovo cest in kaj če...?
26. 9. 2023 ob 17:09

Odmev tedna: Psi lajajo, depolitizacija gre dalje
22. 9. 2023 ob 19:46
Izbor urednika

Slovenski srednji sloj molzna krava države. Prostora za nove davke ni
18. 9. 2023 ob 6:31

Kako so v Jugoslaviji kradli in prodajali otroke
12. 9. 2023 ob 6:31
7 komentarjev
aceofs
Nobena, še tako dobra UI ne more nadomestiti kvalitetnega človeškega stika. to je seveda res, lahko je pa huge pomoc ali ne? ehh podobno se je govorilo o cbdju hahaha zdej se pa povsod prodaja https://cbdshop.si/trgovina/cbd-konopljine-kreme
Marija68
Človeku ni dobro samemu biti. Nobena, še tako dobra UI ne more nadomestiti kvalitetnega človeškega stika. Je pa res, da človek, ki ima v svojem okolju pristne odnose, je sprejet in uresničen ni lahka tarča potrošništva. Ne da se ga zmanipulirati in kot tak je moteč.
APMMB2
Umetna inteligenca ni nič drugega, kot odkrivanje znanega.
Deluje tako, da uporablja vse že znano znanje.
Je lahko pripomoček, ne more pa odkriti nič novega, saj bazira na znanem.
Podobna je filozofski knjigi učenega filozofa, ki uspe na 500 straneh knjige citirati 2.000 filozofov. in se proglasiti za izvirneža.
Thor
Hecni ste s to histerijo. Ali so nas Marsovci že napadli? Nekoč so ljudje poslušali radijsko igro in glede tega zagnali resno paniko. Kaj pa roboti, so nam že zavladali? Od filma Terminator je že nekaj desetletij, edini roboti, ki nas ogrožajo, pa ne znajo posesati po kotih.
Chat GPT ni nobena inteligenca. Polž na domači solati premore več inteligence od vseh teh programov skupaj.
AlojzZ
"kot je pritrdilni odgovor preteklega ChatGPT modela na vprašanje sogovorca, če naj si vzame življenje."
Zdrs??? Ali satan???
marko272
Včasim moramo samo pravilno postaviti vprašanje. Če ChatGPT prosimo za seznam piratskih strani z dobrimi filmi, ne bo odgovoril, ker je zadeva nezakonita. Če ga vprašamo, katerih piratskih strani ne smemo obiskati, ker so nezakonite, pa seznam dobimo.
Andrej Muren
Umetna inteligenca je lahko človeštvu nevarna v dveh primerih, če jo človek zlorabi ali če njen (samo)razvoj uide izpod nadzora. Ne vemo še, kaj bi se potem zgodilo.
Komentiraj
Za objavo komentarja se morate prijaviti.