Očetje umetne inteligence svarijo pred njeno nevarnostjo: to bi lahko bil konec človeštva

POSLUŠAJ ČLANEK
Zadnje čase lahko pogosto opazimo svarila o nevarnostih umetne inteligence (UI), ki naj bi po mnenju nekaterih človeštvu predstavljala celo eksistenčno grožnjo.  

Takšna svarila v znanstveni fantastiki niso nič novega, a dandanes vse pogosteje prihajajo iz ust znanstvenikov – tistih, ki so UI pomagali razviti. 

Kakšna je torej grožnja, nas mora skrbeti? In tudi – kako dobro smo to grožnjo predvideli? Koliko se napovedi iz preteklosti razlikujejo od dejanskih nevarnosti? 

Umetna inteligenca bi lahko vodila v izumrtje človeštva, so pred kratkim opozorili strokovnjaki – med njimi vodje OpenAI in Google Deepmind, torej projektov, kjer UI razvijajo. 

Na desetine jih je podpisalo izjavo, objavljeno na spletni strani Centra za varnost umetne inteligence. 

"Zmanjšanje tveganja izumrtja zaradi umetne inteligence bi moralo biti svetovna prednostna naloga poleg drugih družbenih tveganj, kot so pandemije in jedrska vojna," piše v izjavi. 

Spletno mesto Center za varnost umetne inteligence predpostavlja številne možne scenarije katastrofe:

  • Umetne inteligence bi lahko oborožili – na primer, orodja za odkrivanje drog bi lahko uporabili za izdelavo kemičnega orožja 

  • Napačne informacije, ki jih ustvarja umetna inteligenca, bi lahko destabilizirale družbo in "spodkopale kolektivno odločanje" 

  • Moč umetne inteligence bi lahko postajala vse bolj koncentrirana v vedno manj rokah, kar bi omogočilo "režimom, da uveljavljajo ozke vrednote z vsesplošnim nadzorom in zatiralsko cenzuro". 

  • Oslabljenost, kjer ljudje postanejo odvisni od umetne inteligence, "podobno scenariju, prikazanemu v filmu Wall-E".   


Prehiter napredek? 


Pridružil se jim je tudi profesor Yoshua Bengio, eden od tako imenovanih "botrov" umetne inteligence, ki je za BBC povedal, da se je počutil "izgubljenega" nad svojim življenjskim delom. Kot je dejal, bi dal prednost varnosti pred uporabnostjo, če bi se zavedal hitrosti, s katero se bo UI razvijala. 

Profesor je zaskrbljen zaradi "slabih akterjev", ki bi se lahko dokopali do umetne inteligence, še posebej, ker je ta postala bolj sofisticirana in zmogljiva. 

"Lahko je to vojska, lahko so teroristi, lahko je nekdo zelo jezen, psihotičen. In če je te sisteme umetne inteligence preprosto programirati, da od njih zahtevajo, da storijo nekaj zelo slabega, je to lahko zelo nevarno.” 

"Če so pametnejši od nas, potem te sisteme težko ustavimo ali preprečimo škodo," je dodal. 

Njegov kolega dr. Geoffrey Hinton je prav tako podpisal enaka opozorila ter se pred kratkim upokojil iz Googla z besedami, da obžaluje svoje delo. 

Tretji "boter", profesor Yann LeCun, ki je skupaj s profesorjem Bengiom in dr. Hintonom prejel prestižno Turingovo nagrado za svoje pionirsko delo, je medtem dejal, da so apokaliptična opozorila pretirana. Tvitnil je, da je "najpogostejša reakcija raziskovalcev umetne inteligence na te prerokbe, da se primejo za glavo". 

Realne grožnje 


Številni drugi strokovnjaki verjamejo, da so strahovi pred umetno inteligenco, ki bo izbrisala človeštvo, nerealni in odvračajo pozornost od vprašanj, kot je pristranskost v sistemih, ki so že problem. 

Arvind Narayanan, računalniški znanstvenik na Univerzi Princeton, je za BBC povedal, da so scenariji katastrofe, podobni znanstvenofantastičnim, nerealni: "Trenutna UI ni niti približno dovolj sposobna, da bi se ta tveganja uresničila. Posledično odvračajo pozornost od kratkoročne škode umetne inteligence". 

Višjo raziskovalno sodelavko Oxfordovega inštituta za etiko in umetno inteligenco Elizabeth Renieris pa, kot je dejala za BBC, bolj skrbijo tveganja, ki so bližje sedanjosti. "Napredek v umetni inteligenci bo povečal obseg avtomatiziranega odločanja, ki je pristransko, diskriminatorno, izključujoče ali drugače nepravično, hkrati pa nedoumljivo in neizpodbitno," je dejala. Povzročil bi eksponentno povečanje obsega in širjenja dezinformacij, s čimer bi razbil realnost in spodkopal javno zaupanje ter spodbudil nadaljnjo neenakost, zlasti za tiste, ki ostajajo na napačni strani digitalnega razkoraka. 

Mnoga orodja umetne inteligence v bistvu brezplačno uporabljajo celotno dosedanjo človeško izkušnjo, je dejala Renieris. Mnoga so usposobljena na vsebinah, besedilih, umetnosti in glasbi, ki jih je ustvaril človek, ki jih lahko nato posnemajo – njihovi ustvarjalci pa so "izjemno bogastvo in moč dejansko prenesli iz javne sfere na majhno peščico zasebnih subjektov". 

Dr. Sasha Luccioni, raziskovalka pri podjetju Huggingface za umetno inteligenco, pa meni, da bi se morala družba osredotočiti na vprašanja, kot so pristranskost umetne inteligence in širjenje dezinformacij prek pogovornih botov, kjer po njenih besedah nastaja "zelo konkretna škoda". 

Svarila naše domišljije 


Znanstvena fantastika je bila vedno sredstvo za ugibanje o tem, kaj prinaša prihodnost. Zelo občasno nekatere stvari tudi pravilno napove. Če uporabimo seznam potencialnih groženj Centra za varnost umetne inteligence kot primere, nam lahko hollywoodske uspešnice kaj povedo o katastrofi UI? 

Robot iz filma Wall-E (Vir: https://www.pxfuel.com/)


Center pravi, da je "oslabitev", ko človeštvo "postane popolnoma odvisno od strojev, podobno scenariju, prikazanemu v filmu WALL-E". Ljudje v tistem filmu so bili srečne živali, ki niso delale in so komaj samostojno stale. Roboti so namesto njih poskrbeli za vse. 

Pravi zlobnež v franšizi Terminator ni robot morilec, ki ga igra Arnold Schwarzenegger, ampak Skynet, umetna inteligenca, zasnovana za obrambo in zaščito človeštva. Nekega dne je prerasla svoj program in se odločila, da je človeštvo največja grožnja njej sami. Seveda smo zelo daleč od Skyneta. Toda nekateri menijo, da bomo sčasoma zgradili umetno generalizirano inteligenco (AGI), ki bi lahko naredila vse, kar ljudje zmorejo, le bolje – in se morda celo samozavedala. 

Foto: depositphotos.com,


V filmu Stanleyja Kubricka 2001: Vesoljska odiseja se srečamo s HAL-9000, superračunalnikom, ki nadzoruje večino funkcij ladje Discovery in astronavtom lajša življenje – dokler se ne pokvari. Za razliko od Skyneta, ki se zaveda samega sebe, bi lahko trdili, da HAL dela, kar mu je bilo naročeno – ohranja misijo, le ne tako, kot se od njega pričakuje, kar se konča s smrtjo večine posadke.  

V sodobnem jeziku umetne inteligence so sistemi, ki se slabo obnašajo, "napačno poravnani". Zdi se, da se njihovi cilji ne ujemajo s človeškimi. Včasih je to zato, ker navodila niso bila dovolj jasna, včasih pa zato, ker je UI dovolj pametna, da najde bližnjico. 

Na primer, če je naloga umetne inteligence, da "poskrbi, da se vaš odgovor in ta besedilni dokument ujemata", se lahko odloči, da je najboljša pot spremeniti besedilni dokument v lažji odgovor. To ni tisto, kar je človek nameraval, vendar bi bilo tehnično pravilno. 

Čeprav je 2001: Vesoljska odiseja daleč od resničnosti, odraža zelo resnično težavo s trenutnimi sistemi umetne inteligence. 
Naroči se Doniraj Vse novice Za naročnike

Prihajajoči dogodki

JUL
20
6. festival langaša
12:00 - 23:59
JUL
20
16. Festival Arsena
21:00 - 23:59
JUL
21
Jakobov sejem
08:00 - 14:00