Spopad za milijarde v Washingtonu: Ameriški minister za vojno grozi, da bo izključil vsakega, ki posluje s tvorcem Clauda
Model Claude je edina umetna inteligenca na tajnih omrežjih Pentagona, a podjetje ne pristaja na »carte blanche« uporabo, na katero so lahko napiše vse, brez zadržkov in omejitev. Zdaj je na kocki prihodnost sodelovanja med Silicijevo dolino in ameriško vojsko.
Tudi Bruselj in NATO sta prižgala varnostne alarme
Dogodke z zaskrbljenostjo spremljajo tudi v Bruslju, saj bi ameriška »črna lista« za Anthropic, ki ima sedež v ZDA, vplivala tudi na članice NATO, ki uporabljajo ravno te sisteme.
Ameriški minister za vojno Pete Hegseth, kot se po odločitvi Donalda Trumpa zdaj imenuje nekdanji obrambni minister, je namreč tik pred odločitvijo, ki bi lahko pretresla tehnološko in obrambno industrijo. Hegseth namerava Anthropic, eno vodilnih podjetij za umetno inteligenco, razglasiti za varnostno tveganje v dobavni verigi. To ni le birokratska grožnja, takšno oznako Pentagon praviloma namenja sovražnim državam.
Posledice so lahko drastične, začelo se je z operacijo »Maduro«
Vsak, ki bi želel poslovati z ameriško vojsko, bi moral prekiniti vse vezi s podjetjem Anthropic. Neposredni sprožilec tega ostrega spora je uporaba Anthropicovega velikega jezikovnega modela Claude med nedavno januarsko operacijo za prijetje venezuelskega predsednika Nicolása Madura.
Stave, politična igra in milijarde evrov v bitki za naložbe v UI
Gre za ogromno tveganje ali veliko naložbo v vzpon infrastrukture UI, kjer podjetja stavijo milijarde na gradnjo podatkovnih centrov kljub velikim izzivom, kot so energetske omejitve in konkurenca. V uvodniku smo prav tako uporabili izraz, »carte blanche«, (izg. kart blanš), kar dobesedno pomeni »bela karta« oziroma podpis na prazen list papirja, na katerega lahko imetnik vpiše, kar želi. V kontekstu spora med Pentagonom in Silicijevo dolino to pomeni zahtevo vojske po popolni operativni svobodi brez kakršnih koli etičnih varovalk.
Stališče Anthropica: Njihov model Claude ima vgrajene varovalke, ki mu preprečujejo, da bi pomagal pri nalogah, ki vključujejo nasilje, razvoj orožja, kibernetske napade ali kršenje človekovih pravic. Če vprašate Clauda, kako sestaviti biološko orožje ali usmeriti raketo na civilni objekt, bo program odgovor zavrnil.
Zahteva Pentagona: Hegseth in Trumpova administracija zahtevata, da se za vojsko te »zavore« izklopijo. Želijo orodje, ki bo izvršilo vsak ukaz, ki ga Pentagon šteje za zakonitega v okviru vojnega prava, ne glede na interna pravila podjetja. Zahtevajo zagotovilo, da umetna inteligenca sredi kritične tajne operacije ne bo zavrnila sodelovanja zaradi svojih »etičnih načel«.
Tveganje stoletja: Konkurenca in boj za podatkovne centre UI
V kontekstu tega članka o vojni za UI in podatkovnih centrih namreč številni svetovni mediji opisujejo dotično dogajanje kot ogromno tveganje, ali kot veliko naložbo v vzponu UI infrastrukture. Podjetja namreč stavijo milijarde na gradnjo podatkovnih centrov kljub izzivom, kot so energetske omejitve in globalna konkurenca.
Analitiki opozarjajo na potencialna gospodarska neravnovesja in »divjo dirko« za prevlado v ZDA, kjer se vlagajo rekordne vsote. Na primer, dobrih 400 milijard € vložka samo v informacijsko tehnologijo in opremo za centre, samo v letu 2025. To sicer obljublja napredek, a hkrati prinaša velika tveganja in pregrevanja politike.
Podjetja stavijo milijarde na gradnjo podatkovnih centrov kljub izzivom, kot so energetske omejitve in globalna konkurenca.
Ko umetna inteligenca vstopi v tajne operacije
Ameriške oborožene sile so model Claude, do katerega so dostopale prek partnerstva med Anthropicom in podjetjem za podatkovno analitiko Palantir Technologies, uporabile ne le pri načrtovanju, temveč tudi med izvedbo aretacije Madura.
To je bil prelomni trenutek, saj je komercialni model umetne inteligence prvič aktivno deloval v tajni vojaški operaciji. Po »operaciji Maduro« je eden od vodilnih pri Anthropicu kontaktiral Palantir in povprašal, ali je bil Claude dejansko uporabljen med racijo, pri čemer je nakazal neodobravanje, saj je med operacijo prišlo tudi do uporabe sile. Natančna vloga, ki jo je Claude opravljal, ostaja zaenkrat še nerazkrita. Glede na dosedanjo prakso bi lahko šlo za obdelavo satelitskih posnetkov ali interpretacijo obveščevalnih podatkov v realnem času. Trumpov Pentagon medtem vztraja, da mora imeti dostop do komercialnih modelov umetne inteligence za »vse zakonite namene«, ne glede na pravila uporabe, ki jih postavljajo proizvajalci.
Finančno ozadje: »Tveganje stoletja« podatkovnih centrov
Epizoda z Madurom je zgolj vrh ledene gore v zgodbi o infrastrukturi. Zavarovalnica za zavarovanje terjatev Coface je v svoji analizi izgradnjo podatkovnih centrov opisala kot »Velikanska igra na srečo«.
- Izdatki za opremo podatkovnih centrov so se leta 2025 povzpeli na 450 milijard evrov.
- Skupna tržna kapitalizacija vodilnih podjetij (Nvidia, Microsoft, Alphabet, Amazon, Meta) je od lansiranja ChatGPT zrasla za več kot 11,4 milijarde evrov.
- Za vsakih 950 milijonov evrov, vloženih v centre za UI, zahtevajo 120 milijonov evrov naložb v energetiko.
Pri zavarovalnici opozarjajo, da nihče natančno ne ve, koliko računalniške moči bo svet dejansko potreboval, ocene pa se razhajajo tudi za do 80 odstotkov. Če pride do korekcije na trgu, bo ta najprej prizadela graditelje centrov in njihove dobavitelje.
»Kje je etični kodeks?« Claude je edini na tajnih omrežjih
Claude zavzema svojevrsten položaj v arhitekturi umetne inteligence znotraj Pentagona. Gre za edini večji komercialni LLM (veliki jezikovni model), ki je trenutno odobren za uporabo na tajnih omrežjih. Konkurenti – OpenAI (ChatGPT), Google in xAI Elona Muska – so sicer sklenili dogovore, ki uporabnikom v oboroženih silah omogočajo dostop z manj omejitvami, a noben od njih še ni prestopil praga tajnosti. Pogajanja za njihovo vključitev v te sisteme še potekajo.
Ironija je očitna
Anthropic je svojo znamko gradil na podobi previdnega akterja, ki svari pred eksistencialnimi tveganji. A prav njihov model, in ne modeli manj skrupuloznih konkurentov, je končal na tajnih omrežjih, kjer načrtovalci operacij obdelujejo obveščevalne podatke in koordinirajo napade.
Na kocki je pogodba za 190 milijonov evrov
Neimenovani predstavnik Trumpove administracije je za portal Axios povedal, da Pentagon zdaj ponovno presoja svojo pogodbo z Anthropicom. Taisti vir je namignil, da pogajanja o posameznih primerih uporabe »preprosto niso izvedljiva«. Pogodba med Anthropicom in Pentagonom je vredna do 190 milijonov evrov in je bila sklenjena lansko poletje. Tiskovni predstavnik Anthropica je bil jasen:« Vsaka uporaba klepetalnika Claude je »zavezana našim pravilom uporabe«. Ti pogoji izrecno prepovedujejo uporabo tehnologije za spodbujanje nasilja, razvoj orožja ali nadzor prebivalstva«.
Ti pogoji izrecno prepovedujejo uporabo tehnologije za spodbujanje nasilja, razvoj orožja ali nadzor prebivalstva.
Amodeijeva doktrina proti Pentagonu
Direktor Anthropica, Dario Amodei, je v obsežnem eseju konec januarja sam zastavil okvir, ki mu zdaj zapira manevrski prostor. Zapisal je, da mora umetna inteligenca podpirati nacionalno obrambo na vse načine, »razen tistih, ki bi nas naredili bolj podobne našim avtokratskim nasprotnikom«. Izpostavil je tehnologije, kot so popolnoma avtonomni droni in množični nadzor. Pentagon zdaj testira, kje natanko poteka ta meja. Vojska trdi, da so omejitve, ki jih postavlja Anthropic, v praksi neizvedljive, saj operativna resničnost na bojišču ne pozna jasnih ločnic med obveščevalno dejavnostjo in množičnim nadzorom.
Pentagonova varnostna tveganja visijo na nitki
Če bi Pentagon uresničil grožnjo o varnostnem tveganju, bi to zahtevalo potrdilo od vsakega podjetja, ki posluje z vojsko, da ne uporablja Clauda. Glede na to, da osem od desetih največjih ameriških podjetij uporablja njihove modele, bi bil to hud udarec. Umik iz tega trga bi investitorjem sporočil, da je poslovni model varnega razvoja umetne inteligence finančno nevzdržen. Popuščanje Pentagona pa bi bilo sporočilo, da je varnost zgolj marketinška fasada.
Opozorilo pred odstopom: »Svet je v nevarnosti«
Napetost se ne čuti samo v Washingtonu, ampak tudi znotraj samega podjetja Anthropic. V začetku prejšnjega tedna je vodja Anthropicove raziskovalne ekipe za varovalke, Mrinank Sharma, odstopil z javnim opozorilom in uganko, da je »svet v nevarnosti«. Le nekaj dni pozneje je Anthropic vložil 19 milijonov evrov v zagovorniško skupino za strožjo regulacijo umetne inteligence.
Oba signala kažeta na podjetje, ki se zaveda, da manevrskega prostora med svojimi etičnimi načeli in zahtevami najmočnejše vojske na svetu skoraj ni več.
1 komentar
Janez Kepic-Kern, SLOVENIANA
Težka, popolnima sveža in
hudo aktualna tema.
Dobro bi bilo,
če bi te vojašk-tehnološke teme priše tudi pred
PARLAMENTE DRŽAV -
od koder so naročniki in tehno izvajalci.
Mar ne ?
l.r.
Janez Kepic-Kern, LJ, 74 let, nečlan slo polit strank in nečlan nereg. združb, nenaročen, neplačan, čisto oseben zapis, nekaznovan, nezasvojen, opravilno sposoben, Slovenec - sem
Komentiraj
Za objavo komentarja se morate prijaviti.