RAT - Bliski Istok

Američka vojska koristi veštačku inteligenciju Claude tokom operacija u Iranu, navode izvori

Izvori upoznati sa situacijom potvrđuju upotrebu AI modela Claude u američkim operacijama, iako je federalna zabrana i dalje na snazi

Published

on

g3eac6f33d51ed3f8936db8b7b8a9ba0a4d175c019d5c5ed3f603c8a246f968b30a614826299ff60d0cddd4cd8897b894d19abe03719a24b2191ccfb068fa148d_1280

Izvori upoznati sa situacijom potvrđuju upotrebu AI modela Claude u američkim operacijama, iako je federalna zabrana i dalje na snazi

Prema informacijama dobijenim od dva izvora upoznata sa korišćenjem veštačke inteligencije u američkoj vojsci, američka vojska koristi Anthropicov AI model Claude tokom nedavnih operacija u Iranu. Ova informacija dolazi u trenutku kada je na snazi zabrana upotrebe pomenute tehnologije u federalnim agencijama, nakon nedavnih nesuglasica između Pentagona i kompanije Anthropic.

Detalji o tačnoj primeni Claude AI modela u vojnim operacijama nisu saopšteni. Izvori navode da upotreba veštačke inteligencije traje od vikenda i da se nastavlja, ali nije precizirano u kojim segmentima operacija je Claude angažovan. Pentagon se nije izjasnio o načinu korišćenja ovog alata, dok zvaničnih podataka o vrstama zadataka koje AI izvršava nema u javnosti.

Odluka o korišćenju AI modela Claude doneta je u trenutku dok traje zabrana federalnim agencijama da koriste ovu tehnologiju, a koja je stupila na snagu nakon neslaganja između Pentagona i kompanije Anthropic. Kompanija Anthropic je prethodno zahtevala da se uvedu ograničenja koja bi eksplicitno sprečila vojne upotrebe Claude modela u svrhe masovnog nadzora američkih građana ili za upotrebu potpuno autonomnog naoružanja.

Pentagon je, prema izveštajima, insistirao na mogućnosti korišćenja Claude modela za “sve zakonite svrhe”. Stav Ministarstva odbrane bio je da su zabrinutosti kompanije Anthropic neopravdane, jer je masovni nadzor američkih građana već zabranjen postojećim zakonima, a upotreba potpuno autonomnog naoružanja dodatno je regulisana unutrašnjim vojnim pravilima.

Predsednik SAD je tokom protekle nedelje najavio da federalne agencije moraju da obustave korišćenje tehnologije kompanije Anthropic, uz prelazni period od šest meseci za njeno potpuno izbacivanje iz upotrebe. Ministar odbrane je istakao da kompanija Anthropic sada predstavlja rizik u lancu snabdevanja vojske.

Prema navodima izvora iz oblasti bezbednosti, proces potpunog povlačenja Claude modela iz vojnih operacija mogao bi potrajati nekoliko meseci. Prethodni spor između Pentagona i kompanije Anthropic bio je vezan za zahteve kompanije u vezi sa etičkom upotrebom AI alata u vojne svrhe.

Ove informacije dolaze u trenutku kada se odvijaju američke operacije u Iranu, ali zvanične potvrde o rezultatima ili uticaju veštačke inteligencije na terenu nisu dostupne. Niti američka vojska niti kompanija Anthropic nisu izdale detaljnije komentare o ovoj temi, a nezavisna potvrda navoda iz izvora nije moguća. Pitanja o bezbednosnim i etičkim aspektima upotrebe AI u vojnim operacijama ostaju aktuelna, dok se debata o ulozi novih tehnologija u savremenim sukobima nastavlja.

Leave a Reply

Your email address will not be published. Required fields are marked *

U Trendu

Exit mobile version