AI kompanije bi razvijale posebne modele u sigurnim centrima, pristup podacima strogo kontrolisan
Ministarstvo odbrane SAD razmatra mogućnost da vodeće AI kompanije treniraju verzije svojih modela koristeći poverljive vojne podatke, navode izvori iz industrije. Ova inicijativa deo je šire strategije kojom američka vojska želi da postane ‘AI-first’ sila, što je ranije ove godine potvrdio i zvanični dokument Ministarstva odbrane. Već sada se u vojnim operacijama koriste AI rešenja, a modeli obučeni na stvarnim poverljivim informacijama mogli bi doneti preciznije odgovore u situacijama koje nisu poznate javnosti.
Plan predviđa da se treninzi odvijaju u sigurnim data centrima sa dozvolom za rad na poverljivim projektima federalne vlade. AI kompanije bi razvijale zasebne, specijalizovane verzije modela, dok bi Ministarstvo odbrane zadržalo kontrolu i vlasništvo nad svim podacima korišćenim tokom obuke. Samo izuzetno, pojedinci iz AI kompanija mogli bi, uz odgovarajuću bezbednosnu proveru, imati uvid u poverljive informacije.
Stručnjaci iz oblasti veštačke inteligencije upozoravaju na potencijalne rizike: čak i ako podaci ne napuste zatvoreni vojni sistem, postoji mogućnost da osoblje bez potrebnog nivoa ovlašćenja dobije pristup informacijama putem AI modela, ukoliko se isti model koristi širom Ministarstva odbrane. Stoga će kontrola pristupa i segmentacija modela biti ključni za bezbednost.
Očekuje se da će Ministarstvo sarađivati sa kompanijama kao što su OpenAI i xAI, koje su nedavno potpisale ugovore sa američkom vladom. S druge strane, kompanija Anthropic je, prema dostupnim informacijama, odbila da dozvoli upotrebu svojih AI rešenja za masovni nadzor i razvoj autonomnog naoružanja, zbog čega je njena tehnologija isključena iz vojnih projekata.
Ovaj potez američke vojske mogao bi značajno unaprediti sposobnosti odbrane, ali i otvoriti nova pitanja o bezbednosti podataka, internoj kontroli pristupa i etičkim granicama u primeni veštačke inteligencije u vojnim okruženjima.