Moguće formiranje posebne federalne radne grupe za nadzor razvoja veštačke inteligencije u SAD
Administracija Bele kuće razmatra uvođenje strožih regulatornih mera za nove modele veštačke inteligencije, pokazuju najnovije informacije iz industrijskih izvora. Prema tim navodima, američka vlada razmatra osnivanje posebne radne grupe koja bi nadgledala razvoj i puštanje novih AI modela, sa mogućnošću federalnog pregleda pre nego što ti sistemi postanu dostupni javnosti. Ovakav pristup ima za cilj da obezbedi da napredni AI alati zadovolje određene bezbednosne i etičke standarde pre nego što se pojave na tržištu.
Iako još nije doneta konačna odluka o formiranju ovog tela, predlog uključuje opciju da se uspostavi višeslojni sistem nadzora, sličan onom koji se već primenjuje u nekim evropskim državama. U Velikoj Britaniji, na primer, postoji kompleksan proces verifikacije kojim se proverava da li AI modeli ispunjavaju propisane bezbednosne smernice, iako i tamo postoje poteškoće u primeni takvih standarda.
Ovakve regulatorne inicijative dolaze u trenutku kada se globalna tehnološka industrija suočava sa ubrzanim razvojem LLM sistema (Large Language Model) i drugih oblika generativne veštačke inteligencije, što podstiče zabrinutost oko mogućih zloupotreba, širenja dezinformacija i drugih društvenih rizika. Ideja o uvođenju federalnog nadzora nad AI modelima ukazuje na intenziviranje napora američke vlade da uhvati korak sa brzim tehnološkim promenama i održi bezbednost korisnika i šire javnosti.
Za sada nema zvaničnih informacija o eventualnom sastavu radne grupe, konkretnim kriterijumima ili rokovima za sprovođenje ovih mera. Bele kuća još nije izdala zvanično saopštenje o eventualnim narednim koracima, dok industrijski izvori navode da bi ovakav potez mogao značajno uticati na način na koji se AI modeli razvijaju i lansiraju u Sjedinjenim Američkim Državama.