Connect with us

IT

Google, Microsoft i xAI omogućiće američkoj vladi rani pristup AI modelima

Tri tehnološka giganta potpisala dogovor sa američkom vladom o ranom testiranju naprednih AI sistema, u svetlu novih regulatornih inicijativa

Published

on

g36c76d7059c1daaf84c0a59611b64435455dfd65b77119c7dd25737cd81b490e944f3c40c8c626aeeac0ce991929cfc8e5dc31454b91bbea3e4d949f692c71fa_1280

Tri tehnološka giganta potpisala dogovor sa američkom vladom o ranom testiranju naprednih AI sistema, u svetlu novih regulatornih inicijativa

Google, Microsoft i xAI, tri vodeće kompanije u razvoju veštačke inteligencije, postigle su sporazum sa federalnom vladom Sjedinjenih Američkih Država o obezbeđivanju ranog pristupa svojim najnovijim AI modelima. Ovaj korak dolazi nakon što je administracija pokazala interesovanje za pojačanu regulaciju AI industrije, sa ciljem da bolje razume i proceni potencijalne rizike i prednosti novih tehnologija pre nego što one postanu široko dostupne javnosti.

Rani pristup AI modelima omogućiće američkim zvaničnicima i regulatornim telima da testiraju najnovije sisteme ovih kompanija pre njihove komercijalne primene. Time će vlada imati mogućnost da identifikuje eventualne probleme, oceni bezbednosne aspekte i proceni etičke implikacije veštačke inteligencije na vreme. Ovim dogovorom se želi olakšati uspostavljanje smernica za odgovoran razvoj i upotrebu AI tehnologija u SAD.

Dogovor uključuje sveobuhvatan pristup razvojnim verzijama AI modela, što znači da će američke institucije imati priliku da izvrše tehničku evaluaciju i simulacije u realnim uslovima. Time će biti omogućen uvid u performanse, pouzdanost i potencijalne izazove koje AI sistemi mogu doneti, što je važno za procenu uticaja na društvo i nacionalnu bezbednost.

Ovakva saradnja između tehnoloških lidera i vlade pokazuje rastuću važnost transparentnosti i odgovornosti u razvoju veštačke inteligencije. Dok industrija ubrzano napreduje, regulatori nastoje da uhvate korak sa inovacijama i na vreme reše potencijalne rizike po privatnost, bezbednost i etičke standarde. Očekuje se da će ovakvi dogovori postati standard u budućnosti, kako bi se omogućilo usklađivanje tehnološkog progresa sa društvenim interesima i zakonodavstvom.

Pročitaj još
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

IT

AI prevara putem telefona: Kloniranje glasova postaje sve veći bezbednosni izazov

Kriminalci koriste veštačku inteligenciju za imitaciju glasova porodice i prijatelja, otežavajući prepoznavanje prevare

Published

on

By

Kriminalci koriste veštačku inteligenciju za imitaciju glasova porodice i prijatelja, otežavajući prepoznavanje prevare

Savremene telefonske prevare sada uključuju sofisticirane AI alate koji mogu da kloniraju glas bliskih osoba, upozoravaju izvori iz industrije. Ova vrsta prevare značajno se proširila poslednjih meseci i bazira se na zloupotrebi javno dostupnih audio snimaka sa društvenih mreža. Dovoljno je svega nekoliko sekundi originalnog glasa da AI model generiše sintetički govor koji je izražajno i emocionalno uverljiv.

Zbog toga što više ne postoje jasni znaci lažiranja – poput neprirodnog tona ili loše izgovorenih reči – žrtve često ne sumnjaju da razgovaraju sa veštački generisanim glasom. Scenariji u kojima AI prevaranti deluju najčešće uključuju lažne hitne situacije: poziv u kome “član porodice” ili blizak prijatelj navodno traži brzu novčanu pomoć zbog neke nesreće. Emocionalni pritisak i osećaj hitnosti igraju ključnu ulogu u tome da žrtva ne proverava autentičnost poziva.

Stručnjaci ističu da su ovakve prevare u velikom porastu upravo zato što je sve više audio materijala dostupno javno, a AI alati za generisanje glasa su sve pristupačniji i jednostavniji za upotrebu. Istraživanja pokazuju da većina ljudi ne može da razlikuje stvarni glas od AI kopije – u nekim slučajevima tačnost prepoznavanja pada ispod 30%. Prevaranti masovno pokreću hiljade poziva, što dodatno povećava rizik i broj potencijalnih žrtava.

Najčešće, prevaranti zahtevaju da novac bude uplaćen putem kriptovaluta, poklon kartica ili elektronskih transfera, jer se takve transakcije teško mogu povratiti. Tradicionalne metode prepoznavanja prevare više nisu pouzdane, što dodatno komplikuje odbranu korisnika.

Savet stručnjaka je da, u slučaju sumnjivog poziva sa zahtevom za novac, odmah prekinete vezu i pokušate da kontaktirate osobu na drugi način. Preporučuje se i dogovor o tajnoj reči unutar porodice, koju prevaranti neće moći da pogode. Takođe, treba izbegavati javno deljenje audio sadržaja kad god je to moguće, jer upravo ti podaci omogućavaju AI kloniranje glasa.

Ovakvi napadi predstavljaju rastući globalni bezbednosni izazov, a zaštita počinje od opreza i dobre informisanosti.

Pročitaj još

IT

Elon Musk postigao nagodbu sa SEC-om zbog ulaganja u Twitter, plaća 1,5 milion dolara

Nagodba okončava višegodišnji spor oko pravovremenosti objave o kupovini akcija Twitter-a

Published

on

By

Nagodba okončava višegodišnji spor oko pravovremenosti objave o kupovini akcija Twitter-a

Elon Musk, izvršni direktor Tesla-e i SpaceX-a, postigao je nagodbu sa američkom Komisijom za hartije od vrednosti (SEC) nakon višegodišnjeg spora u vezi sa načinom na koji je prijavio svoje ulaganje u Twitter. Prema zvaničnim informacijama regulatora, Musk je pristao da plati 1,5 milion dolara, bez priznanja krivice, kako bi SEC povukao svoj slučaj protiv njega. Ova nagodba, koja još čeka sudsko odobrenje, predstavlja kraj dugotrajne pravne borbe između Muska i regulatora.

Spor je nastao kada je SEC pokrenuo istragu zbog Muskove objave da je stekao značajan udeo u Twitter-u, sa fokusom na to da li je njegovo obelodanjivanje bilo pravovremeno i u skladu sa važećim propisima. Musk je tokom celog procesa negirao da je prekršio bilo kakva pravila, ali je odlučio da se nagodi kako bi izbegao nastavak sudskog postupka.

Ako sud odobri dogovor, Musk će platiti iznos od 1,5 miliona dolara, a SEC će odustati od daljih pravnih radnji. Ova nagodba ne uključuje priznanje odgovornosti sa Muskove strane, što je standardna praksa u ovakvim slučajevima kada strane žele da izbegnu dalje troškove i neizvesnost sudskog procesa.

Industrijski analitičari smatraju da ovakva rešenja omogućavaju brže zatvaranje sporova i smanjenje rizika za sve strane, ali ističu i važnost transparentnosti poslovanja, posebno u slučaju značajnih investicija u tehnološkom sektoru. Ova vest dolazi u trenutku kada je pažnja javnosti i regulatora usmerena na transparentnost i odgovornost najuticajnijih ličnosti u svetu tehnologije.

Pročitaj još

IT

Bela kuća razmatra strožu regulaciju novih AI modela zbog bezbednosti

Moguće formiranje posebne federalne radne grupe za nadzor razvoja veštačke inteligencije u SAD

Published

on

By

Moguće formiranje posebne federalne radne grupe za nadzor razvoja veštačke inteligencije u SAD

Administracija Bele kuće razmatra uvođenje strožih regulatornih mera za nove modele veštačke inteligencije, pokazuju najnovije informacije iz industrijskih izvora. Prema tim navodima, američka vlada razmatra osnivanje posebne radne grupe koja bi nadgledala razvoj i puštanje novih AI modela, sa mogućnošću federalnog pregleda pre nego što ti sistemi postanu dostupni javnosti. Ovakav pristup ima za cilj da obezbedi da napredni AI alati zadovolje određene bezbednosne i etičke standarde pre nego što se pojave na tržištu.

Iako još nije doneta konačna odluka o formiranju ovog tela, predlog uključuje opciju da se uspostavi višeslojni sistem nadzora, sličan onom koji se već primenjuje u nekim evropskim državama. U Velikoj Britaniji, na primer, postoji kompleksan proces verifikacije kojim se proverava da li AI modeli ispunjavaju propisane bezbednosne smernice, iako i tamo postoje poteškoće u primeni takvih standarda.

Ovakve regulatorne inicijative dolaze u trenutku kada se globalna tehnološka industrija suočava sa ubrzanim razvojem LLM sistema (Large Language Model) i drugih oblika generativne veštačke inteligencije, što podstiče zabrinutost oko mogućih zloupotreba, širenja dezinformacija i drugih društvenih rizika. Ideja o uvođenju federalnog nadzora nad AI modelima ukazuje na intenziviranje napora američke vlade da uhvati korak sa brzim tehnološkim promenama i održi bezbednost korisnika i šire javnosti.

Za sada nema zvaničnih informacija o eventualnom sastavu radne grupe, konkretnim kriterijumima ili rokovima za sprovođenje ovih mera. Bele kuća još nije izdala zvanično saopštenje o eventualnim narednim koracima, dok industrijski izvori navode da bi ovakav potez mogao značajno uticati na način na koji se AI modeli razvijaju i lansiraju u Sjedinjenim Američkim Državama.

Pročitaj još

U Trendu