Connect with us

IT

Coinbase otpušta skoro 700 zaposlenih u novoj AI restrukturaciji kompanije

Američka kripto berza smanjuje radnu snagu za oko 14% zbog promene ka ‘AI-native’ poslovanju

Published

on

g0ced16e4f3a30c00c676fd6df5ab815d169d323befd5c4b7a10c0de66d5d8791bd8938c3927bfc20e487311403e31421d1dbd9273182b04eb56f30721d40f768_1280

Američka kripto berza smanjuje radnu snagu za oko 14% zbog promene ka ‘AI-native’ poslovanju

Coinbase, jedna od vodećih globalnih platformi za trgovinu kriptovalutama, najavila je otpuštanje približno 700 zaposlenih, što čini oko 14% ukupne radne snage kompanije. Ovu odluku je objavio izvršni direktor kompanije Brian Armstrong, navodeći kao ključni razlog prelazak na poslovni model koji je snažno oslonjen na veštačku inteligenciju.

Restrukturacija dolazi u trenutku kada sve više tehnoloških kompanija implementira AI alate radi povećanja efikasnosti i smanjenja troškova. Armstrong je istakao da su inženjeri u Coinbase-u uspeli da koriste AI kako bi realizovali projekte koji su ranije zahtevali višenedeljni rad većih timova, dok sada pojedinci mogu završiti iste zadatke za nekoliko dana. Takođe, unutar kompanije, i ne-tehnički timovi rade na razvoju i isporuci produkcijskog koda zahvaljujući automatizaciji koju omogućavaju AI rešenja.

Ova promena deo je šire strategije kompanije da se prilagodi ubrzanim tehnološkim promenama i ostane konkurentna u industriji. Coinbase nastoji da kroz automatizaciju značajno ubrza svoje procese i smanji operativne troškove, posebno u segmentima kao što su korisnička podrška, razvoj proizvoda i interna logistika. Armstrong je naglasio da su ove mere neophodne kako bi kompanija ostala agilna i mogla da investira u razvoj novih AI alata i poboljšanje korisničkog iskustva.

Iako su otpuštanja jedan od najznačajnijih poteza kompanije u poslednjem periodu, Armstrong je napomenuo da je cilj restrukturacije jačanje dugoročne održivosti i inovativnosti Coinbase-a. Kompanija nije saopštila detalje o nadoknadama za otpuštene radnike, ali je istakla da će pružiti podršku tokom tranzicije. Ova vest dolazi nakon sličnih poteza drugih tehnoloških kompanija koje su u poslednjih godinu dana smanjivale broj zaposlenih u cilju optimizacije poslovanja kroz AI tehnologije.

Pročitaj još
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

IT

AI prevara putem telefona: Kloniranje glasova postaje sve veći bezbednosni izazov

Kriminalci koriste veštačku inteligenciju za imitaciju glasova porodice i prijatelja, otežavajući prepoznavanje prevare

Published

on

By

Kriminalci koriste veštačku inteligenciju za imitaciju glasova porodice i prijatelja, otežavajući prepoznavanje prevare

Savremene telefonske prevare sada uključuju sofisticirane AI alate koji mogu da kloniraju glas bliskih osoba, upozoravaju izvori iz industrije. Ova vrsta prevare značajno se proširila poslednjih meseci i bazira se na zloupotrebi javno dostupnih audio snimaka sa društvenih mreža. Dovoljno je svega nekoliko sekundi originalnog glasa da AI model generiše sintetički govor koji je izražajno i emocionalno uverljiv.

Zbog toga što više ne postoje jasni znaci lažiranja – poput neprirodnog tona ili loše izgovorenih reči – žrtve često ne sumnjaju da razgovaraju sa veštački generisanim glasom. Scenariji u kojima AI prevaranti deluju najčešće uključuju lažne hitne situacije: poziv u kome “član porodice” ili blizak prijatelj navodno traži brzu novčanu pomoć zbog neke nesreće. Emocionalni pritisak i osećaj hitnosti igraju ključnu ulogu u tome da žrtva ne proverava autentičnost poziva.

Stručnjaci ističu da su ovakve prevare u velikom porastu upravo zato što je sve više audio materijala dostupno javno, a AI alati za generisanje glasa su sve pristupačniji i jednostavniji za upotrebu. Istraživanja pokazuju da većina ljudi ne može da razlikuje stvarni glas od AI kopije – u nekim slučajevima tačnost prepoznavanja pada ispod 30%. Prevaranti masovno pokreću hiljade poziva, što dodatno povećava rizik i broj potencijalnih žrtava.

Najčešće, prevaranti zahtevaju da novac bude uplaćen putem kriptovaluta, poklon kartica ili elektronskih transfera, jer se takve transakcije teško mogu povratiti. Tradicionalne metode prepoznavanja prevare više nisu pouzdane, što dodatno komplikuje odbranu korisnika.

Savet stručnjaka je da, u slučaju sumnjivog poziva sa zahtevom za novac, odmah prekinete vezu i pokušate da kontaktirate osobu na drugi način. Preporučuje se i dogovor o tajnoj reči unutar porodice, koju prevaranti neće moći da pogode. Takođe, treba izbegavati javno deljenje audio sadržaja kad god je to moguće, jer upravo ti podaci omogućavaju AI kloniranje glasa.

Ovakvi napadi predstavljaju rastući globalni bezbednosni izazov, a zaštita počinje od opreza i dobre informisanosti.

Pročitaj još

IT

Elon Musk postigao nagodbu sa SEC-om zbog ulaganja u Twitter, plaća 1,5 milion dolara

Nagodba okončava višegodišnji spor oko pravovremenosti objave o kupovini akcija Twitter-a

Published

on

By

Nagodba okončava višegodišnji spor oko pravovremenosti objave o kupovini akcija Twitter-a

Elon Musk, izvršni direktor Tesla-e i SpaceX-a, postigao je nagodbu sa američkom Komisijom za hartije od vrednosti (SEC) nakon višegodišnjeg spora u vezi sa načinom na koji je prijavio svoje ulaganje u Twitter. Prema zvaničnim informacijama regulatora, Musk je pristao da plati 1,5 milion dolara, bez priznanja krivice, kako bi SEC povukao svoj slučaj protiv njega. Ova nagodba, koja još čeka sudsko odobrenje, predstavlja kraj dugotrajne pravne borbe između Muska i regulatora.

Spor je nastao kada je SEC pokrenuo istragu zbog Muskove objave da je stekao značajan udeo u Twitter-u, sa fokusom na to da li je njegovo obelodanjivanje bilo pravovremeno i u skladu sa važećim propisima. Musk je tokom celog procesa negirao da je prekršio bilo kakva pravila, ali je odlučio da se nagodi kako bi izbegao nastavak sudskog postupka.

Ako sud odobri dogovor, Musk će platiti iznos od 1,5 miliona dolara, a SEC će odustati od daljih pravnih radnji. Ova nagodba ne uključuje priznanje odgovornosti sa Muskove strane, što je standardna praksa u ovakvim slučajevima kada strane žele da izbegnu dalje troškove i neizvesnost sudskog procesa.

Industrijski analitičari smatraju da ovakva rešenja omogućavaju brže zatvaranje sporova i smanjenje rizika za sve strane, ali ističu i važnost transparentnosti poslovanja, posebno u slučaju značajnih investicija u tehnološkom sektoru. Ova vest dolazi u trenutku kada je pažnja javnosti i regulatora usmerena na transparentnost i odgovornost najuticajnijih ličnosti u svetu tehnologije.

Pročitaj još

IT

Bela kuća razmatra strožu regulaciju novih AI modela zbog bezbednosti

Moguće formiranje posebne federalne radne grupe za nadzor razvoja veštačke inteligencije u SAD

Published

on

By

Moguće formiranje posebne federalne radne grupe za nadzor razvoja veštačke inteligencije u SAD

Administracija Bele kuće razmatra uvođenje strožih regulatornih mera za nove modele veštačke inteligencije, pokazuju najnovije informacije iz industrijskih izvora. Prema tim navodima, američka vlada razmatra osnivanje posebne radne grupe koja bi nadgledala razvoj i puštanje novih AI modela, sa mogućnošću federalnog pregleda pre nego što ti sistemi postanu dostupni javnosti. Ovakav pristup ima za cilj da obezbedi da napredni AI alati zadovolje određene bezbednosne i etičke standarde pre nego što se pojave na tržištu.

Iako još nije doneta konačna odluka o formiranju ovog tela, predlog uključuje opciju da se uspostavi višeslojni sistem nadzora, sličan onom koji se već primenjuje u nekim evropskim državama. U Velikoj Britaniji, na primer, postoji kompleksan proces verifikacije kojim se proverava da li AI modeli ispunjavaju propisane bezbednosne smernice, iako i tamo postoje poteškoće u primeni takvih standarda.

Ovakve regulatorne inicijative dolaze u trenutku kada se globalna tehnološka industrija suočava sa ubrzanim razvojem LLM sistema (Large Language Model) i drugih oblika generativne veštačke inteligencije, što podstiče zabrinutost oko mogućih zloupotreba, širenja dezinformacija i drugih društvenih rizika. Ideja o uvođenju federalnog nadzora nad AI modelima ukazuje na intenziviranje napora američke vlade da uhvati korak sa brzim tehnološkim promenama i održi bezbednost korisnika i šire javnosti.

Za sada nema zvaničnih informacija o eventualnom sastavu radne grupe, konkretnim kriterijumima ili rokovima za sprovođenje ovih mera. Bele kuća još nije izdala zvanično saopštenje o eventualnim narednim koracima, dok industrijski izvori navode da bi ovakav potez mogao značajno uticati na način na koji se AI modeli razvijaju i lansiraju u Sjedinjenim Američkim Državama.

Pročitaj još

U Trendu