Connect with us

IT

Izdavači knjiga tuže Meta i Marka Zuckerberga zbog navodnog kršenja autorskih prava

Pet velikih izdavača tvrdi da je Meta koristila njihova zaštićena dela za obuku svog AI modela Llama

Published

on

g41fe9a571219a6954b9bd38885a08d0179293bad68d151de63f9969327c12221924be5c83450973e358c88dbcaa221dcd1bd2266f6dcfa10cb352f4218b84e8d_1280

Pet velikih izdavača tvrdi da je Meta koristila njihova zaštićena dela za obuku svog AI modela Llama

Meta, tehnološki gigant koji stoji iza društvenih mreža Facebook i Instagram, suočava se sa novom tužbom zbog navodnog kršenja autorskih prava. Pet vodećih svetskih izdavača – Hachette, Macmillan, McGraw Hill, Elsevier i Cengage – zajedno sa poznatim autorom Skotom Turowom, podneli su zajedničku tužbu protiv kompanije Meta i njenog izvršnog direktora Marka Zuckerberga. Tužba je pokrenuta zbog tvrdnji da je Meta koristila zaštićene knjige tih izdavača kao podatke za treniranje svog velikog jezičkog modela (LLM) Llama, bez dozvole ili naknade autorima i izdavačima.

Prema navodima iz tužbe, Meta je navodno reprodukovala i distribuirala milione zaštićenih dela kako bi unapredila performanse i sposobnosti Llama AI platforme. Izdavači ističu da ovakva praksa ne samo da krši osnovna autorska prava, već i ugrožava ekonomske interese autora i izdavača, jer se njihova dela koriste bez ikakve kompenzacije.

Tužba je značajna jer se odnosi na fundamentalno pitanje načina na koji se treniraju veliki jezički modeli, koji oslanjaju na velike količine tekstualnih podataka prikupljenih iz raznih izvora. Kako AI alati postaju sve uticajniji i komercijalno vredniji, industrija izdavaštva i nosioci autorskih prava traže pravnu zaštitu i transparentnost u načinu na koji se njihova dela koriste.

Iz Meta kompanije, do trenutka objavljivanja ove vesti, nisu objavili zvanične komentare u vezi sa tužbom. Slučaj predstavlja još jedan u nizu pravnih izazova sa kojima se suočavaju velike tehnološke kompanije u razvoju generativnih AI sistema, posebno u domenu korišćenja zaštićenih sadržaja bez prethodnog dogovora sa nosiocima prava.

Ishod ovog sudskog procesa mogao bi imati dugoročan uticaj na celokupnu AI industriju, posebno u pogledu pravila korišćenja podataka za treniranje budućih modela i odnosa između tehnoloških kompanija i izdavača.

Pročitaj još
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

IT

Pennsylvania tuži Character.AI zbog chatbotova koji se lažno predstavljaju kao lekari

Vlasti traže zabranu da AI platforma nudi chatbotove koji simuliraju licencirane medicinske stručnjake

Published

on

By

Vlasti traže zabranu da AI platforma nudi chatbotove koji simuliraju licencirane medicinske stručnjake

Američka savezna država Pennsylvania pokrenula je tužbu protiv startapa Character.AI, optužujući ovu kompaniju za omogućavanje chatbotovima da se predstavljaju kao licencirani lekari. Prema zvaničnim informacijama, guverner Josh Shapiro i Državni medicinski odbor zahtevaju sudsku zabranu koja bi sprečila Character.AI da nastavi sa praksom za koju tvrde da krši lokalne zakone koji regulišu medicinsku delatnost.

Character.AI je poznata AI platforma koja korisnicima omogućava interakciju sa raznim digitalnim ličnostima, uključujući i one koje simuliraju lekare. Vlasti Pennsylvanije smatraju da ovakve prakse predstavljaju rizik za korisnike jer mogu dovesti do pogrešnog tumačenja saveta ili donošenja odluka na osnovu neproverenih medicinskih informacija.

Pored Pennsylvanije, i druge američke države, poput Teksasa, najavile su slične istrage i regulatorne korake protiv kompanija koje nude AI chatbotove za mentalno zdravlje ili druge medicinske oblasti, ukoliko ti sistemi nisu jasno označeni kao nelicencirani i bez stručnog nadzora. Ovi slučajevi ukazuju na širu zabrinutost regulatora zbog potencijalnog zloupotrebljavanja AI tehnologije u oblastima koje zahtevaju stručne kvalifikacije i odgovornost.

U centru pažnje je pitanje kako balansirati inovacije u oblasti veštačke inteligencije sa bezbednošću korisnika, posebno kada AI sistemi ulaze u sfere kao što su medicina, pravo i finansije. Sudski proces u Pennsylvaniji mogao bi postaviti važne presedane za buduće regulisanje AI chatbotova i njihove primene.

Pročitaj još

IT

Coinbase otpušta skoro 700 zaposlenih u novoj AI restrukturaciji kompanije

Američka kripto berza smanjuje radnu snagu za oko 14% zbog promene ka ‘AI-native’ poslovanju

Published

on

By

Američka kripto berza smanjuje radnu snagu za oko 14% zbog promene ka ‘AI-native’ poslovanju

Coinbase, jedna od vodećih globalnih platformi za trgovinu kriptovalutama, najavila je otpuštanje približno 700 zaposlenih, što čini oko 14% ukupne radne snage kompanije. Ovu odluku je objavio izvršni direktor kompanije Brian Armstrong, navodeći kao ključni razlog prelazak na poslovni model koji je snažno oslonjen na veštačku inteligenciju.

Restrukturacija dolazi u trenutku kada sve više tehnoloških kompanija implementira AI alate radi povećanja efikasnosti i smanjenja troškova. Armstrong je istakao da su inženjeri u Coinbase-u uspeli da koriste AI kako bi realizovali projekte koji su ranije zahtevali višenedeljni rad većih timova, dok sada pojedinci mogu završiti iste zadatke za nekoliko dana. Takođe, unutar kompanije, i ne-tehnički timovi rade na razvoju i isporuci produkcijskog koda zahvaljujući automatizaciji koju omogućavaju AI rešenja.

Ova promena deo je šire strategije kompanije da se prilagodi ubrzanim tehnološkim promenama i ostane konkurentna u industriji. Coinbase nastoji da kroz automatizaciju značajno ubrza svoje procese i smanji operativne troškove, posebno u segmentima kao što su korisnička podrška, razvoj proizvoda i interna logistika. Armstrong je naglasio da su ove mere neophodne kako bi kompanija ostala agilna i mogla da investira u razvoj novih AI alata i poboljšanje korisničkog iskustva.

Iako su otpuštanja jedan od najznačajnijih poteza kompanije u poslednjem periodu, Armstrong je napomenuo da je cilj restrukturacije jačanje dugoročne održivosti i inovativnosti Coinbase-a. Kompanija nije saopštila detalje o nadoknadama za otpuštene radnike, ali je istakla da će pružiti podršku tokom tranzicije. Ova vest dolazi nakon sličnih poteza drugih tehnoloških kompanija koje su u poslednjih godinu dana smanjivale broj zaposlenih u cilju optimizacije poslovanja kroz AI tehnologije.

Pročitaj još

IT

AI prevara putem telefona: Kloniranje glasova postaje sve veći bezbednosni izazov

Kriminalci koriste veštačku inteligenciju za imitaciju glasova porodice i prijatelja, otežavajući prepoznavanje prevare

Published

on

By

Kriminalci koriste veštačku inteligenciju za imitaciju glasova porodice i prijatelja, otežavajući prepoznavanje prevare

Savremene telefonske prevare sada uključuju sofisticirane AI alate koji mogu da kloniraju glas bliskih osoba, upozoravaju izvori iz industrije. Ova vrsta prevare značajno se proširila poslednjih meseci i bazira se na zloupotrebi javno dostupnih audio snimaka sa društvenih mreža. Dovoljno je svega nekoliko sekundi originalnog glasa da AI model generiše sintetički govor koji je izražajno i emocionalno uverljiv.

Zbog toga što više ne postoje jasni znaci lažiranja – poput neprirodnog tona ili loše izgovorenih reči – žrtve često ne sumnjaju da razgovaraju sa veštački generisanim glasom. Scenariji u kojima AI prevaranti deluju najčešće uključuju lažne hitne situacije: poziv u kome “član porodice” ili blizak prijatelj navodno traži brzu novčanu pomoć zbog neke nesreće. Emocionalni pritisak i osećaj hitnosti igraju ključnu ulogu u tome da žrtva ne proverava autentičnost poziva.

Stručnjaci ističu da su ovakve prevare u velikom porastu upravo zato što je sve više audio materijala dostupno javno, a AI alati za generisanje glasa su sve pristupačniji i jednostavniji za upotrebu. Istraživanja pokazuju da većina ljudi ne može da razlikuje stvarni glas od AI kopije – u nekim slučajevima tačnost prepoznavanja pada ispod 30%. Prevaranti masovno pokreću hiljade poziva, što dodatno povećava rizik i broj potencijalnih žrtava.

Najčešće, prevaranti zahtevaju da novac bude uplaćen putem kriptovaluta, poklon kartica ili elektronskih transfera, jer se takve transakcije teško mogu povratiti. Tradicionalne metode prepoznavanja prevare više nisu pouzdane, što dodatno komplikuje odbranu korisnika.

Savet stručnjaka je da, u slučaju sumnjivog poziva sa zahtevom za novac, odmah prekinete vezu i pokušate da kontaktirate osobu na drugi način. Preporučuje se i dogovor o tajnoj reči unutar porodice, koju prevaranti neće moći da pogode. Takođe, treba izbegavati javno deljenje audio sadržaja kad god je to moguće, jer upravo ti podaci omogućavaju AI kloniranje glasa.

Ovakvi napadi predstavljaju rastući globalni bezbednosni izazov, a zaštita počinje od opreza i dobre informisanosti.

Pročitaj još

U Trendu