IT

Anthropic uvodi verifikaciju identiteta za korisnike Claude AI u pojedinim slučajevima

Nova pravila zahtevaju verifikaciju putem lične isprave i fotografije, a podatke obrađuje treća strana Persona

Published

on

g4d2467ac76d7ba4fee3eaecf661adff600e81efd253fa144af8fc97fb6c81ef0e81cd72a58a431acb335ad8f6b372e1e30c3ca1ce93a68cb4d9b07494a2bf92d_1280

Nova pravila zahtevaju verifikaciju putem lične isprave i fotografije, a podatke obrađuje treća strana Persona

Anthropic, kompanija poznata po razvoju AI chatbota Claude, saopštila je da uvodi obaveznu verifikaciju identiteta za određene slučajeve korišćenja svoje platforme. Ova izmena, najavljena 16. aprila 2026, odnosi se na specifične mogućnosti Claude-a, mada detalji o tačnim slučajevima primene nisu u potpunosti objavljeni. Korisnici koji pokušaju da pristupe nekim naprednim funkcijama Claude-a mogu biti zamoljeni da dokažu svoj identitet putem važeće zvanične lične isprave sa fotografijom, kao i da naprave selfie kamerom na telefonu ili računaru. Sistem potom upoređuje fotografiju iz dokumenta sa napravljenim selfie snimkom radi potvrde identiteta.

Za samu verifikaciju Anthropic koristi servis Persona, koji je specijalizovan za proveru identiteta i pruža slične usluge kompanijama kao što su OpenAI i Roblox. Persona, prema navodima iz Anthropic-a, neće kopirati niti trajno skladištiti slike korisničkih dokumenata i selfie fotografija. Takođe, kompanija navodi da je Persona ugovorno ograničena u načinu korišćenja podataka i da su svi podaci koji prolaze kroz verifikacioni proces šifrovani kako tokom prenosa, tako i dok miruju na serverima.

Ova odluka izazvala je brojne kritike u zajednici korisnika, posebno među onima koji smatraju da je dodatna verifikacija nepotrebna s obzirom na to da su podaci o plaćanju već povezani sa korisničkim nalozima. Dodatnu zabrinutost izaziva činjenica da je jedan od glavnih investitora u kompaniji Persona i Founders Fund, venture firma čiji je suosnivač i predsednik Peter Thiel, poznat po radu u kompaniji Palantir specijalizovanoj za tehnologije nadzora i veštačku inteligenciju za vladine agencije, uključujući FBI, CIA i ICE.

Iz Anthropic-a ističu da se podaci o identitetu korisnika neće koristiti za treniranje AI modela niti će biti deljeni sa trećim stranama. Kompanija naglašava da je zaštita privatnosti korisnika prioritet i da su svi aspekti verifikacije osmišljeni u skladu sa visokim standardima sigurnosti podataka.

Iako nisu objavljeni svi detalji o tome koje funkcije Claude-a zahtevaju verifikaciju, jasno je da Anthropic nastoji da balansira između regulatornih zahteva, sigurnosti korisnika i privatnosti. Ova odluka može imati uticaj na percepciju privatnosti u sektoru AI chatbota i potencijalno oblikovati standarde za druge kompanije u industriji.

Leave a Reply

Your email address will not be published. Required fields are marked *

U Trendu

Exit mobile version