IT

AI generisane lozinke pod lupom: Stručnjaci upozoravaju na predvidivost i rizike

Istraživanje ukazuje da lozinke kreirane pomoću ChatGPT, Claude i Gemini modela nisu dovoljno sigurne za korisnike i programere

Published

on

Foto Izvor: Pink.rs

Istraživanje ukazuje da lozinke kreirane pomoću ChatGPT, Claude i Gemini modela nisu dovoljno sigurne za korisnike i programere

Najnovije istraživanje kompanije za sajber bezbednost Irregular pokazuje da lozinke koje generišu veštačke inteligencije, poput ChatGPT, Claude i Gemini, nisu toliko sigurne kako se na prvi pogled čini. Iako ove lozinke često izgledaju kompleksno, testiranja su pokazala da modeli bazirani na veštačkoj inteligenciji prave obrasce koji su predvidivi i mogu predstavljati značajan bezbednosni rizik.

Suosnivač Irregular-a, Dan Lahav, upozorio je korisnike da ne koriste AI za kreiranje lozinki i preporučio da se promene sve lozinke koje su na ovaj način generisane. “Mnogi nisu svesni da je ovo ozbiljan problem”, izjavio je Lahav za Sky News, ističući da veštačka inteligencija ne pravi zaista nasumične lozinke, već se oslanja na obrasce iz podataka na kojima je trenirana.

Testiranje je pokazalo da, na primer, od 50 lozinki generisanih pomoću Claude modela, samo 23 su bile jedinstvene, dok se jedna lozinka ponovila čak deset puta. Slični rezultati zabeleženi su i kod ChatGPT i Gemini modela, iako u nešto manjoj meri. Ovi podaci ukazuju na ograničenja trenutnih AI modela kada je reč o generisanju sigurnih akreditiva.

Dodatni problem je što online alati za proveru jačine lozinki često ocenjuju ove lozinke kao izuzetno jake, ignorišući činjenicu da su obrasci koje koristi AI lako prepoznatljivi i ranjivi na napade, čak i sa starijim računarima. Prema navodima Sky News-a, problem ne pogađa samo krajnje korisnike, već i programere koji koriste AI za generisanje lozinki unutar koda, aplikacija i veb-sajtova. Analiza sadržaja na GitHub-u pokazala je da se prepoznatljivi AI-šabloni mogu pronaći u različitim softverskim rešenjima.

Lahav je apelovao na proizvođače AI rešenja da razviju alate koji bi omogućili generisanje zaista nasumičnih lozinki, uporedivih sa tradicionalnim metodama, kako bi se izbegle predvidive šeme i smanjio bezbednosni rizik. Istraživanje Irregular-a jasno ukazuje na potrebu za oprezom pri korišćenju AI alata za generisanje bilo kakvih sigurnosnih akreditiva, kako bi se zaštitili korisnički nalozi i podaci u digitalnom okruženju.

Leave a Reply

Your email address will not be published. Required fields are marked *

U Trendu

Exit mobile version