Domaće

PULSEC upozorava na rast rizika od Shadow AI, podaci kompanija izloženi gubicima kontrole

Upotreba AI alata od strane zaposlenih bez nadzora povećava ranjivost podataka i zahteva nove mere zaštite

Published

on

ge2abb7e09598c9df3fc1ed980270b8e6c1aa0282336c0c7a5674c8dccbc97220feddd72ae96aec021458a0666c0d0d09a78c3adac3d6038f109fe8b675ceeeb9_1280

Upotreba AI alata od strane zaposlenih bez nadzora povećava ranjivost podataka i zahteva nove mere zaštite

Kompanija PULSEC ističe da fenomen Shadow AI postaje jedan od najbrže rastućih bezbednosnih izazova u savremenom poslovanju, jer svaki put kada zaposleni unesu interni dokument, deo koda ili poslovnu strategiju u AI alat, kompanija može izgubiti kontrolu nad tim podacima. Ovaj rizik je posebno izražen kada zaposleni bez znanja IT sektora koriste alate poput ChatGPT, Claude ili Gemini, što dovodi do toga da podaci napuštaju kontrolisano okruženje i završavaju na serverima u različitim jurisdikcijama.

Stručnjaci iz PULSEC-a upozoravaju da u praksi sve češće dolazi do ovakvog ponašanja zaposlenih, koji žele da ubrzaju rad koristeći AI alate za skraćivanje izveštaja ili rešavanje tehničkih problema. Kako navode, “internet pamti – uneti podaci neće magično nestati, već se negde skladište i obrađuju, i da otvaranje ‘incognito’ prozora u brauzeru ne spašava stvar”.

Mnogi korisnici veruju da su zaštićeni aktiviranjem opcija za privatnost ili isključivanjem treniranja AI modela, ali analiza uslova korišćenja pokazuje da provajderi zadržavaju određena prava nad podacima, uključujući njihovo čuvanje i potencijalnu buduću upotrebu. Čak i kod komercijalnih enterprise verzija, izvesni nivoi obrade i zadržavanja metapodataka ostaju prisutni, što znači da nijedna opcija nije potpuno bez rizika.

PULSEC savetuje kompanijama da primene sledeće mere: jasno definisanje politike upotrebe AI alata sa zabranom unošenja poverljivih informacija, uvođenje klasifikacije podataka na Public, Internal i Confidential, gde je za poverljive podatke upotreba AI servisa zabranjena, obaveznu ljudsku verifikaciju svih AI generisanih dokumenata, redovne obuke zaposlenih o rizicima i princip najmanjih privilegija pri pristupu AI alatima. Potpuna zabrana AI alata se ne pokazuje efikasnom, pa se preporučuje kombinacija edukacije, jasnih pravila i tehničke kontrole.

Za organizacije sa visokim zahtevima za sigurnošću, PULSEC preporučuje korišćenje izolovane cloud infrastrukture ili lokalno pokretanje AI modela u okviru sopstvene mreže, čime se izbegava slanje podataka eksternim provajderima. Shadow AI se smatra jednim od ključnih bezbednosnih izazova savremenih kompanija, jer dolazi iznutra, iz svakodnevnih navika zaposlenih, a rešenje zahteva kombinaciju pravila, edukacije i odgovorne kulture upravljanja podacima.

Leave a Reply

Your email address will not be published. Required fields are marked *

U Trendu

Exit mobile version