Kompanija tvrdi da model otkriva propuste efikasnije od ljudi, ali bez podataka o stopi lažno pozitivnih nalaza
Kompanija Anthropic iz Silicijumske doline saopštila je da njen AI model Claude Mythos može da pronalazi bezbednosne propuste efikasnije od ljudskih stručnjaka, upozoravajući da bi, ukoliko se nađe u pogrešnim rukama, posledice po ekonomiju i nacionalnu bezbednost mogle biti ozbiljne. Ove tvrdnje izazvale su reakcije u industriji, posebno jer kompanija nije objavila ključne podatke kao što je stopa lažno pozitivnih nalaza, što je standard u sajber bezbednosti.
Prema dostupnim informacijama, model Claude Mythos nije upoređen sa postojećim alatima koje inženjeri koriste decenijama, a stručnjaci ističu da je bez tih podataka teško proceniti njegovu stvarnu efikasnost. Iako Anthropic tvrdi da njihova tehnologija može brzo analizirati ogromne količine koda i identifikovati ranjivosti, kritičari naglašavaju da ovakve izjave predstavljaju deo pažljivo građenog narativa straha, kojim se skreće pažnja sa postojećih problema kao što su ekološki uticaj i eksploatacija radne snage.
Još 2019. godine, direktor Dario Amodei iz kompanije OpenAI odlučio je da model GPT-2 ne bude javno objavljen zbog mogućih zloupotreba, ali je nekoliko meseci kasnije model ipak postao dostupan. Slična retorika o rizicima koristi se i danas za naprednije AI sisteme, dok lideri iz industrije, poput Bila Gejtsa i Demisa Hasabisa, upozoravaju da bi rizik od veštačke inteligencije mogao biti ravan nuklearnom ratu ili pandemijama.
U isto vreme, AI kompanije menjaju svoje interne principe. Google je ublažio ograničenja na razvoj AI za vojnu upotrebu, OpenAI je vodio pravne procese oko promene neprofitnog statusa, dok je Anthropic odustao od ranijih obećanja da neće razvijati modele bez garantovane bezbednosti. Istovremeno, problemi kao što su greške u medicinskim dijagnozama, povećanje emisije gasova iz data centara i širenje deepfake tehnologije ostaju aktuelni, dok javna debata često ostaje fokusirana na potencijalne scenarije “kraja sveta”.
Stručnjaci upozoravaju da preuveličavanje sposobnosti AI sistema bez konkretnih dokaza jača poziciju kompanija, jer sugeriše da su upravo one jedine sposobne da kontrolišu rizike. “Ako ove tehnologije predstavljate kao gotovo natprirodne, ljudi počinju da veruju da su nemoćni, a onda se okreću upravo tim kompanijama kao jedinim rešenjima”, navodi Šenon Valor sa Univerziteta u Edinburgu. Na kraju, ostaje pitanje koliko javnost veruje narativima koji dolaze iz industrije koja od tog straha direktno profitira.