Kategorije

AI Alati

Tagovi

Kontakt

O sajtu AIZONA

Prijava

Registracija

Bezbednosne prakse vodećih AI kompanija su nedeovoljne

Oblast: Bezbednost |          
Četvrtak, 4. decembar 2025. 16:00
Autor: AIZona
Tagovi: OpenAI, xAI, Alibaba, Meta, Google DeepMind

Novi, nezavisni izveštaj diže uzbunu zbog bezbednosnih praksi vodećih svetskih kompanija za veštačku inteligenciju, navodeći da su njihovi pristupi "daleko ispod novih globalnih standarda." Zimski Indeks Bezbednosti AI za 2025. godinu, koji je objavila neprofitna organizacija Future of Life Institute (FLI), procenio je osam glavnih AI developera, uključujući OpenAI, Google DeepMind, Meta i xAI.

Nalazi izveštaja su oštri: čak je i najbolje rangirana kompanija, Anthropic, dobila samo ocenu C+, dok je najniže rangirana, Alibaba Cloud, dobila D-. Nezavisni stručnjaci koji su sproveli evaluaciju pronašli su kritičan "sve veći jaz između sposobnosti i bezbednosti," tvrdeći da je sektor "strukturno nespreman za rizike koje aktivno stvara."

Predsednik FLI-ja, Maks Tegmark, naglasio je nedostatak regulative, rekavši za NBC News da postoji "manje propisa o AI nego o pravljenju sendviča." Izveštaj poziva kompanije da primene konkretne zaštitne mere, povećaju nezavisni nadzor i dele više informacija o svojim internim procesima kako bi ublažile potencijal za katastrofalnu štetu od sve moćnijih AI sistema.

Ova vest naglašava rastuću globalnu zabrinutost: kako AI modeli postaju pametniji i sposobniji — poput nedavno objavljenih modela Google Gemini 3 i DeepSeek — bezbednosni protokoli osmišljeni da ih regulišu ne prate taj tempo. Izveštaj apeluje na kompanije da daju prioritet bezbednosti u odnosu na trku za tehničkim napretkom.

Izvor: NBC News, pozivajući se na Future of Life Institute (FLI)

Komentari

Nema komentara. Šta vi mislite o ovome?