Kategorije

AI Alati

Tagovi

Kontakt

O sajtu AIZONA

Prijava

Registracija

Psihologija nepoverenja u veštačku inteligenciju

Oblast: Razno |          
Sreda, 5. novembar 2025. 07:16
Autor: AIZona

Psihologija nepoverenja u veštačku inteligenciju

Od ChatGPT-ja koji nam pomaže da sastavimo mejlove, preko sistema koji nam preporučuju serije za gledanje, pa sve do alata koji pomažu u dijagnostici bolesti – prisustvo veštačke inteligencije u našem svakodnevnom životu više nije naučna fantastika. Ona je svuda oko nas, obećavajući brzinu, tačnost i optimizaciju svega što radimo.

Pa ipak, uprkos svim obećanjima, kod mnogih ljudi postoji neka vrsta nelagode. Dok jedni sa entuzijazmom koriste AI alate, drugi osećaju anksioznost, sumnju, pa čak i neku vrstu izdaje. Zašto? Odgovor ne leži samo u tehnologiji, već u načinu na koji mi, ljudi, funkcionišemo. Ovaj članak istražuje pet ključnih psiholoških razloga koji objašnjavaju naše duboko ukorenjeno nepoverenje prema veštačkoj inteligenciji.

Stroži smo prema mašinama nego prema ljudima

Da li ste znali da ljudi često preferiraju manjkavo ljudsko prosuđivanje u odnosu na odluke algoritama? Ovaj fenomen, poznat kao averzija prema algoritmima, pokazuje da smo posebno kritični prema AI, naročito nakon što vidimo i samo jednu njenu grešku. Ljudi su skloni da odbace algoritam kao nepouzdan, dok bi istu grešku čoveku lakše oprostili.

Ključ je u nečemu što se zove kršenje očekivanja. Od mašina očekujemo da budu savršeno logične, objektivne i nepristrasne. Zato, kada algoritam napravi grešku – bilo da pogrešno klasifikuje sliku ili da pristrasne rezultate – naša reakcija je mnogo oštrija. Osećamo se iznevereno jer je mašina prekršila osnovno pravilo koje smo joj (prećutno) postavili. Ironija je u tome što su ljudi stalno skloni greškama. Kada čovek pogreši, mi to razumemo, pa čak možemo i da saosećamo. Ali kada algoritam pogreši, naša tolerancija nestaje.

Tretiramo AI kao osobu (i to nas plaši)

Iako racionalno znamo da veštačka inteligencija nema svest, emocije ili skrivene namere, naš mozak se često ponaša kao da ih ima. Ovaj proces se naziva antropomorfizam – sklonost da neljudskim sistemima pripisujemo ljudske osobine. Profesori komunikacije Kliford Nas i Bajron Rivs su među prvima dokazali da mi sa mašinama ostvarujemo društvenu interakciju, čak i kada znamo da one nisu ljudi.

To dovodi do čudnih situacija. Kada je ChatGPT "previše ljubazan", nekim korisnicima to deluje jezivo. Kada algoritam za preporuke postane toliko precizan da pogađa naše najskrivenije želje, osećamo se kao da nas neko špijunira. Počinjemo da sumnjamo u manipulaciju, iako sistem nema nikakvu nameru ili "sopstvo" koje bi moglo da manipuliše. Upravo ta ljudska interpretacija nas čini podozrivim i plaši nas.

Ugrožava naš osećaj identiteta

Za profesije poput nastavnika, pisaca, pravnika ili dizajnera, pojava veštačke inteligencije nije samo još jedna alatka za automatizaciju. To je tehnologija koja direktno replicira veštine koje čine srž njihovog profesionalnog identiteta i stručnosti.

Ovo može aktivirati snažnu psihološku reakciju poznatu kao pretnja identitetu, koncept koji je istraživao socijalni psiholog Klod Stil, a koji opisuje strah da nečija jedinstvenost, znanje i vrednost postaju manje važni. Kao rezultat, javlja se otpor, defanzivnost ili potpuno odbacivanje tehnologije. U ovom kontekstu, nepoverenje nije greška ili iracionalan strah; ono je psihološki odbrambeni mehanizam koji štiti naš osećaj sopstvene vrednosti.

Ne možemo da joj "pročitamo" namere

Ljudsko poverenje se gradi na suptilnim, neverbalnim signalima. Mi "čitamo" ton glasa, izraze lica, kontakt očima i oklevanje da bismo procenili da li nekome možemo verovati. Veštačka inteligencija nema ništa od toga. Može biti elokventna, pa čak i šarmantna, ali ne može da nas umiri na način na koji to čini druga osoba.

Ova nelagoda je slična konceptu poznatom kao "sablasna dolina" (uncanny valley), termin koji je skovao japanski robotičar Masahiro Mori da opiše jezivi osećaj koji imamo kada je nešto skoro ljudsko, ali ne sasvim. Izgleda i zvuči kako treba, ali nešto jednostavno nije na svom mestu. Odsustvo emocija kod AI može se tumačiti kao hladnoća, ravnodušnost ili čak prevara. U svetu u kojem su deepfakes i algoritamske odluke sve češći, taj nedostatak emocionalne rezonance postaje ozbiljan problem.

To je "crna kutija" koju ne možemo da preispitamo

Ljudi veruju sistemima koje razumeju. Okrenete ključ i automobil se pokrene. Pritisnete dugme i lift stigne. Postoji jasan odnos uzroka i posledice. Međutim, mnogi AI sistemi funkcionišu kao "crne kutije". Unesete podatke, a sistem izbaci odluku, dok je logika koja stoji između potpuno skrivena.

Psihološki, ovo je veoma uznemirujuće. Nemogućnost da vidimo proces donošenja odluke i da je preispitamo čini da se osećamo nemoćno. Želimo da razumemo "zašto" iza neke odluke, a kada nam je to uskraćeno, rađa se nepoverenje.

Ironija? Ljudi stalno donose pogrešne odluke. Ali barem možemo da ih pitamo "zašto?"

Od crne kutije do otvorenog razgovora

Važno je reći da sumnja prema veštačkoj inteligenciji nije uvek iracionalna. Postoje dokazi da algoritmi odražavaju i pojačavaju ljudske predrasude u osetljivim oblastima kao što su zapošljavanje, policijski rad ili odobravanje kredita. U tim slučajevima, nepoverenje nije paranoja, već oprez stečen iskustvom, poznat kao naučeno nepoverenje.

Reći ljudima da "veruju sistemu" retko kad uspe. Poverenje se mora zaslužiti. To znači da AI alati moraju biti transparentni, podložni preispitivanju i odgovorni. Moraju korisnicima pružiti osećaj kontrole, a ne samo pogodnosti. Na kraju krajeva, da bismo prihvatili veštačku inteligenciju, ona mora da se oseća manje kao "crna kutija", a više kao razgovor u koji smo pozvani da se uključimo.

Izvor: https://theconversation.com/why-do-some-of-us-love-ai-while-others-hate-it-the-answer-is-in-how-our-brains-perceive-risk-and-trust-268588

Komentari

Nema komentara. Šta vi mislite o ovome?