Zašto radnici koji obučavaju veštačku inteligenciju najmanje veruju u nju
Iako generativna veštačka inteligencija (AI) nastavlja da osvaja svet, raste zabrinutost među samim radnicima koji su zaduženi za njeno stvaranje i obuku. Paradoks je jasan: ljudi koji AI modele čine naizgled pouzdanim, često su oni koji im najmanje veruju. Stručnjaci upozoravaju da ova situacija ukazuje na to da podsticaji za brzi razvoj i puštanje proizvoda na tržište (brzina i profit) nadvladavaju bezbednost i pažljivu validaciju.
Kvalitet je žrtva brzine
Glavni razlog nepoverenja je dosledan naglasak na brzom vremenu obrade zadataka, što ide na štetu kvaliteta. Radnici, poput Brook Hansen (Amazon Mechanical Turk), ističu da su zaduženi za poboljšanje modela, ali im se često daju nejasna ili nepotpuna uputstva, minimalna obuka i nerealna vremenska ograničenja za obavljanje zadataka. Ona naglašava da takav jaz između očekivanja i onoga što je radnicima dato jasno ukazuje na to da kompanije daju prioritet brzini i profitu u odnosu na odgovornost i kvalitet.
Ovo nepoverenje se ogleda u direktnom savetovanju. Mnogi AI rateri – radnici koji proveravaju tačnost i utemeljenost odgovora četbotova i generatora slika – počeli su da upozoravaju prijatelje i porodicu da ne koriste generativnu AI uopšte, ili da je koriste izuzetno oprezno.
Opasnosti i etičke dileme
Radnici su svedočili iz prve ruke koliko neadekvatan izlaz može biti. Krista Pawloski, koja radi na Amazon Mechanical Turk-u, shvatila je potencijalnu opasnost kada je otkrila rasnu uvredu u tvitu za koji je umalo pogrešno označila da nije štetan. Ona je zbog toga odlučila da lično ne koristi generativne AI proizvode i zabranjuje svojoj ćerki korišćenje alata poput ChatGPT-a.
Osim opasnosti od propuštanja uvredljivog ili netačnog materijala, postoji zabrinutost i zbog neadekvatne raspodele zadataka. Neki rateri su opisali situacije u kojima su oni ili njihove kolege bez medicinske obuke procenjivali odgovore AI-a na medicinska pitanja.
Jedan od ključnih faktora koji utiče na nepouzdanost modela je loš kvalitet ulaznih podataka. Radnik koji je testirao Google-ov AI model, a koji se bavio istorijskim pitanjima, primetio je značajne pristrasnosti (na primer, model je odbijao da pruži informacije o istoriji palestinskog naroda, dok je bez problema davao opsežne informacije o istoriji Izraela). Ovaj radnik je sumirao problem poznatim principom iz kompjuterskog programiranja: „smeće unutra, smeće napolje“ ("garbage in, garbage out") – ako se u tehnički sistem unesu loši ili nepotpuni podaci, izlaz će imati iste nedostatke.
Nije futurističko, već krhko
Spoznaje AI radnika pretvaraju percepciju veštačke inteligencije iz „futurističke“ u „krhku“. Kada se uvide pristrasnosti, užurbani rokovi i stalni kompromisi u izradi ovih sistema, nestaje iluzija o magiji AI-a.
Radnici pozivaju javnost da postavlja etička pitanja o AI, poredeći situaciju sa tekstilnom industrijom pre podizanja svesti o radnim uslovima. Ključna pitanja koja treba postaviti su: Odakle dolaze vaši podaci? Da li je model izgrađen na kršenju autorskih prava? Jesu li radnici pošteno kompenzovani za svoj rad?.
Budući da se utvrdilo da je verovatnoća da će četbotovi ponoviti lažne informacije porasla (sa 18% na 35% između avgusta 2024. i avgusta 2025. godine), neophodno je da se kritičko razmišljanje primenjuje pri svakoj interakciji sa generativnom AI.
Izvor: Guardian
Komentari
Nema komentara. Šta vi mislite o ovome?