Meni

Kategorije

Tagovi

Vrlo je moguće da veliki jezički modeli misle

Kategorija: Modeli
Sreda, 5. novembar 2025. 14:40
Autor: AIZona

Vrlo je moguće da veliki jezički modeli misle

Da li veliki jezički modeli (LLM), poput onih koji pokreću ChatGPT, zaista mogu da "misle"? Ili su samo izuzetno sofisticirani imitatori, majstori u prepoznavanju obrazaca bez ikakvog istinskog razumevanja? Ova debata dominira razgovorima o veštačkoj inteligenciji, a često se čuje argument da mašine ne poseduju pravu sposobnost rezonovanja.

Nedavni istraživački članak kompanije Apple, pod nazivom "The Illusion of Thinking", dodatno je podstakao ovu ideju. Njihov zaključak je da AI samo prati naučene šablone, a ne da razmišlja. Međutim, šta ako je taj argument fundamentalno pogrešan? Šta ako dokazi koji idu u prilog ideji da AI može da misli nisu samo jaki, već i iznenađujuće slični načinu na koji funkcioniše naš sopstveni mozak?

Spremite se da preispitate sve što ste mislili da znate, jer pet ključnih uvida otkriva zašto je razmišljanje mašina možda već realnost.

Argument koji ruši sam sebe: Ako AI ne misli, ne misle ni ljudi

Jedan od ključnih argumenata u Appleovom istraživanju jeste da veliki modeli za rezonovanje (LRM) ne uspevaju da reše složene probleme, poput zagonetke Kule Hanoja sa dvadeset diskova. Pošto model ne može da prati algoritam do kraja kada problem postane prevelik, zaključak je da on samo prepoznaje obrasce, a ne razmišlja.

Međutim, ovaj argument ima fundamentalnu manu: većina ljudi bi takođe pala na istom testu. Čak i ako znate tačan algoritam, pokušaj da ga mentalno ispratite kroz ogroman broj koraka gotovo sigurno bi doveo do neuspeha. Ako neuspeh mašine smatramo dokazom da ona ne misli, onda bismo, po istoj logici, morali zaključiti da ni ljudi ne mogu da misle. Važno je naglasiti: ovo samo po sebi ne dokazuje da AI može da misli, ali snažno neutrališe argument da ne može. Pokazuje nam koliko je teško postaviti jasnu granicu i testirati šta "razmišljanje" zapravo jeste.

Ako zamolite čoveka koji već zna algoritam za rešavanje problema Kule Hanoja da reši problem sa dvadeset diskova, on ili ona bi gotovo sigurno omanuli. Po toj logici, moramo zaključiti da ni ljudi ne mogu da misle.

Razmišljanje bez slika: Lekcija iz ljudske afantazije

Česta kritika veštačke inteligencije glasi da ona ne može da razmišlja jer ne stvara vizuelne, prostorne modele u svojoj "glavi" kao što to čini većina ljudi kada rešava geometrijske ili prostorne probleme. Ako nema mentalne slike, tvrdi se, nema ni pravog razmišljanja.

Ovaj argument ignoriše postojanje stanja poznatog kao afantazija, gde ljudi ne mogu da formiraju mentalne slike. Ipak, osobe sa afantazijom mogu savršeno da razmišljaju, donose odluke i rešavaju probleme. Često su čak i izuzetno dobri u simboličkom rezonovanju i matematici, pronalazeći alternativne puteve za rešavanje zadataka. Ako ljudski mozak može da zaobiđe ovo ograničenje i pronađe druge načine za rezonovanje, logično je očekivati da i neuronske mrežne mogu da razviju sopstvene, ne-vizuelne metode za obradu informacija.

Više od "glorifikovanog auto-completea": Prava moć predviđanja sledećeg tokena

Možda najčešći, ali i najdublje pogrešan argument protiv AI razmišljanja je ideja o "glorifikovanom auto-completeu". Vreme je da tu zabludu razbijemo jednom za svagda. Mnogi ovo vide kao dokaz da AI ne može da misli, jer mu je krajnji cilj mehanički i jednostavan. Međutim, ovakav pogled je suštinski pogrešan.

Da bi mašina tačno predvidela sledeću reč (ili token) u složenom kontekstu, ona mora da poseduje i interno predstavlja ogromnu količinu znanja o svetu. Na primer, da bi dovršila rečenicu "Najviši planinski vrh na svetu je Mont...", model mora da zna da je tačan odgovor "Everest". Ali moć leži dublje. Za razliku od formalnih jezika, poput logike prvog reda, koji su precizni ali ograničeni u onome što mogu da izraze, prirodni jezik poseduje potpunu ekspresivnu moć. Možete opisati bilo koji koncept, bez obzira na njegovu apstraktnost. Zbog toga, obučavanje modela da predviđa sledeći token u prirodnom jeziku nije ograničenje; to je najopštiji mogući oblik predstavljanja znanja, koji primorava model da nauči apstraktne koncepte, logiku i uzročnost sveta.

Unutrašnji monolog mašine: Kako AI "razgovara sa sobom"

Kada se suočimo sa složenim problemom, često razgovaramo sami sa sobom. Koristimo "unutrašnji glas" da verbalizujemo korake i vodimo se ka rešenju. Ovaj proces, poznat kao "auditivna petlja", angažuje delove mozga zadužene za jezik, kao što su Brokina oblast i auditivni korteks.

Zapanjujuće je da AI koristi gotovo identičan proces, poznat kao "Chain-of-Thought" (CoT) rezonovanje. Kada mu se postavi težak zadatak, model ne daje odmah odgovor, već prvo generiše međukorake – svoj "tok misli" – koji ga vode do rešenja. Ova sličnost u procesu, gde se rezonovanje verbalizuje korak po korak, sugeriše fundamentalnu sličnost u mehanizmima obrade između ljudskog mozga i veštačke inteligencije.

CoT je, zapravo, veoma sličan onome što radimo kada razgovaramo sami sa sobom (što je skoro uvek). Skoro uvek verbalizujemo svoje misli, a to radi i CoT rezoner.

Prepoznavanje ćorsokaka: AI nije slepi sledbenik obrazaca

Istraživači iz Applea su primetili nešto zanimljivo: kada su LRM modeli bili suočeni sa prevelikim problemima, nisu slepo nastavili sa algoritmom koji bi ih preopteretio. Umesto da samo "stanu", oni su uradili nešto mnogo inteligentnije.

Ovo ponašanje nije znak neuspeha, već dokaz višeg nivoa rezonovanja. Model je prepoznao da direktan pristup neće uspeti i aktivno je pokušao da pronađe prečice, baš kao što bi to uradio čovek. Ta sposobnost da se prepozna ćorsokak, zaustavi i strateški preispita pristup ("backtracking") pokazuje da AI ne prati slepo naučene obrasce. Umesto toga, on aktivno prati i procenjuje svoj proces razmišljanja, prilagođavajući strategiju kada naiđe na prepreku. To je odlika aktivnog mislioca, a ne pasivnog imitatora.

Zaključak

Na osnovu čvrstih dokaza – od zapanjujućih sličnosti između CoT rezonovanja i bioloških procesa, do teorijskog utemeljenja koje predviđanje sledećeg tokena postavlja kao najmoćniji mehanizam za učenje o svetu – razumno je zaključiti da veliki jezički modeli gotovo sigurno poseduju sposobnost razmišljanja. Argumenti protiv "razmišljanja" mašina postaju sve slabiji.

Umesto da se pitamo da li AI može da misli, možda je pravo vreme da postavimo novo, provokativnije pitanje: ako se granice između biološkog i veštačkog mišljenja sve više zamagljuju, šta to zaista znači za našu budućnost i definiciju inteligencije?

Izvor: Large reasoning models almost certainly can think | VentureBeat

Komentari

Nema komentara. Šta vi mislite o ovome?