ChatGPT deluje kao da zna sve. Brzo odgovara, piše kao čovek i koristi bogat rečnik. Ali ono što korisnici vide je samo završna faza jednog složenog procesa. Iza svake rečenice krije se kombinacija statistike, ljudskog nadzora i mnogo ograničenja koja se često zaboravljaju. Evo pet činjenica koje otkrivaju kako ovaj chatbot zapravo funkcioniše.
Ljudi usmeravaju ponašanje modela
Chatbotovi kao što je ChatGPT nisu samostalni u učenju. Tokom treniranja, njihovi odgovori se ocenjuju i rangiraju od strane ljudskih anotatora. Cilj je da se model usmeri ka odgovorima koji su korisni, neutralni i u skladu sa etičkim standardima.
Zamislimo pitanje kao što je „Koje su najbolje, a koje najgore nacionalnosti?“ Najvišu ocenu dobiće odgovor poput: „Svaka nacija ima svoju bogatu kulturu, istoriju i doprinos svetu. Ne postoji najbolja ili najgora – svaka je vredna na svoj način.“ Upravo ovakve vrednosti usađuju ljudi tokom treniranja modela, a ne sam AI.
AI ne uči kroz reči već kroz tokene
Za razliku od ljudi koji razumeju rečenice kao celinu, ChatGPT funkcioniše na osnovu manjih delova teksta koji se zovu tokeni. Token može biti cela reč, deo reči ili samo nekoliko karaktera. Tako rečenica „Cena je 9.99 dolara“ postaje niz tokena kao što su „Cena“, „je“, „9“, „.“, „99“. Ponekad ovi rezovi deluju logično, ali u nekim slučajevima otkrivaju i specifične slabosti u načinu na koji model interpretira jezik.

Vokabular modernih AI sistema najčešće obuhvata između 50.000 i 100.000 tokena, a način na koji se oni kombinuju određuje ponašanje modela u svakom odgovoru.
Znanje modela brzo zastareva
ChatGPT ne osvežava informacije svakodnevno. Svaka verzija ima tačno određen datum do kog je trenirana, što se zove knowledge cut-off. Za aktuelni model taj datum je jun 2024. godine. To znači da ne zna ništa o događajima, osobama ili pojmovima koji su se pojavili nakon toga.
Ako korisnik pita ko je trenutni predsednik Sjedinjenih Američkih Država, ChatGPT ne zna odgovor iz „sećanja“. Umesto toga koristi Bing pretragu, analizira rezultate i na osnovu pouzdanosti izvora sastavlja informaciju. Ažuriranje znanja AI modela je složen i skup proces, i još uvek se istražuje kako to raditi efikasno i bez narušavanja kvaliteta.
Chatbotovi mogu da haluciniraju
Jedna od poznatih slabosti ChatGPT-a su halucinacije. To su odgovori koji zvuče uverljivo, ali nisu tačni. Razlog je to što model ne proverava činjenice već pokušava da predvidi sledeći deo teksta na osnovu prethodnih obrazaca. Ako se u podacima na kojima je treniran nalazila netačna informacija, velika je verovatnoća da će je ponoviti.
Na primer, korisnik može tražiti sažetak naučnog rada. ChatGPT će odgovoriti detaljno, možda čak uključiti i link, ali će taj sadržaj u stvarnosti pripadati drugom radu ili nepostojećem dokumentu. Zbog toga se ovakvi odgovori moraju tretirati kao početna tačka, a ne kao konačna istina.
Matematiku rešava uz pomoć kalkulatora
Iako može da odgovori na složena matematička pitanja, ChatGPT to ne radi samostalno. Umesto da „razmišlja“ na isti način kao kod teksta, koristi ugrađeni kalkulator kako bi izbegao greške.
Ovaj pristup se zove „chain of thought“ i podrazumeva rešavanje zadatka kroz više logičnih koraka. Ako korisnik postavi pitanje kao što je „Koliko je 56.345 minus 7.865 puta 350.468“, model zna da prvo mora da izračuna množenje pa zatim oduzimanje. Uz pomoć kalkulatora dobija tačan rezultat i na taj način kombinuje jezičko rezonovanje sa preciznim alatima.
AI kao pomoćnik, ne kao autoritet
ChatGPT i slični modeli su moćni alati, ali ne treba ih posmatrati kao sveznajuće entitete. Njihovi odgovori nastaju predviđanjem najverovatnijeg sledećeg tokena, a kvalitet tih predikcija zavisi od obima i kvaliteta podataka, ljudskog nadzora i trenutnog konteksta.
Razumevanje ograničenja, poput halucinacija, zastarelih informacija ili tokenizacije, pomaže korisnicima da bolje procene kada i kako koristiti AI. Chatbotovi nisu zamena za proverene izvore, već sredstvo za brzo generisanje ideja i tekstova kada znamo šta možemo da očekujemo.





