Tehnološki svet se proteklih dana našao u središtu burne rasprave koju je pokrenuo Robert Jusef svojom prilično oštrom tvrdnjom. On smatra da je čak 99% svih prikaza AI agenata zapravo obična marketinška varka, gde se tri uzastopna poziva ka ChatGPT servisu prodaju kao revolucionarna autonomna inteligencija. Ova debata je dobila na težini kada je Google objavio svoj obimni tehnički vodič, u kojem se jasno objašnjava koliko je trenutna ponuda na tržištu daleko od ozbiljnih, produkcionih rešenja.
Vodič pod nazivom „Startup Technical Guide: AI Agents“ na 64 stranice povlači oštru granicu između sistema koji su napravljeni samo za pokazivanje i onih koji su zaista sposobni da rade u realnim uslovima.
Sterilni uslovi protiv surove realnosti
Robert Jusef je to slikovito opisao rekavši da demo verzije funkcionišu isključivo u kontrolisanim, laboratorijskim okruženjima gde su svi podaci savršeno poređani i predvidivi. Nasuprot tome, stvarni rad podrazumeva nepredvidive korisnike i sistemske kvarove koji se dešavaju u gluvo doba noći, dok većina današnjih rešenja nema nikakve mehanizme zaštite za takve situacije.
Google naglašava da prava vrednost nije u samom odgovoru veštačke inteligencije, već u infrastrukturi koja prati taj rad, meri pouzdanost i reaguje kada stvari krenu po zlu.
Arhitektura koja pravi razliku
Da bi jedan sistem zaista mogao da se nazove autonomnim agentom, on mora da prati jasne inženjerske obrasce umesto da se oslanja na puko nizanje upita. Google u svom dokumentu izdvaja tri ključna pristupa:
- Sekvencijalni sistemi: Oni koji zadatke obavljaju korak po korak, prateći strogo definisanu logiku procesa.
- Paralelni sistemi: Rešenja koja istovremeno pokreću više operacija kako bi brže došla do rezultata.
- Sistemi sa povratnom petljom: Najnapredniji modeli koji samostalno proveravaju svoj rad i ispravljaju greške dok ne postignu zadati nivo kvaliteta.
Bez razumevanja ovih osnova, kompanije rizikuju da naprave sisteme koji su impresivni na ekranu, ali potpuno neupotrebljivi u svakodnevnom poslovanju.
Kada AI „poludi“ i napravi račun od 47.000 dolara
Odsustvo kontrole u svetu veštačke inteligencije može biti izuzetno skupo, o čemu svedoči i primer incidenta gde je jedan loše programiran agent ušao u beskonačno ponavljanje operacija. Zbog nedostatka osigurača, taj sistem je za veoma kratko vreme napravio trošak od 47.000 dolara kroz račune za korišćenje API usluga.
Upravo zato Google insistira na uvođenju strogih pravila za potrošnju resursa, jer produkcijski sistemi moraju imati ugrađene limite koji će zaustaviti proces čim primete da se troškovi gomilaju bez jasnog rezultata.
Inženjerstvo ispred puke mašte
Glavna poruka novog vodiča je da razvoj AI agenata više nije samo kreativno pisanje upita, već punokrvan softverski projekat. To zahteva ozbiljno testiranje, stalni nadzor i infrastrukturu koja može da podnese hiljade operacija bez gubitka na kvalitetu.
Podaci kompanije McKinsey pokazuju da su investicije u ovaj sektor premašile milijardu dolara, ali veliki igrači poput Amazona i Yahooa sada moraju da dokažu da njihova rešenja nisu samo „maskirani“ četbotovi. Pouzdanost i bezbednost podataka postaju važniji od same brzine kojom nam veštačka inteligencija odgovara na pitanja.
Pitanje koje svako mora da postavi
Jusef je svoju analizu završio direktnim izazovom za sve programere, a to je da se zapitaju da li bi njihov proizvod preživeo sutrašnji dan u stvarnoj produkciji. Put od zanimljive igračke do digitalnog kolege koji samostalno završava poslove vodi preko ozbiljnog inženjeringa, a ne preko prečica koje nudi marketing.
U svetu gde AI preuzima sve odgovornije uloge, pobediće oni brendovi koji umesto obećanja ponude stabilnost i proverljive rezultate.





