Unatoč snažnom porivu ljudi da umjetnoj inteligenciji pripisuju ljudske osobine, ti sustavi često pokazuju značajna ograničenja u svojim operativnim sposobnostima. Primarno ograničenje je ugrađeno u njihovom dizajnu: njihova sposobnost učenja strogo je ograničena.
Naši najsofisticiraniji sustavi umjetne inteligencije, modeli velikih jezika (LLM), zahtijevaju jasno razlikovanje između stjecanja znanja i njegove primjene, odnosno inferencije tog znanja. U osnovi, to su sekvencijalni i fiksni procesi – učenje je praćeno inferencijom. Praktično, jednom kada LLM završi svoju fazu učenja, prestaje stjecati nove informacije.
Od tog trenutka, LLM-ovi isključivo koriste stečeno znanje putem mehanizama inferencije. Ne usvajaju nove informacije osim ako nisu ponovno trenirani kroz proces poznat kao fino podešavanje.
Ipak, fino podešavanje predstavlja svoj vlastiti skup izazova. Ono iziskuje dodatne troškove i obično zahtijeva kompromis: model može inkorporirati nove informacije, ali to često ide na račun prethodno posjedovanog znanja.
Štoviše, skup podataka korišten za fino podešavanje je ključan. Kvaliteta i relevantnost skupa podataka izravno utječu na izlaz modela. Na primjer, budući da nije bilo dostupnog skupa podataka o lažnim vijestima u Hrvatskoj, koristili smo jedan iz Sjedinjenih Američkih Država. Unatoč prijevodu skupa podataka, ostaju značajne razlike u terminologiji i kontekstualnom okviru između SAD-a i Hrvatske. Na primjer, u raspravama o politici, američki diskurs često spominje ‘Kongres’, ‘Bijelu kuću’ i ‘Senat’, dok hrvatske rasprave mogu spominjati ‘Sabor’ ili ‘Predsjednika vlade’.