Strani

četrtek, 30. april 2026

Umetna inteligenca ne pozna organigramov: od digitalne preobrazbe k agentni državi

Agentna umetna inteligenca & World Economic Forum

Predstavljajte si znan prizor: državljan odda vlogo. Sistem jo sicer sprejme digitalno, a nato vloga začne svojo tiho romanje - med evidencami, oddelki, pristojnostmi in pravnimi podlagami. Postopek je na videz digitalen, v resnici pa še vedno razdrobljen, odvisen od ročnega usklajevanja in potrpežljivosti vseh vpletenih.

Kaj pa, če umetna inteligenca ne bi bila zgolj sogovornik na drugi strani zaslona, temveč aktivni pomočnik, ki zna postopek voditi od začetka do konca?

Najnovejše poročilo Svetovnega gospodarskega foruma Kako naj UI agenti  delujejo za vlado - Making Agentic AI Work for Government odpira prav to vprašanje - in ponuja precej neintuitiven odgovor: problem ni tehnologija. Problem je, kje začnemo.

Prav tu vstopi pojem agentne umetne inteligence. To ni več zgolj klepetalnik, ki prijazno odgovori na vprašanje, niti navadna avtomatizacija, ki slepo sledi vnaprej napisanim korakom. Gre za sisteme, ki lahko v določenem okviru načrtujejo, izvajajo več zaporednih dejanj, uporabljajo podatke in orodja ter se prilagajajo kontekstu. V jeziku javne uprave: ne pomagajo le pri posamezni nalogi, temveč lahko sodelujejo pri vodenju celotnega delovnega toka.

Kaj je agentna umetna inteligenca

V razpravah o umetni inteligenci se pogosto ustavimo pri generativnih modelih - tistih, ki znajo napisati besedilo, povzeti dokument ali odgovoriti na vprašanje. V javni upravi so takšna orodja lahko koristna, vendar ostajajo na ravni podpore posamezni nalogi; ne vodijo postopka, ne prevzemajo odgovornosti za zaporedje dejanj in - kar je pravno ključno - ne posegajo bistveno v strukturo odločanja.

Agentna umetna inteligenca pomeni korak naprej.

Gre za sisteme, ki lahko v okviru vnaprej določenih pravil in omejitev samostojno načrtujejo, izvajajo večstopenjske procese, uporabljajo različne podatkovne vire in orodja ter se sproti prilagajajo kontekstu. Namesto enkratnega odziva na vprašanje so sposobni izvesti zaporedje dejanj: preveriti podatke, zaznati manjkajoče informacije, sprožiti nadaljnje korake in pripraviti podlage za odločanje.

Ključna razlika ni zgolj v tehnološki zmogljivosti, temveč v naravi delovanja. Če je klasična avtomatizacija (Robotic Process Automation, RPA) vezana na vnaprej določene scenarije, generativna umetna inteligenca pa na ustvarjanje vsebine, agentna umetna inteligenca združuje oboje - in dodaja element usmerjenega delovanja. Deluje z določenim ciljem in v njegovem okviru koordinira več korakov postopka.

Prav ta sposobnost večstopenjskega delovanja pa odpira tudi temeljna pravna vprašanja. Agentna umetna inteligenca ne vpliva več le na to, kako je odločba zapisana, temveč lahko vpliva na to, kako se postopek vodi. In ko govorimo o vodenju postopkov, govorimo o jedru upravnega prava: o pravicah posameznika, zakonitosti ravnanja in odgovornosti nosilcev javnih pooblastil.

Zato agentne umetne inteligence v javni upravi ne moremo razumeti kot “naprednejšega orodja”. Bolj natančno jo je razumeti kot digitalnega pomočnika, ki deluje z omejeno avtonomijo - v okviru jasno določenega mandata, pod človeškim nadzorom in z možnostjo, da človek kadar koli poseže v proces.

Če torej generativna umetna inteligenca odgovarja na vprašanja, agentna umetna inteligenca pomaga voditi postopke. In prav v tej razliki se skriva njen potencial - pa tudi njeno tveganje.

Zakaj je to pomembno za javno upravo?

Javna uprava je v svojem operativnem bistvu mreža postopkov: zaporedij preverjanj, odločitev, pravnih podlag in usklajevanj, ki skupaj vodijo do konkretnega izida za posameznika. Prav zato vsaka tehnološka sprememba, ki poseže v te postopke, ni le organizacijsko ali tehnično vprašanje - marveč tudi pravno.

Agentna umetna inteligenca je v tem smislu prelomna, ker ne posega le v posamezne korake, temveč v povezovanje celotnega procesa. Namesto da bi avtomatizirali en obrazec ali eno preverjanje, lahko sistemi začnejo usmerjati tok postopka: od prejema vloge do priprave podlage za odločitev.

To pomeni premik od avtomatizacije nalog k usmerjenosti v izide. In prav ta premik je za pravo bistven.

V klasičnem upravnem postopku je odgovornost razmeroma jasno razporejena: kdo vodi postopek, kdo ugotavlja dejstva, kdo odloča. Če pa posamezne korake postopka začne usklajevati sistem, ki deluje čez več evidenc, organov in pravil, se postavi vprašanje: kje v tej verigi pravzaprav nastane odločitev – in kdo zanjo odgovarja?

Poleg vprašanja odgovornosti se odpirajo tudi druga temeljna pravna vprašanja:

  • Zakonitost: ali sistem deluje v skladu z veljavno pravno podlago ali zgolj na podlagi podatkovnih vzorcev?
  • Preglednost: ali je mogoče razumeti, zakaj je bil določen korak izveden ali predlagan?
  • Pravica do pravnega sredstva: kako posameznik izpodbija odločitev, pri kateri je sodeloval agentni sistem?
  • Varstvo osebnih podatkov: kako se zagotavlja sorazmerna in zakonita uporaba podatkov, če sistem samostojno povezuje več virov?

Poročilo Svetovnega gospodarskega foruma pri tem ponuja pomembno orientacijo: ključni izziv ni več, ali tehnologija deluje, temveč kje jo je smiselno in dopustno uporabiti.

Z drugimi besedami: vprašanje javne uprave ne se biti "katero orodje naj uvedemo", temveč "kateri postopki imajo dovolj javne vrednosti in dovolj obvladljiva tveganja, da jih lahko podpre agentna umetna inteligenca".

In prav tu se začne strateško – in pravno – najzahtevnejši del.

Funkcije, ne ministrstva

Če je agentna umetna inteligenca sposobna povezovati celoten postopek, potem se moramo vprašati še nekaj bolj neprijetnega: ali so naši obstoječi načini organizacije javne uprave sploh pravi okvir za njeno uvedbo?

Tradicionalno razmišljamo v kategorijah organov, resorjev in pristojnosti. Pravo je na tej logiki tudi zgrajeno: vsak organ ima svojo nalogo, svoje evidence in svojo odgovornost. Tehnologija pa - zlasti agentna umetna inteligenca - tega sveta ne pozna. Deluje tam, kjer so podatki, pravila in procesi, ne glede na to, v katerem resorju uprave se nahajajo.

Zato poročilo Svetovnega gospodarskega foruma predlaga pomemben premik: začnimo razmišljati o  funkcijah, ne o institucijah.

Funkcije so ponavljajoči se delovni tokovi, ki se pojavljajo v različnih delih javne uprave: obravnava vlog, preverjanje upravičenosti, upravljanje dokumentov ali zaznavanje goljufij. Ne pripadajo enemu organu, temveč potekajo tako horizontalno kot vertikalno, pogosto celo čez več njih. In prav ta njihova lastnost predstavlja ključno premiso za agentno umetno inteligenco.

Premik zato ni le organizacijski, temveč globoko pravni.

Če začnemo razmišljati v funkcijah, se začnejo mehčati tudi klasične meje odgovornosti. Kdo je odgovoren za funkcijo, če ta vključuje več organov? Kako zagotoviti enotno uporabo pravil, če sistem povezuje različne pravne podlage? In kako zagotoviti pravno varstvo posameznika, če postopek ni več pod izključno jurisdikcijo zgolj enega organa?

Po drugi strani pa ima ta pristop tudi pomembne prednosti.

Prvič, omogoča bolj realističen pogled na delovanje javne uprave. Postopki v praksi nikoli niso povsem zaprti znotraj enega organa - praviloma vedno vključujejo izmenjavo podatkov, preverjanje v drugih evidencah in usklajevanje pristojnosti.

Drugič, odpira prostor za standardizacijo. Če enkrat razumemo funkcijo (npr. obravnavo vlog) kot ponovljiv proces, jo lahko izboljšujemo, nadgrajujemo in - z ustreznimi varovalkami - tudi podpremo z agentnimi sistemi.

In tretjič, omogoča bolj premišljeno uvajanje umetne inteligence. Namesto nepovezanih pilotnih projektov, ki sledijo organizacijskim mejam ali modnim trendom, lahko država identificira procese, kjer je javna korist največja in tveganja obvladljiva.

Seveda pa ta pristop zahteva tudi nekaj poguma.

Razmišljati v funkcijah pomeni priznati, da organigram ni nujno najboljši zemljevid realnega delovanja uprave - n to je za pravnike, roko na srce, skoraj tako boleče kot za informatikе.

A če želimo agentno umetno inteligenco uporabljati smiselno, se bomo morali naučiti gledati javno upravo ne le skozi prizmo pristojnosti, temveč tudi skozi prizmo procesov.

Kje začeti?

Ko enkrat sprejmemo, da agentna umetna inteligenca sodi v procese in ne v organigrame, se pojavi naslednje, povsem operativno vprašanje: kje začeti?

To je pravzaprav ključno vprašanje celotnega poročila Making Agentic AI Work for Government; ne zato, ker tehnologija ne bi bila dovolj zrela, temveč zato, ker so tveganja napačne uvedbe zelo realna - in v javni upravi preprosto nedopustna. Prehiter ali nepremišljen začetek lahko pomeni izgubo zaupanja, neučinkovite investicije in - kar je za javno upravo najnevarneje - pravne zaplete brez jasnega nosilca odgovornosti.

Poročilo zato predlaga pragmatičen pristop: funkcije javne uprave razdeli glede na njihovo pripravljenost za uporabo agentne umetne inteligence, pri čeme pripravljenosti ne utemeljuje s tehničnim vidikom, pač pa s kombinacijo dveh vprašanj:

  1. kolikšno javno vrednost lahko uporaba prinese, in
  2. kako zahtevna ter tvegana je njena uvedba.

Glede na rezultate Poročilo naslavlja tri skupine funkcij.

Prva skupina: visoka pripravljenost

To so funkcije, kjer so podatki razmeroma strukturirani, postopki ponovljivi, tveganja pa obvladljiva. Sem sodijo na primer zagotavljanje dostopa do javnih informacij, upravljanje čakalnih vrst, spremljanje delovanja sistemov ali validacija dokumentov. Gre za področja, kjer lahko agentna UI hitro pokaže dodano vrednost, ne da bi pri tem bistveno posegla v pravice posameznika.

Pravno gledano so to “varnejša” okolja: napake so praviloma popravljive, vpliv na pravni položaj posameznika pa omejen.

Druga skupina: srednja pripravljenost

Tu najdemo funkcije zaznavanja goljufij, podpore zakonodajnim postopkom, izračun upravičenj ipd. Potencial je velik, vendar so tu že prisotna resnejša pravna in etična vprašanja - od varstva osebnih podatkov do tveganja napačnih odločitev (kot npr. zloglasni nizozemski primer "toeslagenaffaire").

Takšne funkcije zahtevajo postopno uvajanje, dodatne varovalke in praviloma tudi spremembe organizacijskih praks.

Tretja skupina: nizka pripravljenost

Sem sodijo najbolj občutljive funkcije: odločanje o upravičenosti, preiskovalne dejavnosti, krizno upravljanje ali dodeljevanje javnih sredstev. Ne zato, ker UI tu ne bi bila uporabna, temveč zato, ker so pravna tveganja visoka, posledice napak pa lahko resne ali celo nepopravljive.

Na teh področjih agentna UI (vsaj za zdaj) praviloma ostaja predvsem predmet spremljanja, testiranja in zelo omejenih pilotov.

WEF Poročilo zato zaljučuje preprosto: ne začnimo tam, kjer je tehnologija najbolj impresivna, temveč tam, kjer je pravno in organizacijsko najbolj obvladljiva.

Za javno upravo to pomeni tudi določeno spremembo miselnosti. Uspeh uvedbe ne bo merjen po tem, kako napreden je sistem, temveč po tem, ali izboljšuje delovanje postopkov, ne da bi pri tem ogrozil zakonitosti, pravne varnosti in zaupanja. Z malo humorja: Včasih zna biti najbolj modra inovacija tista, ki je dovolj dolgočasna, da si jo upajo podpisati celo pravniki.

Sloveniji v razmislek

Poročilo Svetovnega gospodarskega foruma ponuja uporaben zemljevid, ne trudi pa se postati načrt poti. In prav v tem je njegova največja vrednost: ne predpisuje rešitev, temveč odpira prostor za razmislek.

Vsaka država mora namreč vprašanje agentne umetne inteligence rešiti v lastnem institucionalnem, pravnem in podatkovnem kontekstu. Tisto, kar je v enem okolju visoko pripravljeno za uvedbo, je lahko drugje pravno ali organizacijsko prezahtevno.

Slovenija ima pri tem zanimivo izhodišče.

Po eni strani gre za razmeroma majhen sistem, kjer so povezave med evidencami in organi - vsaj načeloma - lažje obvladljive kot v velikih, fragmentiranih državah. Poleg tega Slovenija razpolaga z nekaterimi izrazito kakovostnimi temeljnimi podatkovnimi viri: od centralnega registra prebivalstva do prostorskih in nepremičninskih evidenc Geodetske uprave, zemljiške knjige in katastra nepremičnin, Poslovnega registra Slovenije ter podatkovnih sistemov v kmetijstvu, kjer se pri upravljanju in nadzoru ukrepov skupne kmetijske politike že uporablja integrirani administrativni in kontrolni sistem, vključno s sistemom za spremljanje površin (AMS). Po drugi strani pa prav ta majhnost pomeni tudi omejene kadrovske in finančne vire ter večjo občutljivost na napake.

Zato bi bilo smiselno začeti tam, kjer lahko država pridobi največ z najmanjšim tveganjem. To so predvsem funkcije, ki so:

  • podatkovno razmeroma urejene,
  • pravno manj občutljive,
  • in operativno ponovljive.

Na primer: pomoč državljanom pri dostopu do informacij, validacija dokumentov, spremljanje kakovosti storitev ali podpora notranjim procesom uprave. Gre za področja, kjer lahko agentna umetna inteligenca razbremeni javne uslužbence, ne da bi pri tem posegla v samo jedro odločanja.

Hkrati pa bi morala Slovenija - morda še bolj kot večje države - posebno pozornost nameniti pravnim okvirjem. Ne zato, ker bi pravo zaviralo inovacije, temveč zato, ker je prav pravo tisto, ki omogoča njihovo legitimnost. Brez jasnih pravil o odgovornosti, nadzoru, preglednosti in pravnem varstvu posameznika tudi najboljši tehnološki sistemi ostanejo brez družbenega zaupanja.

Pri tem se odpira tudi širše vprašanje: ali bomo umetno inteligenco v javni upravi razumeli kot orodje za optimizacijo obstoječega sistema ali kot priložnost za njegov premislek?

Agentna umetna inteligenca namreč ne sili le v tehnične prilagoditve, temveč v razmislek o tem, kako država deluje. Kje nastajajo nepotrebni koraki? Kje so postopki preveč zapleteni? In kje bi lahko tehnologija pomagala, ne da bi pri tem zmanjšala pravno varnost?

Majhna država ima tu lahko nepričakovano prednost: večjo agilnost.

Če bo Slovenija pristopila k uvedbi agentne umetne inteligence premišljeno, postopno in z jasnim poudarkom na javnem interesu, lahko postane laboratorij odgovorne uvedbe – ne zato, ker bi bila tehnološko najnaprednejša, temveč zato, ker bi znala tehnologijo umestiti v pravni in družbeni okvir.

In to je, konec koncev, tudi bistveno.

Prihodnost javne uprave ni v tem, da človeka odstranimo iz postopkov, temveč da ga osvobodimo tistega dela dela, ki mu jemlje čas, ne da bi dodajal vrednost. Agentna umetna inteligenca je lahko korak v to smer - če ostane tam, kjer mora biti: v službi prava, ne nad njim.