Umetna inteligenca pod nadzorom človeka: Ključ do zaupanja
* Prvič objavljeno v reviji Novičnik Ministrstva za digitalno preobrazbo, št. 05/2025, str. 10, 30. maj 2025
Umetna inteligenca pod nadzorom človeka: ključ do zaupanja
Predstavljajte
si, da pridete v kavarno. Naročite kavo. Barista prikima, molči in začne
delati. Natančno, mehansko, brez napake. Latte je popoln. Edina posebnost:
človeka ni nikjer. Za pultom stoji – stroj. Popoln. Hladen. Brez napitnine.
In vas nekaj
stisne. Ne zaradi kave – ta je odlična – ampak zaradi občutka, da vas je nekdo
izrezal iz enačbe. Da je nekdo nekje odločil, da človek v tej izmenjavi ni več
potreben.
Dobrodošli v
prihodnost?
Scenarij
ponazarja eno izmed ključnih vprašanj pri uporabi umetne inteligence (UI): Kako
zagotoviti, da tehnologija deluje v skladu z našimi vrednotami in pričakovanji.
Evropska unija je s sprejetjem Akta o umetni inteligenci naslovila to vprašanje
z uvedbo zahteve po "človeškem nadzoru" pri uporabi sistemov UI.
Človeški nadzor – kje, kdaj in zakaj
Akt o umetni
inteligenci (Uredba (EU) 2024/1084), ki je avgusta 2024 stopil v veljavo kot
prvi celovit pravni okvir za urejanje UI na svetu, si prizadeva zagotoviti, da
so umetnointeligenčni sistemi v EU varni, pregledni, sledljivi,
nediskriminatorni ter skladni s temeljnimi pravicami in vrednotami Unije.
Najpomembnejši
element nadzora – človek sam – je postavljen v središče 14. člena Akta o UI. Ta
določa, da mora imeti človek dejansko moč za posredovanje: ne zadostuje, da
zgolj kot nekakšen sodobni stražar sedi ob stroju, temveč mora razumeti
delovanje sistema, imeti možnost njegove prekinitve, prilagoditve in – ja –
tudi prevzeti odgovornost.
Namen je
zagotoviti, da UI ne deluje popolnoma samostojno pri odločanju, kadar so
posledice lahko resne za posameznika. Povedano drugače: Ne gre za to, da robot
ne zna. Gre za to, da robot ne sme odločati sam, kadar je v igri
človekovo dostojanstvo. To pomeni, da mora biti človek vključen v vse ključne
faze delovanja sistema UI, kot so:
- Preventivni nadzor (spremljanje):
Sistem mora biti
zasnovan tako, da omogoča učinkovit nadzor s strani oseb, ki so ustrezno
usposobljene.
- Posredovanje: V primeru nepričakovanih ali
neželenih rezultatov mora imeti človek možnost posredovati in prilagoditi
delovanje sistema.
- Odgovornost: Končna odgovornost za odločitve
sistema UI mora vedno ostati pri človeku, kar zagotavlja, da se morebitne
napake ali zlorabe lahko ustrezno naslovijo.
Priloga III Akta
o UI natančno določa vrste sistemov, ki veljajo za visoko tvegane – in za
katere je človeški nadzor obvezen del skladnosti. Ta pristop zagotavlja, da UI
deluje kot orodje v rokah človeka, ne pa kot avtonomni subjekt brez nadzora.
Praktična izvedba in izzivi
Uvajanje
človeškega nadzora v prakso odpira vrsto izzivov. Ključno je zagotoviti, da so
osebe, odgovorne za nadzor, ustrezno usposobljene ter da razumejo delovanje
umetne inteligence (člen 14(4) Akta o UI). Enako pomembno je, da imajo dostop
do potrebnih orodij in informacij, ki omogočajo učinkovito spremljanje in
posredovanje. Z drugimi besedami: sistem mora biti dovolj pregleden, da človek
razume njegovo logiko in morebitne posledice odločitev.
Ob tem je potrebno
upoštevati tudi etični vidik: človeški nadzor ne sme biti zgolj formalnost,
temveč mora biti dejansko učinkovit in smiseln. Akt ne priznava pasivne
navzočnosti človeka kot zadostnega kriterija – zahteva je operativna, ne
simbolna. To pomeni, da morajo biti postopki zasnovani tako, da omogočajo
resničen vpliv na delovanje sistema UI, kadar je to potrebno.
Krepitev zaupanja v UI
Akt o umetni
inteligenci postavlja jasne meje in naloge. Zahteva po človeškem nadzoru ni
izraz nezaupanja do tehnologije, temveč sredstvo za krepitev zaupanja v njeno
uporabo. Ključno vprašanje prihodnosti bo, kako se bodo ta načela udejanjala v
praksi – in prav zato bo imelo sodelovanje med razvijalci, uporabniki in
regulatorji odločilno vlogo pri oblikovanju prihodnosti, vredne zaupanja.
Ko gre za človekove pravice in varnost, mora biti človek tisti, ki ima zadnjo besedo. Tehnologija naj služi človeku – in ne obratno. Če torej želimo okrepiti javno zaupanje in hkrati spodbujati odgovorne inovacije, je takšen pristop conditio sine qua non – nujen pogoj, brez katerega umetna inteligenca ne more postati trajnostni del družbe prihodnosti.