Strani

nedelja, 4. junij 2023

Temeljna listina o umetni inteligenci

 Pravni okvir umetne inteligence (UI) je še vedno v svoji zgodnji fazi. Kompleksni koncepti zasebnosti, preglednosti, odgovornosti in pravičnosti se zdijo v sistemu UI še toliko bolj izmuzljivi in vrzeli v pravni ureditvi se z napredkom UI zdijo le še večje. A vendarle je še zlasti v zasebnem sektorju zaznati močno iniciativo za samoureditev področja; saj ne, da si države, pa tudi mednarodne organizacije, ne bi že nekaj let prizadevale za pravno ureditev umetne inteligence – takšen tempo je uveljavljen in pravno konzervativno sledi vsem bistvenim spremembam v družbi. A tokrat večjo pozornost terja predvsem interes samih akterjev UI – vodilna podjetja se proaktivno in deklarativno zavezujejo s samoregulaciji in obenem pozivajo oblasti, naj zagotovijo pravni okvir umetne inteligence, ki bo usmerjen k oblikovanju učinkovitega in odgovornega razvoja njenih potencialov. In prav ta obrat k pritiskom po regulaciji »od spodaj navzgor« vnaša novo dimenzijo v pravno urejanje, ki terja večjo pozornost.

Razmah ChatGPTja naglasi pravne vrzeli

Že kmalu po uvodnem razmahu ChatGPTja koncem lanskega leta je postalo jasno, da bosta splošna dostopnost in izjemen domet umetne inteligence terjala prevetritev pravnega področja. Prvim mesecem navdušenja (ChatGPT je uzrl luč sveta 30. novembra 2022) so kot domine sledila opozorila, da je razvoj prehiter za pravno varnost delovanja. Posamezne države so kot domine druga za drugo vzklikale opozorilne razmisleke glede delovanja UI. Tako je, zgolj primeroma, španska Agencija za varstvo podatkov že prosila nadzornika zasebnosti Evropske unije, naj oceni pomisleke glede zasebnosti v zvezi s ChatGPTjem, in podobna opozorila prihajajo tudi s strani Italije.

A kar je dosti bolj nenavadno: konec marca je svet lahko spremljal vodilne tehnološke velikane, kako v en glas pozivajo k zmernosti in celo začasnemu moratoriju razvoja UI. »Nekatera največja imena v tehnologiji pozivajo laboratorije za umetno inteligenco, naj vsaj za šest mesecev ustavijo usposabljanje najmočnejših sistemov umetne inteligence, pri čemer navajajo velika tveganja za družbo in človeštvo«, je poročal CNN.

Splošen poziv k moratoriju je sledil odprtemu pismu, ki ga je objavil Inštitut Future for Life 22. marca, s katerim je pozval vse, ki razvijajo umetno inteligenco, da nemudoma začasno ustavijo usposabljanje sistemov UI, zmogljivejših od GPT-4.

»Sodobni sistemi umetne inteligence postajajo konkurenčni človeku pri splošnih nalogah in vprašati se moramo: Ali naj dovolimo, da stroji preplavijo naše informacijske kanale s propagando in neresnico? Ali bi morali avtomatizirati vsa delovna mesta, vključno s tistimi, ki so izpopolnjujoča? Ali naj razvijemo nečloveške ume, ki bi nas lahko sčasoma številčno presegli, prelisičili, zastareli in nadomestili? Ali naj tvegamo izgubo nadzora nad našo civilizacijo? […] Zmogljive sisteme umetne inteligence je treba razviti šele, ko smo prepričani, da bodo njihovi učinki pozitivni in da bodo njihova tveganja obvladljiva.«

A kot dodaja eno izmed najbolj odmevnih odprtih pisem letošnjega leta, »to ne pomeni premora v razvoju umetne inteligence na splošno, temveč le korak nazaj iz nevarne dirke k vse večjim nepredvidljivim modelom črne skrinjice z nastajajočimi zmogljivostmi«. V času moratorija zato poziva k vzpostavitvi sistema, ki bo omogočil razvoj UI v korist človeštvu. S tem ciljem taksativno izpostavlja 7 področij, na katerih je potrebno zagotoviti varnostne mehanizme za robustne sisteme upravljanja UI, in sicer:

1. nove in sposobne regulativne organe, namenjene umetni inteligenci; 

2. nadzor in sledenje zelo zmogljivih sistemov umetne inteligence in velikih skupin računalniških zmogljivosti; 

3. vzpostavitev sistema izvora in vodnih žigov za pomoč pri razlikovanju pravega od sintetičnega in za sledenje uhajanju modelov; 

4. trden revizijski in certifikacijski ekosistem; 

5. odgovornost za škodo, povzročeno z umetno inteligenco; 

6. močno javno financiranje tehničnih varnostnih raziskav UI; 

7. in institucije z dobrimi viri za spopadanje z dramatičnimi gospodarskimi in političnimi motnjami, ki jih bo povzročila UI.

Če želimo izkoristiti priložnosti, ki jih ponuja UI, moramo najprej obvladati tveganja. Zdi se, da se je svet glede tega hitro poenotil; strah pred neznanim se je potrdil kot učinkovit motivator. Pri tem seveda »strahu« ne kaže razumeti pejorativno – gre predvsem za previdnost pred neznanim. Jasno je, da morajo biti inovacije usmerjene k človeku: v središču morata biti posameznik in skupnost. Inovacije morajo služiti javnemu dobru, obenem pa ščititi družbo, varnost in skupno blaginjo.

Odziv ZDA

Vzporedno s opozorilnimi klici zasebnega sektorja lahko spremljamo tudi veliko politično pozornost, ki jo namenja umetni inteligenci svet. Že dan po objavi odprtega pisma je Biden-⁠Harrisova administracija objavila sporočilo, da sprejema nove korake za napredek odgovornega raziskovanja, razvoja in uvajanja umetne inteligence. »Danes Biden-Harrisova administracija napoveduje nova prizadevanja, ki bodo pospešila raziskave, razvoj in uvajanje odgovorne umetne inteligence, ki ščiti pravice in varnost posameznikov ter prinaša rezultate za vse Američane«, so zapisali v Beli hiši.

Ameriška administracija je v ta namen napovedala znatne investicije. Da bi spodbudili skupna prizadevanja v visokem šolstvu, zveznih agencijah in industriji za »doseganje transformativnega napredka UI«, Nacionalna znanstvena fundacija (National Science Foundation) načrtuje financiranje v višini 140 milijonov dolarjev. S temi sredstvi naj bi ustanovili sedem novih nacionalnih raziskovalnih inštitutov za UI, ti pa naj bi zagotovili, da bo napredek UI etičen, vreden zaupanja, odgovoren in da bo služil javnemu dobremu.

EU v normativnem vodstvu

Tako v ZDA kot v EU so čedalje glasnejše tudi zahteve po sprejetju nekakšne splošne Listine pravic UI. Zdi se, da je v normodajnih prizadevanjih Evropska unija vsa zaenkrat korak pred drugimi. Predlog Zakona o umetni inteligenci, ki ga je Evropska komisija predstavila že aprila 2021, bo, v kolikor bo uspešno prestal zakonodajni postopek, predstavljal prvi zakon s področja UI, ki ga je sprejel večji regulator. 

Z Zakonom o UI bomo tako korak bližje prvim splošnim pravilom o umetni inteligenci. Evropska komisija se je zaradi splošnosti akta odločila za tehnološko nevtralno definicijo sistemov UI – ta naj bi zagotovila, da se bo zakon lahko uporabljal tako za današnje kot tudi prihodnje sisteme umetne inteligence, obenem pa svetu ponudil skupno razumevanje, kaj da UI sploh je in tako postavil temelj za prihodnjo tako tehnično kot normativno konvergenco.

Ker se Evropska komisija zaveda, da je glavni regulator, če poenostavimo, že omenjeni »strah«, je predlagala niz pravil, ki temeljijo na oceni tveganja, in sicer s štirimi stopnjami: UI z nesprejemljivim tveganjem, z visokim tveganjem, z omejenim tveganjem in z minimalnim tveganjem. V tem smislu naj bi bile na eni strani spektra prepovedane vse aplikacije oz. sistemi, ki ustvarjajo nesprejemljivo tveganje, na drugi strani pa bi lahko dopustili nereguliran, prost razvoj vsem drugim aplikacijam, ki niso bodisi izrecno prepovedane ali navedene kot visoko tvegane - vse s ciljem zagotavljanja, da sisteme UI nadzirajo ljudje in da so ti sistemi »varni, pregledni, sledljivi, nediskriminatorni in okolju prijazni.«

O predlogu zdaj razpravljata so-zakonodajalca, Evropski parlament in Svet. Evropski parlament je maja 2023 že zavzel stališče in poslanec Dragos Turadoche, eden od parlamentarnih poročevalcev za področje UI, je takrat zapisal, da smo zdaj še »korak bližje pomembnemu delu zakonodaje, ki bo določil pravila za digitalno prihodnost, ki bo verjetno odmevala po vsem svetu, v različnih regulativnih režimih, oblikovala razvoj tehnologije v smeri, osredotočeni na človeka, in sprostila njen polni potencial«. 

Predlog Zakona predvideva okrepljeno zaščito temeljenjih pravic in demokratičnega nadzora po vsej EU;  uvaja stroge zahteve glede preglednosti za javne organe, ki uporabljajo visoko tvegane sisteme UI, ter predvideva mehanizme pravnih sredstev za osebe, ki bi jih prizadela uporaba visoko tveganega sistema UI. Kot je povzel Tudorache,  naj bi z uvedbo obvezne ocene učinka na temeljne pravice uvajalci visoko-tveganih sistemov UI zmanjšali tveganja, hkrati pa uvedli večjo predvidljivost tudi za industrijo in poslovno okolje, saj podjetjem omogoča, da izvedejo predhodno samoocenjevanje in oceno skladnosti z Zakonom o UI.

Parlament bo predvidoma o poročilu glasoval na plenarnem zasedanju junija 2023. To bo nato določilo stališče Parlamenta za začetek medinstitucionalnih pogajanj in se s Svetom dogovorilo o končnem besedilu. 

Umetna inteligenca na mednarodnem podiumu

Tudi na mednarodnem nivoju so jasno zaznavni intenzivni trendi po regulativni naslovitvi razvoja UI, ki seveda ne pozna nacionalnih meja. UNESCO, Organizacija Združenih narodov za izobraževanje, znanost in kulturo, ki predstavlja specializirano organizacijo OZN, pooblaščeno za spodbujanje svetovnega miru in varnosti preko mednarodnega sodelovanja v izobraževanju, umetnosti, znanosti in kulturi, je že 2021 pripravil Priporočila o etiki umetne inteligence. Predvideni namen Priporočil je bilo opredeliti vrednote, načela in politike, ki bi vodile države pri oblikovanju pravnih okvirov za zagotovitev, da se UI uporablja za skupno dobro. 193 držav članic je na UNESCOvi generalni konferenci novembra 2021 Priporočila o etiki umetne inteligence tudi sprejelo in tako v svetovnem merilu ustvarilo prvi mednarodnopravni instrument, ki, kot so zapisali, predstavlja globalni okvir za vključujočo in odgovorno uporabo UI v naših družbah.

Že pred tem je OECD, Organizacija za gospodarsko sodelovanje in razvoj kot medvladna organizacija, ustanovljena za oblikovanje politik za spodbujanje blaginje, enakosti in priložnosti, prav tako s ciljem »pomagati vladam in podjetjem z nastajajočimi najboljšimi praksami s področja UI« sprejela Načela OECD o umetni inteligenci. Načela, ki jih je sprejelo vseh osemintrideset držav članic, povzemajo na vrednosti temelječa priporočila za javne politike in strategije, ki jih je mogoče uporabiti pri razvoju umetne inteligence po vsem svetu. »Načela umetne inteligence OECD spodbujajo uporabo umetne inteligence, ki je inovativna in vredna zaupanja ter spoštuje človekove pravice in demokratične vrednote. Sprejeta maja 2019 postavljajo standarde za umetno inteligenco, ki so dovolj praktični in prilagodljivi, da prestanejo preizkus časa.«

Tudi pri OECD se radi pohvalijo, da so to prva takšna načela. »Načela OECD so prva tovrstna načela UI, ki so jih podpisale vlade,« so zapisali. Takšno stališče je seveda pravilno – priporočila, načela in smernice so po svoji naravi politične zaveze. A prav zato je te v pravnem smislu potrebno jasno razločevati od pravno zavezujočih aktov, kot so zakoni ali, primeroma, uredbe. V tem okviru je zato v hitenju po tem, kdo bo prvi, ki bo začrtal meje UI, smiselno videti predvsem večjo sliko: UI je tu, zdaj in – ni zanemarljiva.  

Objektivno pomembnejša so zato prizadevanja po pravno zavezujočih inštrumentih, ki smo jim priča v zadnjih mesecih. Poleg EU je tu še Svet Evrope, ki se prav tako pospešeno ukvarja z vprašanji UI. Njegov Odbor za umetno inteligenco je lani sprejel mandat za definiranje globalnih standardov UI, v okviru katerega je zadolžen za pogajanja o pravno zavezujočem instrumentu, ki bo urejal razvoj, načrtovanje in uporabo sistemov UI ter temeljil na standardih Sveta Evrope za človekove pravice, demokracijo in pravno državo. Teža prizadevanj Sveta Evrope je v velikem delu v njeni globalno vključujoči naravi: poleg 46 držav članic Sveta Evrope udeleženci vključujejo tudi Evropsko komisijo in celo države, ki niso članice Sveta Evrope, kot so Kanada, Izrael, Japonska, Mehika in Združene države. 

Zasebni sektor kot paradni konj

V želji po zagotovitvi odgovornega razvoja in uporabe potencialov UI so številna podjetje že posegla po samoregulaciji; oblikovanje samoregulativnih principov in smernic UI je v zadnjem obdobju postala uveljavljena praksa vseh večjih tehnoloških podjetij.

Že leta 2016 so Amazon, DeepMind, Facebook, Google, IBM in Microsoft objavili partnerstvo na področju umetne inteligence (Partnership on AI). Vse od ustanovitve dalje so ustanovni člani sodelovali z večjim številom neprofitnih organizacij, da bi s skupnimi močmi opredelili jasne cilje, splošna načela in vodilne principe za varen in odgovoren razvoj umetne inteligence.

»Zaradi transformativnih koristi za svoje stranke, delničarje in zaposlene se podjetja opirajo druga na drugo pri iskanju poti, kako začrtati zakonito in etično pot do uporabe umetne inteligence. […] Dejansko je večina zasebnih pobud za upravljanje umetne inteligence napisana v smislu družbenih – v nasprotju z zgolj ekonomskimi ali pravnimi – prednostnimi nalogami, kar poudarja potrebo po premišljenem izvajanju umetne inteligence v zasebni industriji.« (Keith E. Sonderling in Bardford J. Kelley 2023, 156

Sonderling in Kelley gresta celo korak dlje in trdita, da so podjetja zaradi svoje bližine samemu razvoju UI dejansko bolj usposobljene za oblikovanje pravnih smernic UI kot državne agencije, regulatorji ali zakonodajalci. »Ker zasebni sektor ostaja na samem vrhu financiranja, razvoja, uvajanja in izvajanja umetne inteligence, so zasebna podjetja v boljšem položaju za spopadanje s temi edinstvenimi izzivi kot vladni regulativni organi, katerih mandati so veliko širši od zgolj urejanja umetne inteligence. Zasebne pobude lahko nedvomno pomagajo graditi kulturo zaupanja, preglednosti in odgovornosti v tehnologijah umetne inteligence« (Sonderling in Kelley 2023, 157). Pri tem ugovarjata tudi morebitnim pomislekom, da podjetjem, ki jih v prvi vrsti vodi profit, vendarle ne gre zaupati, da bodo imela v tekmi za dobičkom pretirano voljo samoregulacije. »Čeprav lahko kritiki trdijo, da dovolitev samokontrole zasebnim subjektom, ki jih vodi dobiček, lahko povzroči več škode, ne bi bilo napačno dovoliti, da ta odgovornost ostane v rokah zasebnih pobud,« pravita, saj naj bi bila normativna podpora takšnim prizadevanjem že tako vseprisotna. »Želja, da se zasebna podjetja izognejo javnemu škandalu, še posebej ko se ukvarjajo s temeljnimi človekovimi pravicami, dodatno spodbuja zasebne pobude k razvoju socialno osredotočenih politik,« zaključujeta (ibid.).

Njuno stališče ni osamljeno. Številni komentatorji trdijo, da je dajanje prednosti samoregulaciji zasebnega sektorja pred vladno regulativo praktično edino smiselno – da je, še zlasti v oziru hitrosti razvoja in eksponentne rasti inovacij, to na področju UI celo nujno, če naj se doseže etična uporaba umetne inteligence. Kot argumente je mogoče ob hitrosti razvoja slišati tudi asimetrijo v strokovnem znanju v zasebnem in javnih sektorjih. Kar seveda drži. A to drži tudi za vsa druga področja, ki naslavljajo tehnološki napredek in zgolj izjemna hitrost področja UI pri tem ne more biti dovolj prepričljiv argument, da bi ga prepustili »zgolj« zasebni iniciativi.

»Državni organi ne morejo vpogledati v vsako podjetje, razumeti na tehnični ravni, kateri UI programi se porajajo, napovedati možne težave, ki bi ti lahko povzročili, in nato hitro ustvariti pravila za preprečevanje težav, še preden se pojavijo. To je nedosegljiv regulativni scenarij – in nobeno podjetje si ga nikakor ne želi. Nasprotno pa ima vsako podjetje pronicljiv vpogled v svoja lastna prizadevanja za UI, kar ga postavlja v najboljši položaj za obravnavanje identificiranih UI izzivov,« je za Fortune zapisala Beena Ammanath, avtorica in vodja Global AI inštituta pri Deloittu.

V prizadevanjih za (tako ali drugače vzpodbujeno) samoregulacijo je mogoče izluščiti zlasti tri vsebinske skupine ukrepov:

1. Ex ante: razvoj politik za nadzor različic in implementiranje ustrezne zaščite glede bistvenih sprememb orodij za strojno učenje; 

2. Ad hoc: zagotavljanje, da so podatki in algoritmi dokumentirani in utemeljeni; in

3. Ex post: dokumentiranje procesov v zadostni meri  za oceno zanesljivosti in veljavnosti podatkov ter morebitno računalniško reprodukcijo.

A medtem ko akademiki izpostavljajo koristi samoregulacije v zasebni sferi, se vodilna podjetja s pozivi po regulaciji sama obračajo k državi. Izvršilni direktor OpenAI, Sam Altman, je 16. maja v zaslišanju pred Ameriškim senatom sam pozval zakonodajalca, naj uvede licenčne zahteve in druge predpise za organizacije, ki izdelujejo napredne sisteme umetne inteligence, kot je GPT-4. Kot poroča Ars Technica, je Altman v pozivu ameriškega zakonodajalca opozoril, da bo po njegovem mnenju »regulativno posredovanje vlad ključnega pomena za ublažitev tveganj vse močnejših modelov«. V tem smislu naj bi vlada ZDA »razmislila o kombinaciji zahtev za licenciranje in testiranje za razvoj in izdajo modelov UI nad pragom zmogljivosti«.

Tudi IBM-ova predstavnica Christina Montgomery je izrazila zaskrbljenost. »IBM poziva kongres, naj sprejme pristop natančnega urejanja umetne inteligence. […] To pomeni vzpostavitev pravil za urejanje uvajanja umetne inteligence v posebnih primerih uporabe, ne pa urejanja same tehnologije.«

Pogled naprej: Javno in zasebno ne z roko v roki, pač pa v so-koraku 

Razlogi za takšne pritiske so resda lahko v (etični) zaskrbljenosti vodilnih podjetij nad izjemno hitrostjo razvoja in njegovimi nenadzorovanimi smermi, a teoretiki zarote v takšnih prizadevanjih zasebnega sektorja vidijo tudi željo največjih, da bi z uvedbo restriktivnejših splošnih regulativnih pogojev iz tekme UI izrinili manjše tekmece.

Glede na izjemen potencial in priložnosti, ki ga prinaša UI, bi bilo neodgovorno lahkotno zavrniti takšna namigovanja. A resnica je zagotovo bistveno kompleksnejša. Dejstvo je, da so zasebna podjetja vodilna v raziskavah in razvoju UI – logično so zato tudi prva, ki lahko zaznajo nevarne smeri razvoja UI, in zato najpriročnejša, da pravočasno ukrepajo in usmerjajo nove zmogljivosti proti skupnemu dobru. A Benthamova teza, da je skupno dobro suma vseh posameznih koristi, se zdi tu preveč tvegana poenostavitev. Zagotovo si je lahko brez pretiranega napora zamisliti uporabo UI v smeri, ki prinaša podjetju dobiček in je nekaterim ali, še nevarneje, predvsem določenim skupinam v korist, v celotno družbo pa zaradi neenakopravnosti vnaša razdor. 

In prav zato, ker je UI tako vseobsegajoča, je javni nadzor preprosto nujen. Jasno je, da je samoregulacija koristna in dobrodošla, a meje delovanja mora začrtati in uveljaviti javni regulator. A ker je ni vlade ali nadnacionalne institucije, ki bi zmogla to nalogo opraviti sama, je sodelovanje med zasebnim in javnim edina možna smer, ki upravičeno dopušča razloge za optimistično napoved prihodnosti. 

Skupna prizadevanja med zasebnimi pobudami in javnimi oblastmi so zato edina pot za oblikovanje agilnega regulativnega okvira. A ne z roko v roki, pač pa kot skupno prizadevanje dveh enakovrednih partnerjev, ki si zaupata, a si, iz previdnosti, vendarle venomer dosledno gledata pod prste. Če si sposodim pri ruskem pregovoru, ki so ga posvojili tudi Američani: Temeljna listina UI ja, a le po sistemu Zaupaj, a preveri.  

------

Keith E. Sonderling in Bardford J. Kelley: Filling the void: Artificial intelligence and private initiatives, North Carolina Jounral od Law & Technology, Volume 24, Issue 4, May 2023, https://ncjolt.org/articles/volume-24/volume-24-issue-4/filling-the-void-artificial-intelligence-and-private-initiatives/

Odbor za umetno inteligenco (CAI) Sveta Evrope: Revised Zero Draft Convention on artificial intelligence, human rights, democracy and the rule of law, CAI(2023)01, Strasbourg, 6 January 2023 , https://rm.coe.int/cai-2023-01-revised-zero-draft-framework-convention-public/1680aa193f

Robert Eccles in Miriam Vogel: Board Responsibility for Artificial Intelligence Oversight, HARV. L. SCH. F. CORP. GOV., 5. januar 2022, https://perma.cc/EUN9-HYV7

UNESCO, Recommendation on the Ethics of Artificial Intelligence, SHS/BIO/REC-AIETHICS/2021, 2021, https://unesdoc.unesco.org/ark:/48223/pf0000380455