Strani

nedelja, 31. december 2023

Etika umetne inteligence v sistemu izobraževanja (2. del)

 Temeljna načela etične umetne inteligence

*Editiran prispevek je bil pod naslovom Etika umetne inteligence v sistemu izobraževanja objavljen v reviji Zavoda Republike Slovenije za šolstvo "Vodenje v vzgoji in izobraževanju" št. 55, 2/2023, letnik 21, na straneh 32-57.

Evropska unija je že v izhodišču izpostavila etične pomisleke glede posledic umetne inteligence; poudarila je težo varstva zasebnosti, problem pretiranega nadzora in pomen nediskriminacije kot glavna področja, na katera se zdi smiselno osredotočiti pozornost pri zagotavljanju etično naravnanega sistema UI. 

»Za upravljanje in uporabo umetne inteligence in podatkov v izobraževanju je potrebno skupno razumevanje, (1) kaj je treba nadzorovati, (2) kako je treba organizirati in upravljati postopke upravljanja ter (3) kako so porazdeljene odgovornosti.«

Končno poročilo strokovne skupine Komisije za umetno inteligenco in podatke v izobraževanju in usposabljanju

V preteklem desetletju se je zdelo, da digitalna etika večji del le počasi caplja za razvojem tehnologije. Zgolj primeroma, izkušnje, ki jih imamo s prihodom mobilnih telefonov in posledičnimi smermi razvoja medosebne komunikacije, imajo (upravičeno) neredko negativno konotacijo: »priklenjeni smo na telefon«, »postali smo digitalno odvisni« ipd. Tudi z digitalizacijo podatkov in vdori v zasebnost izkušnje niso dosti boljše – neskončen seznam škandalov, ki smo mu priča, zagotovo ne izpričuje premišljenosti in etične dorečenosti sistema.

Toda s prihodom splošne uporabljivosti UI se zdi, da se je princip »najprej tehnologija - potem etika« začel obračati v drugo smer. Praktično prvič v zgodovini tehnologije se resno in odgovorno srečujemo s široko razpravo o etičnih dilemah vnaprej, še pred vsesplošno uporabo UI. Zdi se tudi, da smo si pri ciljih, ki naj jih razprava doseže, enotni: želimo informirati, izobraziti, osvestiti, ozavestiti – in tako pomagati tehnologiji, da nam, kot človeštvu, pomaga. Pri tem seveda ne gre spregledati, da je naloga izjemna – pa tudi, da nam ne sme spodleteti.

Umetna inteligenca ni vredno(s)tno-nevtralna, niti objektivna


Kot rečeno, izhodišče je, da UI ni vredno(s)tno-nevtralna, niti objektivna. Umetna inteligenca – tako kot katerakoli druga tehnologija, ki spreminja življenje – ni sama po sebi ne dobra, niti slaba. Ljudje, ki razvijajo tehnologijo, so odgovorni za določanje, kako se uporablja; ljudje, ki jo uporabljajo, določajo, ali jo bodo uporabili za dobro ali slabo. Odgovornost je torej na - ljudeh. Prav zato je široka razprava o etiki umetne inteligence še toliko pomembnejša. 

A zasluge za družbeno orientacijo k etiki ni iskati le v odgovornosti ljudi - tudi sama narava UI terja etično pretehtana izhodišča. Sistemi, ki podpirajo UI, temeljijo na modelih stojnega učenja, slednji pa se zanašajo na podatke, katerim so izpostavljeni. Povedano drugače: sistem bo deloval, kot se bo naučil iz podatkov, katerim je izpostavljen. V kolikor bo sistem izpostavljen pristranskim, diskriminatornim, seksističnim ali kakršnimkoli drugače neželenim vzorcem, jih bo sprejel in inkorporiral - ne, ker je »slab«, pač pa, ker je »učljiv«. Posledično je v sami naravi UI, da lahko širi neželeno vedenje in pristranskost v velikem obsegu; logika modela in posledični rezultati niso vedno predvidljivi in vedenje se lahko tekom »učenja« tudi spremeni (1).  Že samo ta del UI predstavlja močan kontrast klasičnim sistemom, ki jih zaznamujeta gradnja in vodenje algoritmov od spodaj navzgor.

Iz dosedanjih izkušenj z UI je mogoče destilirati zlasti pet področij etičnih načel, ki se jih zdi a priori smiselno integrirati v sisteme UI:

(1) osredotočenost na človeka, 
(1) poštenost, 
(2) razložljivost in transparentnost, 
(3) varnost in 
(4) odgovornost.

S ciljem krepitve »dobrih učnih poti« kaže pod prvim načelom osredotočenosti na človeka slediti zlasti tistim smerem razvoja sistemov UI, ki podpirajo človeške cilje ob upoštevanju človekovih potreb tako na osebni kot družbeni ravni. Razumljivo tako visokoleteči cilji niso enostavni niti nujno premočrtni. 

Dodatno kompleksnost obravnave nadalje zahtevajo tudi same smeri razvoja UI, ki so zaznavno različne. Sistemi strojnega učenja so namreč sposobni oblikovati povsem nova dela (generativna UI), imajo zmogljivosti avtomatizirane logično-kognitivne obravnave za človeka nepredstavljivih količin podatkov (razširitvena oz. augmentacijska UI), lahko pa tudi, na podlagi podanih parametrov, kreirajo nove, »prihodnje« realnosti (simulacijska UI). 

Zagotovo bo vsaka izmed teh smeri razvoja UI terjala posebno obravnavo – a zaenkrat se zdi smotrneje iskati zlasti skupne temelje. Vsem trem smerem UI je namreč skupno predvsem dvoje: (1) vedno mora biti na koncu glavni človek in (2) rezultati UI morajo biti družbeno koristni (2).


Povsem jasno je, da so nekatere smeri razvoja UI družbeno škodljive (3), a mnogo več je primerov, ki so lahko hkrati pozitivni in negativni. Tako so se ob razvoju slikovne UI hitro oglasili umetniki, češ da jim UI krade delovna mesta – da potreb po oblikovalcih, ilustratorjih ipd. ne bo več, saj da bo vse izpodrinila UI

Toda prav tako je mogoče trditi, da UI, ki nadomešča človeške napore, predstavlja napredek in da je zatorej ta razvoj družbeno koristen. Še kompleksnejša je situacija, če družbeni koristnosti dodamo zahtevo, da naj bo UI osredotočena na človeka. Vzemimo samo kitajski primer sistema socialnih kreditov (Social Credit System) – ščiti potrebe družbe in obenem eklatantno spregleduje potrebe individuuma.   

Vir: Twitter

Prav nič lažje zahteve niso pri zagotavljanju načela poštenosti – to naj bi v koncept UI vneslo vse razsežnosti od jasne in očitne zahteve po zakonitosti, pa tudi legitimnosti, moralnosti, pravičnosti in nediskriminatornosti. 

V naravi prava je, da je žlahtno konzervativno – pravne norme se praviloma odzivajo na družbeno realnost, kar še zlasti velja za tehnološki razvoj. Ni v naravi niti moči prava, da bi predvidelo tehnološki razvoj – nanj lahko vpliva, a zameji ga lahko le reakcijsko. V kolikor privzamemo to (ne)moč prava, je jasno, da nas pri oblikovanju sistemov UI lahko vodi predvsem lastni moralni kompas. Da je situacija še za odtenek kompleksnejša, je potrebno sprejeti tudi dejstvo, da se morala spreminja – kaj je v tehnološkem napredku prav in kaj ne, ni povsem fiksno. Zgovoren primer tega sta Uber in Airbnb – obe storitvi sta bili v izhodišču kamen spotike obstoječemu pravnemu redu, a ker ju je družba sprejela kot koristni, so se postopoma spremenili tudi zakoni in storitvam omogočili razcvet. 

Implementacija koncepta pravičnosti je v sistemu UI še toliko zahtevnejša – bistvena prednost UI je namreč prav v tem, da se lahko še donedavnega okorne sisteme hitro »nauči« individualnih potreb. Prav ta pristop v učilnicah obljublja znatne možnosti prilagajanja sistema individualnim potrebam – dejstvo je, da nismo vsi povsem enaki in da se ne učimo vsi povsem enako. Tudi naše zmožnosti niso povsem enake. A ta prednost UI ima tudi svojo negativno plat. Ker se sistem strojnega učenja »uči« podobno, kot se učimo tudi ljudje, se zdi smiselno že v naprej zastaviti sistem, ki ne diskriminira tam, kjer diskriminacija ni dobrodošla (na podlagi spola, rase, vere ipd.), a obenem pozitivno diskriminira, kadar to posamezniku in družbi prinaša koristi (npr. posebne učne potrebe ipd.). 

Razmejevanje med pozitivno in negativno diskriminacijo seveda ni novost – se pa v sistemu UI prvič naglašajo te dileme že pri samem snovanju tehnologije. V kolikor naj bo UI zares »dobra«, je odprava nezaželenih pristranskosti preprosto nujna. 

Prav tako je bistven element načela poštenosti tudi prepoved manipulacije. Iz zgodovine informacijske tehnologije poznamo številne primere manipulativne uporabe podatkov – večji kot je ekosistem, večja je nevarnost, da bodo naši podatki uporabljeni tudi za namene mimo naše privolitve. Posledica takšnih manipulacij je vse trša zakonodaja s področja zasebnosti (4). 

A vendar ni vsaka manipulacija tudi škodljiva. Dober primer pozitivne manipulacije so aplikacije za zdravje: seveda nas sistem »manipulira«, da se prehranjujemo bolj zdravo, da več telovadimo in da opuščamo nezdrave navade – a to počnemo prostovoljno in s povsem jasnim namenom. Kar je pravzaprav bistveno: pri snovanju UI se moramo zavedati, da je celo manipulacija lahko dopustna (in zaželena), v kolikor je transparentna, v kolikor je jasen in nedvoumen njen namen in v kolikor seveda ni zlonamerna. Kar vse le še bolj - zaplete.

Dosedanji razvoj nam dovoljuje sklep, da obstoječe znanje in rešitve lahko ponudijo nekoliko trdnejšo oporo vsaj pri reševanju dilem glede zagotavljanja načel transparentnosti, varnosti in odgovornosti. Sistemi UI morajo biti pregledni; sposobni morajo biti pojasniti odločitve, ki jih sprejemajo. 

Infografika: Razvoj modela GPT, GPT-3 z več kot 174 milijardami parametrov strojnega učenja in primerjava z GPT-4




Prvi del načela transparentnosti se nanaša na podatke, na katerih se sistem uči – bolj kot so ti pregledni, lažje je razmeti, spremljati in usmerjati poti razvoja. Načelo transparentnosti v tem smislu inkorporira tudi zahtevo po »razložljivosti«. Tradicionalni sistemi so grajeni na sistemu v naprej postavljenih pravil, medtem ko se sistemi UI učijo prek nevronskih mrež, kjer rezultat ne sledi pravilu, pač pa verjetnosti - podobno, kot razmišljamo ljudje. Zahteva po »razložljivosti« v tem oziru razumljivo predstavlja trši oreh - pogosto je znano le to, da (a) obstaja določena verjetnost, da je rezultat pravilen, in da (b) ni povsem gotovo, kako je sistem prišel do odgovora. Tehnične rešitve vsaj zaenkrat  na tem področju še zaostajajo za etičnimi zahtevami.

Načelo varnosti zajema tako varnost podatkov, na katerih se sistem UI uči, kot tudi samo delovanje UI sistema. Vključuje zahtevo po varstvu zasebnosti in naglašuje pomen vzpostavitve (pa tudi budnega spremljanja in rekalibriranja) občutljivega razmerja med tem, da tehnološke zmožnosti zadovoljivo opravijo zadane naloge, in dejstvom, da tehnologija sama dopušča (in potrebuje) za svoj prihodnji razvoj še več podatkov. 

Sposobnost tehnologije, da, na primer, prepoznava obraze, zagotovo presega našo potrebo, da preštejemo število oseb v prostoru. Načelo varnosti v tem primeru zahteva, da naj bo uporaba zmogljivosti UI sorazmerna ciljem, za katere je uporabljena. Prav tako velja poudariti, da anonimizacija podatkov najbrž ne bo več dovolj, saj so algoritmi UI že zdaj sposobni odkriti identifikacijske elemente in povezovati podatke, ki so bili še do nedavnega nepovezljivi. Znan je na primer razvpit primer Lapine, umetnice, ki je na spletu več kot deset let po opravljenem posegu našla svoje klinične fotografije, tokrat, s pomočjo UI sistemov za prepoznavanje obrazov, povezljive z imenom in priimkom.  

Vir: Ars Technica

Tudi zato je potrebna posebna previdnosti pri zasebnosti v sistemih UI. Izhajati velja iz načela »vgrajene zasebnosti«, ki temelji na dispoziciji, da so podatki per se občutljivi in da jih je s tega vidika smiselno a priori šifrirati ali, kar je prav tako ena izmed novih prednosti sistema UI, uporabiti sintetične podatke.

In nenazadnje, vzpostaviti bo potrebno učinkovit sistem odgovornosti. Pretekle izkušnje nas učijo, da je lahko odgovoren le človek – podobno, kot je lahko avtor ustvarjalnega dela (in torej nosilec avtorske pravice) lahko samo človek. Prve dileme so že bile naslovljene – če sistem UI ustvari novo umetniško delo, kdo je potemtakem avtor?  Podobno kot je v obstoječih pravnih ureditvah avtorstvo umetniškega dela mogoče pripisati le človeku, velja tudi v sistemu UI odgovornost za delovanje in rezultate mogoče pripisati le ljudem – ideja, da bi lahko imela tehnologija »osebnost« ali »zavest« in bila torej sposobna »robotske odgovornosti«, se (vsaj zaenkrat) v celoti upira pravnim razmerjem. V tem trenutku je torej odgovornost za etično delovanje v prvi vrsti na razvijalcih, njihovem vodstvu in uporabnikih.

Etični izzivi umetne inteligence v izobraževalnem okolju


»Da bi ustvarili prihodnjo generacijo, v kateri lahko vključujoči in raznoliki državljani sodelujejo pri razvoju prihodnosti umetne inteligence, moramo razviti priložnosti za učence in učitelje […], da se učijo o umetni inteligenci prek učnih načrtov, ki temeljijo na umetni inteligenci in etiki ter poklicnem razvoju.« 


Dejstvo je, da algoritmi vedno sledijo vrednotam svojih oblikovalcev – te se zrcalijo skozi nabor podatkov, na katerih se algoritem uči, njihovim delovnim označbam, pozivom, ki jih podajajo uporabniki in njihovim povratnim informacijam. Pri tem ne oblikovalci, niti uporabniki seveda niso vredno(s)tno nevtralni in dosledno objektivni, kar neizogibno vodi v pristranskost algoritma.  

V izobraževalnem sistemu je mogoče še posebej izpostaviti zlasti pet izzivov etičnih pričakovanj: ti se nanašajo na področja (1) potencialnih vdorov v zasebnost, (2) prekomeren nadzor, (3) ohranjanje akademske integritete, (4) nadaljnje utrjevanje že obstoječih pristranskosti glede na spol in družbeno diskriminacijo ter (5) omejevanje avtonomije učencev pri odločanju o osebnih odločitvah in vodenju lastnih življenj.

Problematika varovanja zasebnosti in nevarnost pretiranega nadzora v šolskih klopeh pravzaprav predstavlja le še eno plat že izpostavljenega načela varnosti. Posebno pozornost v sistemu izobraževanja razumljivo terja zlasti ranljivost skupine – a problematika ni nova niti ni lastna zgolj umetnointeligenčnim sistemom, zato naj na tem mestu zadostuje zgolj opozorilo, da je zagotavljanje varnosti, spoštovanje zasebnosti in onemogočanje pretiranega nadzora temeljni predpogoj za delovanje celotne digitalne družbe, tako tudi digitalnega izobraževanja.

V okviru razmotritve etičnih dilem implementacije UI v izobraževalne sisteme se zdita zgovornejši zlasti dve drugi preizkušnji: na eni strani je to (nehotena) kulminacija pristranskosti v izobraževanju, na drugi pa novoodprt problem ohranjanja akademske integritete. Nobena izmed problematik ni nova – jima pa algoritmi UI dajejo še do nedavnega nepredstavljive razsežnosti.

Upoštevajoč učinkovitost ChatGPTja in načine, na katere je uporabljen v tem zgodnjem obdobju svojega obstoja, ni dvoma, da gre za povsem novo razsežnost »nedovoljenega načina pomagati si pri pisanju«. Če smo še nedavno tega povzetke domačih branj prepisovali iz generacije v generacijo – in poskušali, glede na razpoložljiv čas, voljo, sposobnost in prizadevnost, prilagoditi vedno znova isto vsebino trenutnemu navdihu in slogu pišočega – to namesto nas zdaj veličastno opravi ChatGPT. Še več – ChatGPT se prek algoritma hitro uči novih vsebin, novih povezav in novih oblik, zato je njegov izdelek vsakič znova povsem unikaten – in torej nesledljiv v standardni smeri »prepisovanja«, goljufanja ali plagiatorstva, ki bi ga učitelj sicer nemara utegnil zaznati.

Program, ki ga je ustvaril OpenAI, uporablja strojno učenje za pripravo pisne vsebine po meri. Odziva se na konkretno zahtevo, ki mu je naložena; spekter tem, ki jih obvlada, je širok (in, ker gre za algoritem strojnega učenja, postaja le večji). Zbirati in obdelovati je sposoben zgodovinska dejstva, oblikovati eseje v različnih slogih, pisati slovnično pravilno (ali celo z napakami, v kolikor uporabnik poda takšno zahtevo) in izpeljevati prepričljive, logično utemeljene zaključke. In kar je zares osupljivo – zapis je v celoti realističen. 

Kar je bilo še pred letom dni nepredstavljivo, je postalo resničnost: Učitelj, pa naj bo še tako izkušen, preprosto nima možnosti prepoznati, ali je avtor oddane naloge resnično učenec ali nemara robot. 

Toda - je kleč res v tehnologiji? Nekateri so hitro našli vzporednice z uporom proti »vdoru tehnologije« v preteklosti. Pred dvema desetletjema so se šolniki upirali Googlu, češ da bo študentom odvzel vse veščine iskanja informacij – prek spleta je bilo mogoče odgovore, katerih zbiranje je prej terjalo znaten vložen energije, pridobiti v trenutku. Še pred tem je podoben preplah povzročil – kalkulator.

V svetovnem merilu so začasni ukrepi različni – nekateri se vračaja k rokopisnemu delu, spet drugi k ustnemu ocenjevanju, številni pa so predvsem pozivi, da bo potrebno prevetriti obstoječe etične kodekse, da bodo zagotovili akademsko integriteto tudi v dobi UI. 

Dolgoročnejše rešitve bodo najbrž ponudili klasifikatorji besedil, usposobljeni za prepoznavanje teksta, ki ga ustvari UI. Tudi sami klasifikatorji so produkt umetnointeligenčnih sistemov in se hitro učijo – zadnja različica, ki prihaja s Stanforda, zagotavlja že 94% zanesljivost. 

A če so se ponudniki na dilemo akademske integritete že odzvali in se zdi, da bodo tudi učinkovita orodja kmalu na voljo, se drugi del dilem, t.j. vprašanje krepitve pristranskosti prek sistemov UI, ki nam nehote nastavlja ogledalo, zdi zmuzljivejši. V analizi izobraževalnega okolja z vidika UI potencialov Selin Akgun in Christine Greenhow (5) med največjimi nevarnostmi izpostavljata zlasti tveganja, da bodo UI algoritmi zaradi svoje narave (a) nadaljevali obstoječe sistemske pristranskosti in diskriminacije, (b) ohranili nepravičnosti za študente iz prikrajšanih in marginaliziranih skupin in (c) še naprej krepili rasizem, seksizem, ksenofobijo, pa tudi druge oblike nepravičnosti in neenakosti.

Dejstvo je namreč, da na tej stopnji razvoja modeli UI še vedno predstavljajo sindrom »črne škatle« - celo sami razvijalci ne vedo, kako je UI prišla do konkretnega rezultata - jasno je le to, da se UI uči na podlagi našega inputa in naših odzivov. Obstoječe pristranskosti se zato inkorporirajo v učni korpus in, v kolikor nismo previdni, se lahko še dodatno krepijo. Zgovoren in preprost primer so na UI temelječi prevajalniki. Seveda vemo, da so ženske lahko tudi zdravnice in moški medicinski tehniki – a prevod »He/she is a nurse« oz. »He/she is a doctor« ustreza razmerjem, ki bi jih uporabili ljudje v pogovoru: »medicinska sestra« v ženski obliki in »zdravnik« v moški samostalniški obliki.

Vir: Google Translate

Tudi (in prav) zato je smiselno še posebej naglasiti zlasti pomen zavedanja, da utegnejo brez skrbnega posluha sistemi UI obstoječe neenakosti, pristranskosti in diskriminacijo le še poglobiti. 

Prihodnje usmeritve etične umetne inteligence

Tako kot je fascinantno spremljati potencial izjemnega razvoja UI, so osupljivi tudi hitri odzivi na identificirane probleme. Za rešitve, na katere smo še pred desetletjem čakali po principu »počakajte na naslednjo verzijo«, se danes pojavijo skorajda instantno. Sistem UI in agilen pristop k načrtovanju prinašajo nove, neslutene možnosti razvoja - in tudi napredka.

Vse glasnejšim zagatam glede vprašanj etičnosti uporabe ChatGPTja v šolah, o katerih je bilo govora januarja 2023, so še koncem taistega meseca sledile že prve rešitve. V želji, da bi ponudil zaščito akademski integriteti, se je OpenAI hitro odzval na dileme šolnikov in nemudoma ponudil prvo verzijo že omenjenega klasifikacijskega orodja. Kot so zapisali, je (zaenkrat) resda še nemogoče zanesljivo odkriti vsako besedilo, napisano z umetno UI, a »verjamemo, da lahko dobri klasifikatorji ublažijo lažne trditve, da je besedilo, ustvarjeno z umetno inteligenco, napisal človek.« 

Tudi Turnitin, sicer najbolj znan po svoji programski opremi za zaznavanje plagiatorstva, poroča o gradnji orodij za zaznavanje besedil, ustvarjenih z UI. Komercialna programska oprema, ki jo uporabljajo številne univerze za prepoznavanje podobnosti besedil v primerjavi z obširno bazo že objavljenih člankov, knjig in spletnih strani, se zdi odlično izhodišče za razvoj klasifikatorja, grajenega na modelu strojnega učenja. Kot poroča The Register, tudi Turnitin gradi na modelu GPT-3. Izhaja s podmene, da obstajajo pri pisanju umetne inteligence razvidni vzorci, ki so jih računalniki sposobni zaznati. Kot je za The Register povedal Eric Wang, Turnitov podpredsednik oddelka za UI, ljudje »beremo tako, da skačemo naprej in nazaj z očmi, ne da bi se tega sploh zavedali, ali švigamo naprej in nazaj med besedami, med odstavki in včasih med stranmi. Listamo naprej in nazaj. Tudi pišemo s prihodnjim stanjem duha«. ChatGPT, nasprotno, gradi le na podlagi prejšnjih stavkov in prejšnjega besedila. ChatGPT je metodološko in tehnično pač - doslednejši.

Podobno hitre odgovore na etične dileme ChatGPTja obljublja njegov klepetalni brat Claude, zasnovan na principu »ustavne umetne inteligence«. Tudi ta temelji na modelu strojnega učenja, a poskuša že v izhodišču v urjenje modela vnesti »ustavna načela«. Gre za idejo, da se v model ob že poznanem sistemu »krepitvenega učenja iz človeških povratnih informacij« (reinforcement learning from human feedback, RLHF), v katerem se model usposablja prek učenja s povratnimi informacijami o kakovosti, kot jih poda človek (6), vnese še sito »ustavne presoje«. Model namesto začetne RLFH metode presoja rezultate po ustreznosti vnaprej nastavljenega niza temeljnih ustavnih načel. Kot zatrjujejo njegovi ustvarjalci, je razvoj nabora načel tudi edini človeški nadzor v procesu učenja s krepitvijo. 

Vir: Life Architect

Ideja Ustavne umetna inteligenca je zasnovana kot »varnostna raziskovalna tehnika umetne inteligence«, katere cilje je biti koristen, neškodljiv in pošten z uporabo kombinacije modelnega samonadzora in drugih varnostnih metod. Te naj bi zagotovile, da so sistemi umetne inteligence vodeni in usklajeni s človeškimi vrednotami, tako da so koristni in v pomoč človeštvu, da so varnejši, robustnejši, preglednejši in zato tudi - odgovornejši.

Claude je v času pisanja tega prispevka (februar/marec 2023) še vedno v testni fazi – a v kolikor bodo načela, ki se jim zavezuje, zaživela, lahko pričakujemo znaten napredek v etiki klepetalnih botov. In kar je več: v kolikor se bodo ustavna načela RLHF izkazala za dobrodošla, to lahko nakaže obetajočo pot za nadaljnji razvoj sistemov UI.

»V večini razprav o etiki uporabe umetne inteligence in podatkov je poudarek na tveganjih in morebitni škodi. Čeprav se je treba teh tveganj zavedati in jih obravnavati, je treba priznati tudi, da se umetna inteligenca in podatki uporabljajo za preoblikovanje poučevanja, učenja in ocenjevanja na številne pozitivne načine.«

Končno poročilo strokovne skupine Komisije za umetno inteligenco in podatke v izobraževanju in usposabljanju (7) 

Zaključek


Ker se umetna inteligenca ne razvija v vakuumu, pač pa jo oblikuje medigra nenehno spreminjajočih se kulturnih, družbenih, institucionalnih in političnih sil, je povsem naravno, da je dojemljiva tudi za njihovo patologijo oziroma, širše, za manj želene vidike razmerij, ki veljajo ali se pojavljajo v družbi. Ker so slednji predvsem odraz družbe (in torej ne v naprej začrtanega programskega algoritma), je edini mogoč odgovor za reševanje nastalih zagat budno spremljanje in korigiranje odklonov – ne povsem drugače, kot bi, z namenom orisa koncepta, učili in usmerjali otroke. 

A da bomo temu kos, se moramo naučiti in ozavestiti, na katera področja moramo usmeriti še posebno pozornost, da nam umetna inteligenca ne uide izpod nadzora; naučiti se moramo prepoznavati etične izzive in razumeti posledice uporabe algoritmov.



****
(1) Primer neželenega stranskega učinka sicer koristne UI je poznan praktično vsem: dasiravno nas mobilne aplikacije, kot sta Google Maps ali Waze, praviloma pripeljejo po pravih, najkrajših in najmanj prometnih cestah najhitreje na cilj, lahko v primeru zastojev na avtocestah kaj hitro predlagajo alternativne poti, ki ustvarjajo neželene prometne zastoje na lokalnih cestah ali celo stanovanjskih območjih. 
(2) Prim. Gartner, AI Ethics: Use 5 Common Principles as Your, Frank Buytendijk, Erick Brethenoux, Jim Hare, Svetlana Sicular, 27.6.2022
(3) Pomislite samo na UI, ki se uporablja za ustvarjanje lažnih novic ali ki bi se, zgolj primeroma, uporabljala za ustvarjanje avtonomnih morilskih dronov.
(4) Tako je npr. analitika, ki je sledila interakcijam med oglaševalci in uporabniki, že terjala odločen odziv s strani držav.
(5) Prim. Selin Akgun, Christine Greenhow, ibid. Prim. tudi Miller, Frederick A. Miller, Judith H. Katz, J.H. in Roger Gans: AI x I = AI2: The OD imperative to add inclussion to the algorithms of artifcial intelligence, 2018, https://www.researchgate.net/publication/323830092_AI_x_I_AI2_The_OD_imperative_to_add_inclusion_to_the_algorithms_of_artificial_intelligence
(6) Ljudje razvrščajo rezultate, ustvarjene iz istega poziva, in model se nauči teh preferenc, tako da jih je mogoče uporabiti za druge generacije v večjem obsegu.
(7) Evropska Komisija, Generalni direktorat za izobraževanje, mladino, šport in kulturo, Končno poročilo strokovne skupine Komisije za umetno inteligenco in podatke v izobraževanju in usposabljanju : Povzetek, Urad za publikacije EU, 2022, https://data.europa.eu/doi/10.2766/65087