UI v podporo učiteljem?

Spletno mesto: Skupnosti SIO
Predmet: AI4T
Knjiga: UI v podporo učiteljem?
Natisnil: Gostujoči uporabnik
Datum: sobota, 5. julij 2025, 13.41

1. Predstavitev modula

Cilji modula so:

  •     Razumeti, kako lahko orodja za odločanje spremenijo prakso učiteljev, jo po možnosti izboljšajo in kako jo je treba postaviti pod vprašaj.
  •     Opredeliti tveganja, povezana z uporabo sistemov umetne inteligence pri odločanju.
  •     Uporabiti predlogo za analizo izobraževalnega orodja, ki temelji na umetni inteligenci.

2. Kje je prostor za človeka?

Videoposnetek izpostavlja pričakovane spremembe zaradi umetne inteligence pri delu (in zlasti razvoj nekaterih poklicev), ne da bi posebej obravnaval področje izobraževanja.
Postavlja se vprašanje "Človek v zanki" - vključen v odločanje,  tj. kakšno mesto naj ima človek v sistemih za podporo odločanju. Ta šaljiv videoposnetek lahko uporabite tudi pri pouku. 


Glavni junak Guillaume pokliče na telefonsko številko, ko prebere članek o možnem izginotju številnih delovnih mest, katerih delo bodo v prihodnosti opravljale umetne inteligence. Omenja napovedi, ki v 10 ali 20 letih predvidevajo izginotje številnih delovnih mest, zlasti belih ovratnikov, katerih naloge bi se lahko avtomatizirale. V vročem telefonu ta razvoj postavlja v perspektivo in ga povezuje s spremembami, ki so se zgodile v 19. stoletju med industrijsko revolucijo. Opozarja, da vse inovacije vodijo k nadomeščanju določenih dejavnosti z drugimi. Poudarja, da danes pravzaprav ni mogoče natančno vedeti, katera delovna mesta bodo avtomatizirana. Razprava med Guillaumom in vročo linijo se nato ponovno osredotoči na novo vprašanje: ne na to, katere dejavnosti lahko opravljajo umetne inteligence, temveč katere odločitve naj bi sprejemale ali ne.

3. Sprejemanje odločitev s pomočjo umetne inteligence

Umetna inteligenca spreminja način sprejemanja odločitev tudi na področju izobraževanja. Orodje umetne inteligence, namenjeno poučevanju tujih jezikov, lahko na primer pomaga predlagati prave vaje ob pravem času. O nalogi, ki bo verjetno najbolj pomembna za naslednjo stopnjo učenja, se orodje AI odloči s kombinacijo "krivulje pozabljanja" Hermanna Ebbinghausa in učenčevega modela (pridobljenega s spremljanjem statistike vsake že naučene besede). Tako na primer deluje Duolingo za šole.

Da bi bolje razumeli, kako lahko umetna inteligenca spremeni način sprejemanja odločitev, je treba upoštevati, da obstajajo tri glavne stopnje vključenosti umetne inteligence v sprejemanje odločitev1:

  • Pri avtomatizaciji odločanja sistem sprejme odločitev z uporabo preskriptivne analitike ali napovedne analitike. Njene prednosti vključujejo hitrost, skalabilnost in doslednost pri sprejemanju odločitev.
  • Pri nadgradnji odločanja sistem človeškim akterjem priporoča odločitev ali več alternativnih odločitev z uporabo preskriptivne ali napovedne analitike. Njegove prednosti so v sinergiji med človeškim znanjem in zmožnostjo umetne inteligence, da hitro analizira velike količine podatkov in se spopada s kompleksnostjo.
  • Pri podpori odločanju človek sprejme odločitev, pri čemer ga podpira opisna, diagnostična ali napovedna analitika. Njena glavna prednost je v skupni uporabi vpogledov, ki temeljijo na podatkih in človeškega znanja, strokovnega znanja in zdrave pameti, vključno s "slutnjo" in čustvi.

Vsaka stopnja lahko pokriva zelo različne razmere v realnosti.  avtomatizacija odločanja se lahko na  primer uporablja za najrazličnejše namene. Ko učna aplikacija, ki uporablja umetno inteligenco, učencu glede na njegov profil dodeli vajo ali nalogo, gre za avtomatizacijo odločanja. V primeru aplikacije Duolingo za šole bo določen učenec dobil nalogo, ki vključuje besede, so morda tik pred tem, da jih pozabi ali vaje, ki bi mu lahko uspele, ker se nahajajo v njegovem najbližjem območju razvoja. V teh primerih je lahko odločitev, ki jo sprejme umetna inteligenca, najustreznejša, njena morebitna škoda pa se zdi precej majhna.

Če pa bi sistem UI predlagal pravno odločitev na podlagi nabora podatkov, ki ga sestavlja vrsta prejšnjih odločitev, ima ta prenos odločanja na UI drugačne posledice. Zato razvrščanje odločitev po stopnjah, povezanih s stopnjo uporabe umetne inteligence, ne zadostuje za razumevanje vloge, ki jo ima umetna inteligenca pri spreminjanju načina sprejemanja odločitev. Upoštevati je treba škodo, ki jo lahko te odločitve povzročijo.


___________________________

  1. Would You Let Artificial Intelligence Make Your Pay Decisions? - Starita, L. Article on https://www.gartner.com/ (consulted 06/10/2022). 



3.1. Preverjanje razumevanja

Odločanje z umetno inteligenco v izobraževanju

Preverite razumevanje treh glavnih stopenj vključenosti umetne inteligence v sprejemanje odločitev s povratnimi informacijami, ki ponazarjajo vsako vrsto odločitve na področju izobraževanja.

4. Ravni tveganja pri uporabi umetne inteligence

V predlogu regulativnega okvira za umetno inteligenco1 , ki ga je Evropska komisija (EK) pripravila leta 2021, so opredeljene štiri ravni tveganja, povezane z uporabo sistemov umetne inteligence. Pomembno je opozorilo, da "čeprav večina sistemov umetne inteligence predstavlja omejeno tveganje ali ga sploh ne predstavlja in lahko prispeva k reševanju številnih družbenih izzivov, nekateri sistemi umetne inteligence ustvarjajo tveganja, ki jih moramo obravnavati, da bi se izognili nezaželenim posledicam".
S poudarkom na dejstvu, da "pogosto ni mogoče ugotoviti, zakaj je sistem umetne inteligence sprejel odločitev ali napoved in izvedel določeno dejanje. Tako je lahko težko oceniti ali je bil nekdo nepravično prikrajšan, na primer pri odločitvi o zaposlitvi ali pri vlogi za program javnih sredstev".

Opredeljene so bile štiri stopnje tveganja, od minimalne do nesprejemljive:

  • Nesprejemljivo tveganje: Prepovedani bodo vsi sistemi umetne inteligence, za katere velja, da jasno ogrožajo varnost, preživetje in pravice ljudi, od socialnega točkovanja s strani vlad do igrač, ki uporabljajo glasovno pomoč in spodbujajo nevarno vedenje.
  • Veliko tveganje: Sistemi umetne inteligence, ki so opredeljeni kot zelo tvegani, vključujejo tehnologijo umetne inteligence, ki se uporablja v:
    • kritičnih infrastrukturah (npr. v prometu), ki bi lahko ogrozile življenje in zdravje državljanov;
    • izobraževanju ali poklicnem usposabljanjeu ki lahko določa dostop do izobraževanja in poklicno pot posameznika (npr. ocenjevanje izpitov);
    • varnostne komponente izdelkov (npr. uporaba umetne inteligence v robotsko podprti kirurgiji);
    • zaposlovanje, upravljanje delavcev in dostop do samozaposlitve (npr. programska oprema za razvrščanje življenjepisov v postopkih zaposlovanja);
    • bistvene zasebne in javne storitve (npr. ocenjevanje kreditov, ki državljanom onemogoča pridobitev posojila);
    • kazenski pregon, ki lahko posega v temeljne pravice ljudi (npr. ocenjevanje zanesljivosti dokazov);
    • upravljanje migracij, azila in mejnega nadzora (npr. preverjanje pristnosti potnih listin);
    • upravljanje pravosodja in demokratični procesi (npr. uporaba prava za konkretna stanja).
  • Omejeno tveganje: Omejeno tveganje se nanaša na sisteme umetne inteligence s posebnimi obveznostmi glede preglednosti. Pri uporabi sistemov UI, kot so klepetalni boti, se morajo uporabniki zavedati, da komunicirajo s strojem, da lahko sprejmejo informirano odločitev o nadaljevanju ali umiku.
  • Minimalno tveganje ali brez tveganja: Predlog omogoča prosto uporabo umetne inteligence z minimalnim tveganjem. To vključuje aplikacije, kot so videoigre z umetno inteligenco ali filtri za nezaželeno pošto. Velika večina sistemov umetne inteligence, ki se trenutno uporabljajo v EU, spada v to kategorijo.

Predlagane štiri ravni tveganj umetne inteligence v Aktu o umetni inteligenci ES.

Razvrstitev izobraževanja in poklicnega usposabljanja v kategorijo z visokim tveganjem ne pomeni, da se na teh področjih ne sme uporabljati sistemov inteligence, temveč da je treba sprejeti dodatne previdnostne ukrepe. V prej omenjenem okviru je navedeno, da bodo "za sisteme UI z visokim tveganjem veljale stroge obveznosti, preden bodo lahko dani na trg".


__________________________________

1. "Laying down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending certain Union Legislatives Acts" - Regulatory Framework Proposal on Artificial Intelligence, European Commission - 2021 



5. Etika za zaupanja vredeno umetno inteligenco

Sistemi umetne inteligence, ki se uporabljajo v izobraževanju, morajo biti zaupanja vredni, tj. izpolnjevati naslednjih 7 zahtev, ki jih morajo sistemi umetne inteligence izpolnjevati, da bi veljali za zaupanja vredne2:

  • tehnična zanesljivost in varnost,
  • zasebnost in upravljanje podatkov,
  • transparentnost,
  • raznolikost, nediskriminatornost in pravičnost,
  • družbena in okoljska blaginja,
  • dgovornost, ter
  • človeško posredovanje in nadzor: "Sistemi umetne inteligence bi morali opolnomočiti ljudi, jim omogočiti sprejemanje premišljenih odločitev in spodbujati njihove temeljne pravice. Hkrati je treba zagotoviti ustrezne mehanizme nadzora."
______________________________
2. "Ethics guidelines for trustworthy AI", European Commission, High-Level Expert Group on AI - 2019. 


5.1. Preverjanje razumevanja

Povežite 7 zahtev za zaupanja vredno umetno inteligenco  z njihovimi opredelitvami:



6. Vključen učitelj


Na področju izobraževanja in usposabljanja "bi morale vse zainteresirane strani razmisliti o posledicah predaje pooblastil nastajajočim tehnologijam za sprejemanje pedagoških odločitev, ki bi jih sicer sprejel učitelj z ustreznim pedagoškim znanjem in znanjem o vsebini predmeta"1.

Da bi bili sistemi umetne inteligence v izobraževanju zaupanja vredni, je potrebna ustrezna analiza z uporabo modela Vključenega učitelja (Teacher-in-the-Loop).

Skupno raziskovalno središče (JRC) v svojem poročilu1 predlaga: "Za izobraževalne aplikacije in storitve, ki temeljijo na avtonomnem odločanju, je mogoče predvideti tri različne pristope za obravnavo porazdelitve odgovornosti med človekom in algoritmom/strojem "1 , in sicer Vključen učitelj, Učitelj nadzornik in Učitelj brez nadzora:

    Vključen učitelj (Teacher in the loop):  Razmislite o aplikaciji, ki avtonomno ocenjuje pomembne izpite ali diagnosticira učne motnje. V takšnih primerih lahko napačna odločitev povzroči resno škodo učencu - končnemu uporabniku (npr. izguba priložnosti, nepošteno ravnanje). Odločitve ali aplikacije, ki bi lahko povzročile škodo ali imele resne posledice za končnega uporabnika, bi morale izobraževalcu najprej priporočiti odločitev z dovolj preglednimi informacijami, da bi jo učitelj lahko pregledal - in se šele nato odločiti, ali bo končno odločitev izpeljal ali ne (slika 1, desno zgoraj).

   Učitelj nadzornik (Teacher-over-the-loop): Obstajajo tudi druge vrste odločitev, pri katerih je dovolj, da izobraževalec ohrani pregled nad odločitvijo, ki jo sprejme aplikacija. To je lahko na primer, ko prilagodljiva učna platforma učencu priporoči učno dejavnost za dosego načrtovanega učnega izida (slika 1, spodaj desno).

    Učitelj brez nadzora: V primeru, ko je verjetnost in resnost škode, ki jo povzroči na primer izobraževalna aplikacija ki se uporablja zunaj šole, majhna, nadzor učitelja ni potreben (slika 1, spodaj levo).


Slika 1: Različne stopnje vključevanja učitelja v avtonomno odločanje algoritmov. Prilagojeno po "Emerging technologies and the teaching profession

___________________________________
  1. "Emerging technologies and the teaching profession: Ethical and pedagogical considerations based on near-future scenarios" - Vuorikari Riina, Punie Yves, Marcelino Cabrera - Joint Research Center report - European Commission, 2020. 


7. Izkušnje odločanja z UI na drugih področjih

Precej izkušenj z uporabo umetne inteligence imata na nekaterih podočjih tudi medicina in pravo. Ker gre tudi tukaj za občutljivi področji, ki močno vplivata na žviljenje posameznika, si velja pogledati nekaj primerov.


7.1. Umetna inteligenca in medicina

Umetna inteligenca in medicina

"Umetna inteligenca je zagotovo v središču medicine prihodnosti z asistiranimi operacijami, spremljanjem bolnikov na daljavo, inteligentnimi protezami ali celo personaliziranim zdravljenjem zahvaljujoč navzkrižnemu povezovanju podatkov (bigdata). "1

Pred približno 50 leti je bil prav na področju diagnostike razvit eden najbolj znanih ekspertnih sistemov: MYCIN.
"To je bil zgodnji ekspertni sistem, ki je uporabljal umetno inteligenco za prepoznavanje bakterij, ki povzročajo hude okužbe, kot sta bakteriemija (katere posledica je pogosto sepsa) in meningitis, ter za priporočanje antibiotikov, pri čemer je bil odmerek prilagojen bolnikovi telesni teži. "2

Sistem MYCIN, ki je bil razvit leta 1972, je bil že šest let kasneje pri postavljanju natančnih diagnoz boljši od zdravnikov . V obsežnem testiranju je  9 zdravnikov, pripravnikov, znanstvenikov in MYCIN moralo postaviti diagnozo in predpisati recept za 80 bolnikov z meningitisom. Diagnoze in predpise je nato slepo ocenilo 8 specialistov in specializantov za meningitis in ... MYCIN je dosegel višje ocene kot človeški strokovnjaki.

Danes je eno od pomembnih področij uporabe strojnega učenja v medicinske namene analiza slik za medicinske diagnoze3. Delovanje te vrste diagnostike pojasnjuje pojasnjuje Gaël Varoquaux, raziskovalec podjetja AI Inria:

"Strojno učenje je veja umetne inteligence (UI). Na kratko povedano, gre za to, da se programski opremi posreduje na tisoče primerov,ob katerih se ta nauči opravljati naloge prepoznavanja, npr. pregledovanje slik za prepoznavanje psov ali mačk. Enako velja za ločevanje lepotnih peg ali malignih melanomov. Teoretično naj bi to omogočilo široko paleto aplikacij v medicini. Na primer, rentgenske slike se zbirajo od tisočih bolnikov, ki trpijo za isto boleznijo - kar imenujemo kohorta. Nato bo računalnik na podlagi teh podatkov strojnega učenja zaznal enake vizualne značilnosti na vseh novih posnetkih, pridobljenih med pregledom drugih posameznikov. To postanejo tako imenovani "ciljni podatki. "4

________________________________________
  1. Prevedeno iz francoskega članka Intelligence artificielle et santé: Des algorithmes au service de la médecine / Artificial intelligence and health: Algorithms in the service of medicine - Website of "Institut national de la santé et de la recherche médicale" / French National Institute of Health and Medical Research (consulted 08/23/2022). 
  2. Mycin, Wikipedia article (consulted 08/23/2022) 
  3. Varoquaux, G., Cheplygina, V. - Machine learning for medical imaging: methodological failures and recommendations for the future. npj Digit. Med. 5, 48 (2022). 
  4. Varoquaux, G. - Medical imaging: can artificial intelligence deliver? - Interview on Inria Website (consulted 08/23/2022) 


7.2. UI in pravosodje

Na področju pravosodja sta opredeljeni dve glavni uporabi sistemov umetne inteligence.

Prva so orodja, ki lahko pomagajo pri sprejemanju odločitev. Sistem umetne inteligence lahko sodniku pomaga pri preiskavi zadeve, na primer tako, da ga seznani z vsemi sodbami, ki so jih v podobnih primerih izdala ustrezna sodišča. V tem primeru umetna inteligenca izboljša iskanje informacij, vendar sodnik odločitev sprejme sam5.

Obstajajo tudi orodja, ki lahko napovedujejo odločitve. V tem primeru UI sodniku neposredno predlaga sodno odločbo6. Programska oprema analizira veliko število primerov sodnih odločb in "samodejno" izpelje pravila za odločanje.

Pojav napovedovalnega pravosodja vzbuja številne pomisleke.
Če "uporaba umetne inteligence na področju pravosodja lahko prispeva k izboljšanju učinkovitosti in kakovosti", jo je treba "izvajati odgovorno in v skladu s temeljnimi pravicami "7.

Na evropski ravni je bila leta 2018 sprejeta Etična listina o uporabi umetne inteligence v pravosodnih sistemih in njihovem okolju. Organizirana je okoli petih načel in priznava pomen nediskriminacije, spoštovanja temeljnih pravic, kakovosti, varnosti, transparentnosti, nepristranskosti in pravičnosti.

Na koncu poudarja načelo "pod nadzorom uporabnika": "izključuje predpisovalni pristop in zagotavlja, da so uporabniki obveščeni akterji in da imajo nadzor nad svojimi odločitvami. "7

__________________________________________


7.3. Algoritmi upravljanja avtonomnih vozil

Že nekaj časa je v javnosti najbolj znana raba umetne inteligence v avtonomnih vozilih, pri čemer se odpira prostor razprave kako programirati vozilo, da bo ravnalo v primerih nesreče. Odločitve takšnih razsežnosti nikakor ne gre prepustiti samo programerjem in inženirjem, postavlja pa se tudi vprašanje kulturnih okvirov v različnih delih sveta.

Vabimo vas, da se preiskusite v aktivnosti, kako bi vi reagirali v različnih situacijah. Do aktivnosti (sicer v angleščini, vendar z zelo povednimi shemami) dostopate na povezavi: https://www.moralmachine.net/

Ob zaključku boste dobili tudi povratno informacijo, ali je vaš "moralni kompas" poravnan z ostalimi udeleženci poskusa. Prej ali slej se bomo kot družba morali soočiti uvedbo etičnih odločitev na tem področju v zakonodajo.

Če vas zanima več, lahko do rezultatov raziskave dostopate tudi v dokumentu na povezavi (v angleščini).

8. Sklep

Tako v pravu kot v izobraževanju ali medicini lahko podpora pri odločanju s strani sistema umetne inteligence izboljša sprejemanje odločitev. Glede na morebitne posledice teh istih odločitev je ohranjanje človeškega nadzora pomembno vprašanje za razvoj sistemov umetne inteligence v prihodnosti.

Vsak uporabnik mora biti sposoben ohraniti kritično uporabo predloga odločitve, ki jo sprejmejo sistemi umetne inteligence. Na primer, pri odkrivanju nekaterih vrst raka so sistemi tako dobro usposobljeni za določene vizualne značilnosti, da odlično diagnosticirajo te manifestacije, drugih pa niso več sposobni prepoznati. Še vedno je potrebno zdravnikovo oko, da vidi tisto, kar je dobro usposobljeni umetni inteligenci ušlo.