Poučevanje z umetno inteligenco
Spletno mesto: | Skupnosti SIO |
Predmet: | AI4T |
Knjiga: | Poučevanje z umetno inteligenco |
Natisnil: | Gostujoči uporabnik |
Datum: | sobota, 5. julij 2025, 13.44 |
1. Ste pripravljeni zaupati umetni inteligenci pri sprejemanju odločitev?
Ali ste pripravljeni zaupati umetni inteligenci pri sprejemanju odločitev?
Vse odločitve, sprejete z orodji, ki temeljijo na umetni inteligenci, nimajo enakega učinka.
Za nekatere avtomatizirane odločitve, kot so na primer "koraki do rešitve", ki jih učencu predlaga aplikacija za reševanje matematičnih problemov, lahko menimo, da sta dolgoročno tveganje in škoda dokaj majhna.
Nasprotno pa druge odločitve predstavljajo potencialno škodo in/ali tveganje.
V tem primeru je treba sprejeti največ previdnostnih ukrepov, predvsem pa je treba odločitev pojasniti (zakaj je ta odločitev predlagana za to določeno situacijo, za določenega učenca ali skupino učencev).
Oglejmo si nekaj kriterijev, ki se uporabljajo za " vrednotenje" postopka odločanja sistemov, ki temeljijo na umetni inteligenci.
1.1. Pojasnljivost
Pojasnljivost - ena od 7 ključnih zahtev za zaupanja vredno umetno inteligenco: ""Pojasnljivost se nanaša na zmožnost pojasniti tehnične procese sistema umetne inteligence in s tem povezane človeške odločitve (npr. področja uporabe sistema). Tehnična pojasnljivost zahteva, da lahko odločitve, ki jih sprejme sistem UI, ljudje razumemo in jim sledimo."1
Na področju izobraževanja to pomeni, da sta v vsakem orodju za odločanje z umetno inteligenco način predlaganja odločitve in s tem povezana človeška interakcija elementa, do katerih je mogoče dostopati.
To zahtevo je bolj ali manj enostavno izpolniti, vendar pri nekaterih tehnologijah umetne inteligence pojasnljivosti ni tako preprosto zagotoviti. Na primer pri nevronskih mrežah z več plastmi je pojasnila težko podati. Zato se zdaj razvija novo področje umetne inteligence: eXplainable AI ali XAI, ki je opredeljena kot umetna inteligenca, pri kateri lahko ljudje razumejo odločitve ali napovedi umetne inteligence. To je v nasprotju s konceptom "črne skrinjice" pri strojnem učenju, kjer niti njeni oblikovalci ne morejo pojasniti, zakaj je umetna inteligenca sprejela določeno odločitev. "2
___________________________
- "Poleg tega bo morda treba sprejeti kompromis med izboljšanjem pojasnljivosti sistema (kar lahko zmanjša njegovo natančnost) in povečanjem njegove natančnosti (na račun pojasnljivosti). Vsakič, ko sistem umetne inteligence pomembno vpliva na življenje ljudi, bi moralo biti mogoče zahtevati ustrezno razlago postopka odločanja sistema umetne inteligence. Takšna razlaga bi morala biti pravočasna in prilagojena strokovnemu znanju zadevne zainteresirane strani (npr. laik, regulator ali raziskovalec). Poleg tega bi morala biti na voljo pojasnila o tem, v kolikšni meri sistem UI vpliva na proces odločanja v organizaciji in ga oblikuje, o izbiri zasnove sistema in o razlogih za njegovo uvedbo (s čimer se zagotovi preglednost poslovnega modela)." Iz "Ethics Guidelines for Trustworthy AI" (consulted 10/16/2022). ↩
- Iz Wikipedie "Explainable artificial intelligence" (consulted 10/16/2022). ↩
1.2. Interpretabilnost
Napovedi, izdelane z nekaterimi tehnikami umetne inteligence, je lažje razlagati kot druge. Napoved, narejeno z odločitvenim drevesom, je na primer mogoče razložiti, vendar pa to niso vedno najbolj zanimive napovedi, ki jih je mogoče oblikovati.
Na drugem koncu spektra pojasnljivosti je globinsko učenje, ki ga je težko pojasniti, vendar so lahko njegovi rezultati veliko pomembnejši od tistih, narejenih z zelo pojasnljivo UI.
Podpora pri odločanju, ki jo zagotavljajo orodja z nizko razložljivostjo, je zato lahko pomembnejša od podpore, ki jo zagotavljajo orodja z visoko razložljivostjo.
1.3. Od opisa do predloga
Predstavitev povezuje uporabljeno tehnologijo, njeno zapletenost in strateški rezultat.
Razvrstitev uporabe analize podatkov Od opisa do predpisa3
(povzeto po videoposnetku "Learning Analytics" tega modula).
V naslednjih štirih kategorijah je mogoče opaziti povezavo med zapletenostjo uporabljenih metod in doseženimi strateškimi rezultati.
__________________________
3. Video o učni analitiki
1.4. Vrste analitike
Opisna analitika
Deskriptivna analitika preučuje podatke, da bi odgovorila na vprašanje "Kaj se je zgodilo?". Odgovore lahko poda v obliki "preprostih povzetkov o vzorcu in o opažanjih, ki so bila opravljena. Takšni povzetki so lahko kvantitativni ali vizualni, tj. preprosti in razumljivi grafi "4. Temelji na tradicionalnih orodjih brez umetne inteligence.
Diagnostična analitika
Diagnostična analitika odgovarja na vprašanje "Zakaj se je to zgodilo?". Vodi k prepoznavanju vrste in vzroka pojava, da bi določili blažilne ukrepe in rešitve. Nekatere metode, ki se uporabljajo za diagnostično analitiko so na primer statistične metode, kot so odkrivanje podatkov, podatkovno rudarjenje in korelacije. Te metode lahko vključujejo umetno inteligenco.
Napovedna analitika
Prediktivna analitika preučuje podatke ali dogodke, da bi odgovorila na vprašanje "Kaj se bo zgodilo?" ali natančneje: "Kaj se bo verjetno zgodilo?". "Prediktivna analitika je usmerjena v prihodnost in uporablja pretekle dogodke za predvidevanje prihodnosti. Statistične tehnike napovedne analitike vključujejo modeliranje podatkov, strojno učenje, umetno inteligenco, algoritme globokega učenja in podatkovno rudarjenje. "5
Predpisovalna analitika
Preskriptivna analitika odgovarja na vprašanje "Kaj bi bilo treba storiti?" ali "Kako lahko to uresničimo?".
"Preskriptivna analitika ne predvideva le, kaj se bo zgodilo in kdaj se bo zgodilo, temveč tudi, zakaj se bo to zgodilo. Poleg tega preskriptivna analitika predlaga možnosti odločanja o tem, kako izkoristiti prihodnjo priložnost ali zmanjšati prihodnje tveganje, in prikaže posledice vsake možnosti odločanja."6
_________________________________
4. Iz Wikipedije "Descriptive statistics" (consulted 10/16/2022). ↩5. Iz Wikipedije "Predictive Analytics" (consulted 10/16/2022). ↩
6. Iz Wikipedije "Prescriptive Analytics" (consulted 10/16/2022). ↩
1.5. Povzetek
Bolj kot so orodja
pomembna pomoč pri odločanju, bolj kompleksne so informacijske
tehnologije in težje jih je razložiti. Kljub temu je treba v smislu
zagotovljene pomoči ohraniti skrb za razložljivost in potrebno
previdnost pri uporabi orodja UI na področju, kjer so posledice
odločitev pomembne in trajne.
2. Umetna inteligenca v naših storitvah?
Video pojasnjuje, kaj je pojasnljivost na področju umetne inteligence in kakšna je njena vloga, kako se odgovor oblikuje v orodju za podporo odločanju. Posnetek odpira razpravo o vprašanju pravnega okvira UI in potrebnih informacij, ki jih uporabniki
potrebujejo za sprejemanje informiranih odločitev, bodisi na področju medicine bodisi na primer pri usmerjanju uečncev.
Videoposnetek vsebuje tudi pregled pojma "Pojasnljivost" v obliki risanke (od 3'45" do 4'30"), zasnovan je v humornem
tonu, zato ga je mogoče uporabiti v razredu.