UI v podporo učiteljem?

4. Ravni tveganja pri uporabi umetne inteligence

V predlogu regulativnega okvira za umetno inteligenco1 , ki ga je Evropska komisija (EK) pripravila leta 2021, so opredeljene štiri ravni tveganja, povezane z uporabo sistemov umetne inteligence. Pomembno je opozorilo, da "čeprav večina sistemov umetne inteligence predstavlja omejeno tveganje ali ga sploh ne predstavlja in lahko prispeva k reševanju številnih družbenih izzivov, nekateri sistemi umetne inteligence ustvarjajo tveganja, ki jih moramo obravnavati, da bi se izognili nezaželenim posledicam".
S poudarkom na dejstvu, da "pogosto ni mogoče ugotoviti, zakaj je sistem umetne inteligence sprejel odločitev ali napoved in izvedel določeno dejanje. Tako je lahko težko oceniti ali je bil nekdo nepravično prikrajšan, na primer pri odločitvi o zaposlitvi ali pri vlogi za program javnih sredstev".

Opredeljene so bile štiri stopnje tveganja, od minimalne do nesprejemljive:

  • Nesprejemljivo tveganje: Prepovedani bodo vsi sistemi umetne inteligence, za katere velja, da jasno ogrožajo varnost, preživetje in pravice ljudi, od socialnega točkovanja s strani vlad do igrač, ki uporabljajo glasovno pomoč in spodbujajo nevarno vedenje.
  • Veliko tveganje: Sistemi umetne inteligence, ki so opredeljeni kot zelo tvegani, vključujejo tehnologijo umetne inteligence, ki se uporablja v:
    • kritičnih infrastrukturah (npr. v prometu), ki bi lahko ogrozile življenje in zdravje državljanov;
    • izobraževanju ali poklicnem usposabljanjeu ki lahko določa dostop do izobraževanja in poklicno pot posameznika (npr. ocenjevanje izpitov);
    • varnostne komponente izdelkov (npr. uporaba umetne inteligence v robotsko podprti kirurgiji);
    • zaposlovanje, upravljanje delavcev in dostop do samozaposlitve (npr. programska oprema za razvrščanje življenjepisov v postopkih zaposlovanja);
    • bistvene zasebne in javne storitve (npr. ocenjevanje kreditov, ki državljanom onemogoča pridobitev posojila);
    • kazenski pregon, ki lahko posega v temeljne pravice ljudi (npr. ocenjevanje zanesljivosti dokazov);
    • upravljanje migracij, azila in mejnega nadzora (npr. preverjanje pristnosti potnih listin);
    • upravljanje pravosodja in demokratični procesi (npr. uporaba prava za konkretna stanja).
  • Omejeno tveganje: Omejeno tveganje se nanaša na sisteme umetne inteligence s posebnimi obveznostmi glede preglednosti. Pri uporabi sistemov UI, kot so klepetalni boti, se morajo uporabniki zavedati, da komunicirajo s strojem, da lahko sprejmejo informirano odločitev o nadaljevanju ali umiku.
  • Minimalno tveganje ali brez tveganja: Predlog omogoča prosto uporabo umetne inteligence z minimalnim tveganjem. To vključuje aplikacije, kot so videoigre z umetno inteligenco ali filtri za nezaželeno pošto. Velika večina sistemov umetne inteligence, ki se trenutno uporabljajo v EU, spada v to kategorijo.

Predlagane štiri ravni tveganj umetne inteligence v Aktu o umetni inteligenci ES.

Razvrstitev izobraževanja in poklicnega usposabljanja v kategorijo z visokim tveganjem ne pomeni, da se na teh področjih ne sme uporabljati sistemov inteligence, temveč da je treba sprejeti dodatne previdnostne ukrepe. V prej omenjenem okviru je navedeno, da bodo "za sisteme UI z visokim tveganjem veljale stroge obveznosti, preden bodo lahko dani na trg".


__________________________________

1. "Laying down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending certain Union Legislatives Acts" - Regulatory Framework Proposal on Artificial Intelligence, European Commission - 2021