Najbolje tek dolazi i svi smo pozvani na aktivno sudjelovanje u novoj sadašnjosti

Nastavite propitivati, ispitivati i učiti te uživati u svemu što nam umjetna inteligencija nudi.

Evo nas na kraju serije tekstova o sedam zahtjeva koje sustavi umjetne inteligencije trebaju zadovoljiti tijekom svog životnog ciklusa temeljem tzv. meke regulative Europske unije. Krenuli smo odmah na početku, u tekstu o prvom zahtjevu s pojmom aktivne odgovornosti, a sada smo cikličkim kružnim kretanjem stigli do posljednjeg zahtjeva koji glasi – Odgovornost uključujući provjerljivost, smanjenje negativnih učinaka i izvješćivanje o njima, kompromise i pravnu zaštitu.

Za one koji nisu čitali moj tekst koji je obrađivao prvi zahtjev, i za one koji jesu, kako bi se podsjetili u nastavku kopiram dio toga teksta u kojem sam izložila pojam aktivne odgovornosti radi lakšeg praćenja i zaključka cijele serije.

Dakle, ponovimo 😊.

Odmah na početku u priču uvodim dva pojma, koja smatram ključnim alatima koji će nam osobno i na društvenoj razini biti ključni za budućnost. To su pojam odgovornosti (eng. responsibility) i pojam aktivne odgovornosti (eng. accountability).

Napominjem da je pojam aktivna odgovornost moj osobni prijevod, jer nisam naišla na bolji te takav prijevod temeljim na definiciji accountability iz online Cambridge Dictionary, a koja glasi: “Accountability – the fact of being responsible for what you do and able to give a satisfactory reason for it, or the degree to which this happens; – a situation in which someone is responsible for things that happen and can give a satisfactory reason for them: e.g. The organization suffers from a lack of accountability. e.g. greater/increased/more accountability. The public has been demanding greater accountability from lawmakers.”

Po meni je to aktivno preuzimanje osobne odgovornosti i ključno je kako za sadašnjost, tako i za budućnost. Redefiniranjem vrijednosti na osobnoj, pa potom na društvenoj razini, i preuzimanjem osobne aktivne odgovornosti te društvene aktivne odgovornosti za implementaciju tih vrijednosti možemo sukreirati svijet sutrašnjice. Važno je napomenuti da je u tom procesu, jer to je dinamični proces, ključno stalno valorizirati i preispitivati rezultate takvih alata i mjera, jer jedino tako, koristeći agile metodu, svojstvenu startup svijetu, možemo osigurati da svaki novi ciklus učenja bude bolji od prethodnoga.

Sam tekst Etičkih smjernica sedmi zahtjev uređuje kako slijedi:

Odgovornost

Zahtjev za odgovornošću dopunjuje prethodne zahtjeve i usko je povezan s načelom pravednosti. Zahtijeva uspostavu mehanizama za osiguravanje odgovornosti za sustave umjetne inteligencije i njihove rezultate prije i nakon njihova uvođenja.

Provjerljivost. Provjerljivost podrazumijeva omogućivanje procjene algoritama, podataka i procesa dizajna. To ne znači nužno da se informacijama o poslovnim modelima i intelektualnom vlasništvu koji su povezani sa sustavom umjetne inteligencije uvijek mora moći otvoreno pristupiti. Procjena koju obavljaju interni i vanjski revizori te dostupnost izvješća o procjeni mogu pridonijeti pouzdanosti tehnologije. U primjenama koje utječu na temeljna prava, uključujući primjene ključne za sigurnost, sustavi umjetne inteligencije trebali bi se moći neovisno revidirati.

Zahtjev za odgovornošću dopunjuje prethodno navedene zahtjeve i usko je povezan s načelom pravednosti.

Smanjenje negativnih učinaka i izvješćivanje o njima. Mora se osigurati i mogućnost izvješćivanja o mjerama ili odlukama koje pridonose određenom rezultatu sustava i mogućnost da se odgovori na posljedice tog rezultata. Identificiranje, procjena, izvješćivanje i smanjenje mogućih negativnih učinaka sustava umjetne inteligencije posebno su važni za one na koje sustavi (ne)izravno utječu. Mora biti dostupna odgovarajuća zaštita za zviždače, nevladine organizacije, sindikate ili druge subjekte kada prijave opravdane zabrinutosti u vezi sa sustavom koji se temelji na umjetnoj inteligenciji. Upotreba procjeni učinka (npr. penetracijsko testiranje (eng. red teaming) ili algoritamska procjena učinka) prije i tijekom razvoja, uvođenja i upotrebe sustava umjetne inteligencije može pomoći u smanjenju negativnog učinka. Te procjene moraju biti razmjerne riziku koji sustav umjetne inteligencije predstavlja.

Kompromisi. Pri provedbi prethodnih zahtjeva mogu se među njima pojaviti napetosti koje mogu dovesti do neizbježnih kompromisa. Te bi kompromise trebalo riješiti racionalno i metodološki na najsuvremeniji način. To znači da treba identificirati relevantne interese i vrijednosti koje sustav umjetne inteligencije implicira te da, u slučaju sukoba između njih, kompromise treba izričito navesti i procijeniti s obzirom na rizik koji predstavljaju za etička načela, uključujući i temeljna prava. U situacijama u kojima se ne mogu utvrditi etički prihvatljivi kompromisi ne bi se trebalo nastaviti s razvojem, uvođenjem i upotrebom sustava umjetne inteligencije u tom obliku. Sve odluke o kompromisima trebalo bi obrazložiti i pravilno evidentirati. Donositelj odluke mora biti odgovoran za način na koji se postiže odgovarajući kompromis i trebao bi kontinuirano pregledavati primjerenost odluke koja je donesena kako bi se osiguralo da se po potrebi mogu provesti promjene sustava.

Pravna zaštita. Kada dođe do nepravednog negativnog učinka trebalo bi predvidjeti dostupne mehanizme kojima se osigurava primjerena pravna zaštita. Svijest o tome da je pravna zaštita moguća kada nešto krene po zlu ključan je element osiguravanja povjerenja. Posebnu pažnju treba obratiti na ranjive osobe ili skupine.*

Svaki od aspekata ovog zahtjeva, kako su pobliže opisani i citirani u gornjem odlomku, u sebi nižu pojmove poput pravde, kompromisa, napetosti između interesa i vrijednosti, načela i učinka, a sve ih povezuje konstanta potreba valorizacije, propitivanja i preispitivanja dosadašnjih saznanja. Dakle, po meni je opet ključna individualna aktivna odgovornost svakog dionika u životnom ciklusu sustava umjetne inteligencije. Takva aktivna odgovornost svakog od nas sastoji se u učenju, propitivanju i ponovnom testiranju svega naučenog, jer jedino takvim neprestanim dijalogom možemo osigurati da svako od nas bude maksimalno zaštićen te da ima maksimalne koristi od svijeta koji pred nas prostire umjetna inteligencija. 

na
U životnom ciklusu sustava umjetne inteligencije ključna je individualna aktivna odgovornost svakog dionika.

Vjerujem da ste se kroz ovu seriju tekstova mogli uvjeriti da su takve koristi velike te da već koristimo puno “plodova” koje umjetna inteligencija donosi u našu svakodnevicu te da omogućava širenje društvenog blagostanja i prosperiteta na temeljima uključivosti i održivosti cijele planete. Dakle, izazivam vas da nastavite propitivati, ispitivati i učiti te naravno uživati u svemu što nam umjetna inteligencija nudi.

*https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2019/11-06/Ethics-guidelines-AI_HR.pdf

Prijavite se na naš Newsletter

Saznajte novosti iz svijeta poduzetništva.

Hvala! Uspješno ste prijavljeni.