Kako se primičemo kraju seriji tekstova koji obrađuju zahtjeve koje Etičke smjernice Europske unije* stavljaju pred sustave umjetne inteligencije, važno je podsjetiti se da umjetna inteligencija nije nešto što tek dolazi, već je ona godinama dio naših privatnih i poslovnih svakodnevica.
Svi mi, u manjoj ili većoj mjeri, koristimo društvene mreže Facebook, LinkedIn i Instagram, kupujemo i naručujemo na platformama poput Amazona ili eBaya. Kad naručujemo knjige koristimo i servise poput Kindle preporuka, slušamo glazbu putem platformi poput Deezera, Spotifyja, a život bez Googlea i njegovih servisa nije ni zamisliv mom desetogodišnjem sinu, a ni mojoj sedamdesetogodišnjoj svekrvi, jer Google sve zna – od pomoći pri pisanju zadaće do recepta za najbolju marmeladu od jagoda. Gledamo filmove i serije na platformama poput Netflixa, koristimo usluge prijevoza putem Uber ili Taxify platforme. Čak i kada odemo u banku po novu karticu ili kredit, odluku o odobrenju prepuštamo algoritmu temeljenom na umjetnoj inteligenciji.
Prihvaćanjem umjetne inteligencije prihvatili smo da s njom dolaze i takozvane neželjene posljedice, jer kao i svaka tehnologija, i umjetna inteligencija nije savršena te ju je stalno potrebno propitivati, usavršavati i dorađivati. Radi razumijevanja koncepta neželjenih posljedica podijelit ću s vama par primjera tog koncepta.
Kada su tvorci Viagre krenuli s razvojem lijeka, njihov je cilj bio dizajniranje lijeka za spuštanje/reguliranje krvnog tlaka, a nuspojave koje su dovele do utjecaja na erektilnu funkciju kod muškaraca nisu bile inicijalno zamišljene. U slučaju Viagre takva je neželjena posljedica nuspojava postala izvor prihoda.
Međutim, ne mora svaka neželjena posljedica nužno rezultirati bogatstvom. Naprimjer, u slučaju tzv. kobra efekta u razdoblju kolonijalne Indije, lokalna je vlast uvela novčanu nagradu kako bi smanjila populaciju divljih kobri. Nažalost, vlast nije računala s domišljatošću stanovništva koje je umjesto da lovi divlje kobre, počelo uzgajati pitome kobre i iste prijavljivati vlastima radi novčane nagrade. Neželjena posljedica bila je da se nije smanjio broj divljih kobri, već je zbog dodatnog uzgoja pitomih kobri ukupna populacija i divljih i pitomih kobri porasla.
A sada primjer vezan uz sustave umjetne inteligencije i neželjene posljedice. Lokalne vlasti na Floridi odlučile u svrhu predviđanja recidivizma kod kriminalaca koristiti algoritme. S obzirom na podatke koje je algoritam koristio prilikom donošenja odluka, bijelci su u dvostrukom broju slučajeva bili označeni kao niskorizični, dok su crnci bili označeni kao visokorizični i skloni recidivizmu. To je rezultiralo time da je 18-godišnja crnkinja bez prijašnjih osuda, koja je pokušala ukrasti rabljeni bicikl i skuter, označena višom sklonošću nego 41-godišnji bijelac koji je uhvaćen u krađi u dućanu i koji je već odslužio petogodišnju kaznu zatvora zbog oružane pljačke.
Za kraj, evo i priče o tvorcu auto complete funkcije kod pretraživanja u Googleu, Kevinu Gibbsu, koji je htio ubrzati pretraživanje i dizajnirao tzv. auto complete funkciju, ali se kao neželjena posljedica pokazalo da učenjem algoritmi bez ikakve predrasude i procjene repliciraju vrijednosti koje ljudi ostavljaju u tragovima prilikom svojih pretraživanja te se između ostalog kod pretraživanja pitanja Jesu li Židovi… javila ponuda auto complete završetka rečenica za pretragu: “Jesu li Židovi ljudi?“.
Po mom je mišljenju ovo užasavajuć rezultat, no razumijem zašto je do njega došlo i slažem se da je jedan od načina kako obuzdati takve neželjene posljedice citat Alvina Tofflera: “Nepismeni 21. stoljeća nisu oni koji ne znaju čitati i pisati, već oni koji ne mogu učiti, odučiti i ponovno naučiti.”
Upravo zbog primjera koji sam navela, iznimno je važno da se mi kao korisnici sustava umjetne inteligencije neprestano educiramo o tim tehnologijama i vodimo računa o vrijednostima koje svjesno ili nesvjesno unosimo u njih svojim korištenjem. Važno je da ih stalno propitujemo i dorađujemo te da radimo na svojoj digitalnoj pismenosti svakodnevno i inzistiramo da vrijednosti, koje imamo kao društvo, budu inkorporirane u te sustave.
Kao i uvijek, u nastavku citiram odlomak teksta dokumenta Etičke smjernice za pouzdanu umjetnu inteligenciju koji uređuje peti zahtjev koji se stavlja pred sustave umjetne inteligencije – zahtjev za raznolikošću, nediskriminacijom i pravednošću. Da ne duljim, pozivam vas da razmislite o njima i zauzmete aktivan stav i aktivnu odgovornost kako ne biste bili obuhvaćeni neželjenim posljedicama.
Raznolikost, nediskriminacija i pravednost
Kako bi se postigla pouzdana umjetna inteligencija, moramo omogućiti uključenost i raznolikost tijekom cijelog životnog ciklusa umjetne inteligencije. Osim uzimanja u obzir i uključivanja svih relevantnih dionika tijekom cijelog procesa, to podrazumijeva i osiguravanje ravnopravnog pristupa putem procesa uključivog dizajna i jednakog postupanja. Taj je zahtjev usko povezan s načelom pravednosti.
Izbjegavanje nepravedne pristranosti. Skupovi podataka koji se upotrebljavaju u sustavima umjetne inteligencije (za trening i rad) mogu uključivati nenamjerne naslijeđene pristranosti, mogu biti nepotpuni i uključivati loše modele upravljanja. Daljnje prenošenje takvih pristranosti moglo bi dovesti do nenamjernih (ne)izravnih predrasuda i diskriminacije protiv određenih skupina ili ljudi, čime se mogu pogoršati predrasude i marginalizacija. Šteta može nastati i namjernim iskorištavanjem pristranosti (potrošača) ili zbog nepoštenog tržišnog natjecanja, kao što je homogenizacija cijena prikrivenim dogovaranjem ili netransparentnim tržištem. Ako je moguće, iz faze prikupljanja trebalo bi ukloniti diskriminirajuće pristranosti koje se mogu identificirati. I način na koji se sustavi umjetne inteligencije razvijaju (npr. programiranje algoritama) može biti pod utjecajem nepravedne pristranosti. To bi se moglo suzbiti uspostavom procesa nadzora za analizu i utvrđivanje svrhe, ograničenja, zahtjeva i odluka sustava na jasan i transparentan način. Štoviše, zapošljavanje osoba iz različitih područja, kultura i disciplina moglo bi osigurati raznolikost mišljenja i trebalo bi ga poticati.
Dostupnost i univerzalni dizajn. Osobito u područjima interakcije poduzeća i potrošača sustavi bi trebali biti usmjereni na korisnika i dizajnirani tako da svim ljudima omoguće upotrebu proizvoda ili usluga umjetne inteligencije, neovisno o njihovoj dobi, spolu, sposobnostima ili karakteristikama. Posebno je važno da toj tehnologiji mogu pristupiti osobe s invaliditetom, koje postoje u svim društvenim skupinama. Sustavi umjetne inteligencije ne bi trebali imati pristup u kojem jedno rješenje odgovara svima te bi trebali uzimati u obzir načela univerzalnog dizajna, koja obuhvaćaju najširi mogući raspon korisnika te poštovati relevantne norme o pristupačnosti. To će omogućiti pravedan pristup i aktivno sudjelovanje svih ljudi u postojećim i novim ljudskim aktivnostima kojima posreduju računala. To se odnosi i na pomoćne tehnologije.
Sudjelovanje dionika. Kako bi se razvili sustavi umjetne inteligencije koji su pouzdani, preporučuje se savjetovanje s dionicima na koje sustav može izravno ili neizravno utjecati tijekom njegova cijelog životnog ciklusa. Korisno je tražiti redovite povratne informacije čak i nakon uvođenja i uspostave dugoročnijih mehanizama za sudjelovanje dionika, na primjer osiguravanjem informiranja, savjetovanja i sudjelovanja radnika tijekom cijelog procesa uvođenja sustava umjetne inteligencije u organizacije.
* https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai