Etičke implikacije upotrebe AI

3. августа 2021 | Vreme čitanja: 5 min

Softverske i tehnološke kompanije koriste veštačku inteligenciju (AI) kako bi olakšale procese i aplikacije svima koji ih koriste. Telefon sada možete otključati pogledom u kameru, ali i probleme sa korisničkom službom možete rešiti bez čekanja. U najboljim primerima, AI smanjuje radna opterećenja zaposlenih i poboljšava korisničko iskustvo ograničavanjem neefikasnih ljudskih komunikacija. Ali postoji i druga strana ovakve interakcije, nenamerna pristrasnost.

U svemu što radimo, ograničeni smo svojim znanjem i načinom na koji stvari doživljavamo. To ne znači da se u ovakav proces ne uključuju perspektive drugih ljudi, već da postoji široki spektar različitih mišljenja i stavova po ovom pitanju.

Na primer, prepoznavanje lica je i dalje trend koji doživljava popularnost. Kao što je ranije pomenuto, koristi se za otključavanje telefona, ulazak na posebne lokacije, ali i identifikovanje ljudi na društvenim mrežama. Iako to može izazvati određene nedoumice u vezi sa privatnošću, postoje još brojni načini za ugrožavanje zakona za neka, još ozbiljnija pitanja.

Prepoznavanje lica može dati neverovatne rezultate kada, recimo, želi da se prati nečije kretanje putem snimaka sigurnosnih kamera. Međutim i ti rezultati takođe mogu biti manjkavi. Problem je što su programi koji se koriste za obavljanje usluga prepoznavanja lica ograničeni na podatke koje poseduju. Jedna studija je proučavala skupove podataka koje je vodeća kompanija na tom polju isporučila organizacijama koje su izrađivale softver za prepoznavanje lica. Analizom je utvrđeno da je u tom široko rasprostranjenom skupu podataka samo 40% slika bilo žena i samo 1% slika ljudi starijih od 60 godina. Utvrđeno je da ista poseduje prekomernu zastupljenost muškaraca starosti od 18 do 40 godina, ali i nedovoljnu zastupljenost ljudi tamnije puti.

Federalna studija Nacionalnog instituta za standarde i tehnologiju (NIST) iz 2019. godine, otkrila je slična pitanja među većinom algoritama za prepoznavanje lica. Studija je koristila 189 softverskih algoritama koji su kroz dve najpopularnije aplikacije za prepoznavanja lica analizirali 18 miliona slika oko 8,5 miliona ljudi. Preovlađujući su američki algoritmi koji su rezultirali većoj stopi pogrešnih rezultata o ženama, Azijatima, Afroamerikancima i autohtonim grupama (s obzirom na rasu), ali i po pitanju starosti starijeg stanovništva i dece.

Studija je takođe otkrila da su algoritmi razvijeni u azijskim zemljama manje grešili između identifikacije Azijata i Kavkazaca, što bi moglo značiti da je lokacija programera kao posrednika za demografske podatke potencijalno važna za smanjenje demografskih razlika rase i nacionalnog porekla.

Joy Buolamwini, istraživač AI i osnivač Algoritamske lige pravde, objavio je studiju koja je otkrila ogromne rodne i rasne pristrasnosti pronađene u softveru za prepoznavanje lica koji su prodavali Amazon, IBM i Microsoft. Zbog njegovog izveštaja, sve tri kompanije su svoje softvere uklonile sa tržišta. Studija je ukazivala na to da je prepoznavanje lica uspešno sprovedeno samo kod belih muškaraca, ali ne i kod tamnoputih ljudi ili žena.

Posledice pristrasnosti rezultirale su situaciji kada su tri tamnoputa muškarca uhapšena zbog teških zločina koje nisu počinili. Iako su optužbe na kraju odbačene, ne postoji pravi način da se nadoknade psihološke i emocionalnie posledice izazvane ovim iskustvom. Sva trojica su podigla tužbe zbog svojih nepravednih hapšenja.

Ali prepoznavanje lica nije jedini oblik veštačke inteligencije koji sistem krivičnog pravosuđa koristi.

U nekim državama sudije mogu da koriste Al programe koji mogu prevideti recidiv (tj. verovatnoću da će neko ponovo počiniti krivično delo). Jedan od najčešće korišćenih alata za ovo koristi 137 tačaka podataka prilikom kreiranja predviđanja. U analizi ProPublica iz 2016. godine, istraživači su pregledali više od 7.000 osoba uhapšenih u okrugu Brovard (Florida) između 2013. i 2014. godine, a dve godine kasnije su ponovo posetili prethdno osuđene pojedince da bi videli koliko njih je ponovo načinilo prekršaj, što je bilo nalik poređenju korišćenom u algoritmu.

Tada je utvrđeno da je samo 20% onih kojima je bilo predviđeno da će učiniti neko krvično delo to zapravo i učinilo. Studija je otkrila da algoritam češće pogrešno predviđa da su okrivljeni tamnoputi pojedinci u većem riziku da ponove prekršaj (45%) nego okrivljeni belci (23%). U stvari, kada su kontrolisani zbog ranijih zločina, budućeg recidiva, starosti i pola, optuženi tamnoputi pojedinci imali su 77% veće šanse da ponovo načine neko krivično delo.

Analiza ProPublica otkrila je da, iako pitanja postavljena za prikupljanje podataka nisu bila namerno pristrasna, ona su po svojoj osnovi iskrivljavala predviđanja na način koji je bio koristan za nasilne i nenasilne okrivljene belce.

Zanimljivo je da je osnivač kompanije koja je razvila algoritam recidiva, a pritom fokusiran na studiju ProPublica, rekao da program nije dizajniran da se koristi za izricanje kazne, već da se koristi za smanjivanje kriminala. Osnivač je to rekao kada je bio pozvan kao svedok na suđenje optuženog na čiju je kaznu uticao njegov izum, a koji je pritom nosio visok rizik za počinjavanje krivičnog dela.

Kada se posmatraju ove dve primene upotrebe mašinskog učenja i veštačke inteligencije u krivičnom pravosuđu, očigledno je da više različitih perspektiva moraju biti pristune kada se ovi sistemi razvijaju.

Ipak, AI se u nekim slučajevima koristi za istinsko rešavanje problema pristrasnosti.

Kada bi u Švedskoj u prošlosti padao sneg, prvo bi se raščistili glavni putevi i autoputevi, a zatim trotoari i biciklističke staze. Većina zemalja u kojima pada sneg ga čiste na identičan način.

Jedan švedski grad sproveo je studiju i otkrio da je tri puta više pešaka povređeno zbog zamrznutih puteva i trotoara, nego vozača automobila. Kakve to veze ima sa polom? Veći procenat žena je povređen, jer one više hodaju, voze bicikl i koriste javni prevoz, za razliku od muškaraca koji se obično idu autom do posla.

Bez dodatnih troškova za opštinu, grad je uredio način uklanjanja snega tako da su trotoari do vrtića i domova za stare imali prioritet, zatim i trotoari do većih poslovnih zgrada u kojima je ženska radna snaga dominirala (npr. bolnice i opštinske ustanove), a potom i biciklističke staze i trotoari do škola i konačno, putni pravci.

Uključivanje standarda rodne ravnopravnosti rezultiralo je manjim brojem povreda stanovnika i, zauzvrat, smanjenjem medicinskih troškova. Takva situacija ide u korist svima, pogotovo iz razloga što Švedska svojim građanima nudi zdravstvenu zaštitu koju finansira država.

Uvođenjem mašinskog učenja i veštačke inteligencije u svakodnevni život nije za sve pozitivno ili negativno iskustvo. Sigurno je da društvo uživa puno koristi od ispravno dizajniranih programa veštačke inteligencije, ali dok se njeno pravilno uključivanje ne proširi među programerima i dok se ne uzmu u obzir raznovrsnija gledišta i iskustva, šteta koju nanesu manjkavi programi Al uništavaće potencijalne koristi koje bi ovi programi mogli da donesu.

 

Izvor: The ethical implications of using AI – Baker Tilly