Razkrivanje umetne inteligence
Konec oktobra je pri založbi Random House izšla knjiga doktorice Joy Buolamwini, Unmasking AI: My mission to protect what is human in the world of machines. Doktorica Joy Buolamwini je raziskovalka v MIT-jevem laboratoriju za medije, ustanoviteljica Lige za algoritmično pravičnost in pesnica z imenom poet of code. Na MIT je prišla kot magistrska študentka na programu medijev, umetnosti in znanosti in ostala tudi na doktorskem študiju. Prav to obdobje svojega življenja opisuje v knjigi »Razkrivanje umetne inteligence«.
V knjigi nas avtorica vodi od začetkov zanimanja za računalništvo, robotiko in tehnologijo do študija na MIT-ju. Buolamwini je želela zgolj razvijati kul tehnologijo. Pri raziskovalnem in umetnostnem projektu v času magistrskega študija pa je bolj kot ne po nesreči ugotovila, da aplikacija za prepoznavo obraza ni prepoznala njenega obraza. Temnopolta Buolamwini je imela ob sebi belo masko, pripravljeno za noč čarovnic, in ko si jo je nadela, jo je model prepoznal. To je bil trenutek, ko je prvič zaznala in skovala tako imenovani pogled programa, angleško the coded gaze ali pogled stroja, ki je ne prepoznava kot osebe zaradi njene barve kože in spola. Pojav pogled programa torej v povezavi z algoritmično pristranskostjo vodi v družbeno izključenost in diskriminacijo. Iz knjige se mi je kot primer pogleda programa najbolj vtisnil v spomin temnopolti Robert Williams, ki ga je detroitska policija aretirala pred njegovo družino in ga zadržala kar 30 ur na podlagi tehnologije prepoznave obraza, ki ga je napačno povezala z neko drugo osebo, ki je v resnici storila kaznivo dejanje.
V nadaljevanju knjige »Razkrivanje umetne inteligence« spoznamo rezultate raziskave, v kateri je Buolamwini primerjala uspešnost klasifikacijskih algoritmov različnih večjih ameriških podjetij za prepoznavo značilnosti obrazov. Zanimalo jo je, kako dobro algoritmi prepoznavajo obraze glede na to, ali je na sliki svetlo- ali temnopolta oseba in ali je na sliki ženska ali moški. V knjigi nekaj strani nameni tudi problematičnosti in netočnosti klasifikacijskih lestvic za barvo kože in privzeti binarnosti spola. Z analizo je ugotovila, da uporabljeni algoritmi z najvišjo stopnjo točnosti zaznajo obraze belih moških, medtem ko večina algoritmov naredi največ napak pri klasifikaciji temnopoltih žensk.
Od kod se prikradejo pristranskosti? Ali so algoritmi in sistemi klasifikacije, ki jih uporabljajo pri prepoznavi obraza, pristranski? So bili podatki, ki so jih uporabljali za treniranje algoritmov strojnega učenja, prav tako pristranski? To sta osrednji vprašanji knjige Unmasking AI. Odgovore dobimo nekje na polovici knjige. Ključno je bilo, piše Buolamwini, da zlati standardi, ki so jih takrat uporabljali za učenje modelov, niso vključevali dovolj velike raznolikosti oseb glede na barvo kože in spol. Toda v nekaterih primerih tudi pri bolj uravnoteženi podatkovni bazi algoritmična pristranskost ostaja. Avtorica sicer ne gre v podrobno razlago tega pojava. Prav tako ne nameni veliko prostora razlagam delovanja umetne inteligence, predstavi zgolj kratko zgodovino in osnove delovanja nevronskih mrež, česar ne pogrešam v knjigi. Avtorica namreč v sklepu knjige poudarja, da pri algoritmični pravičnosti ne gre za tehnološki problem, ampak za družbeno-tehnološki problem. Družbene neenakosti ostajajo in se prenašajo v avtomatizirane sisteme. Knjiga spodbuja vprašanje, kdaj in če sploh kdaj, naj sploh uporabljamo tehnologije umetne inteligence za prepoznavo obraza.
Knjiga »Razkrivanje umetne inteligence« je izjemno berljiva, saj spremljamo razgibano življenje in odraščanje milenijske raziskovalke na področju umetne inteligence. V knjigi Buolamwini opisuje tudi svojo neprijetno izkušnjo ob obisku evropskega parlamenta, kjer so jo gostili kot predavateljico, a je vratar ni spustil v prostore. Odločil se je verjetno na podlagi njenega videza in starosti. Med raziskovalnim delom na MIT-ju je ugotovila, da računalništvo in predvsem algoritmi strojnega učenja, kljub temu da uporabljajo objektivne podatke in matematična orodja, niso objektivni. Privzamejo namreč vse pristranskosti povezane z barvo kože in spolom, ki že obstajajo v našem svetu in jih prevajajo v na videz nevtralne številke. Avtorica spretno krmari med primeri diskriminacije, ki so se ji zgodili v njenem življenju, in primeri nepravičnosti, ki so privzeti v orodjih umetne inteligence. Pri tem, ko algoritme uporabljamo za odločanje o vprašanjih, kot so, ali je neka oseba bolj verjetna povzročiteljica kriminalnih dejanj, ali bo na delovnem mestu boljša od drugih, ali bo oseba lahko vstopila v določeno stavbo, lahko povzročijo posameznikom in posameznicam ogromno trpljenja.
V knjigi se avtorica sprašuje tudi o tem, kaj si mislijo drugi znanstveniki in znanstvenice, ko svoje delo in znanje posreduje skozi poezijo in drugo umetniško ustvarjanje, namesto da bi se posvečala zgolj akademskemu delu. Boulamwini ima izjemno notranjo željo po obveščanju javnosti. Sodelovala je tudi pri pripravi dokumentarnega filma Coded Bias. Svoja raziskovalna spoznanja in misli torej prevaja v pesmi – nekatere beremo tudi v knjigi – in video umetnost ter ponuja pomoč osebam, ki jim je algoritmična nepravičnost že zagrenila življenje ali pa bi jim ga lahko v prihodnosti. Tako je na primer pomagala najemnikom in najemnicam določenih stanovanjskih enot v Brooklynu, kjer so najemodajalci želeli uporabiti tehnologijo za prepoznavo obraza za dostopanje in vstopanje v stanovanja. Z njeno pomočjo so preprečili nameščanje sistema za prepoznavo obraza na vhodih v stavbo in stanovanja.
Joy Buolamwini sledi mnogim drugim raziskovalkam in avtoricam, ki opozarjajo na negativne plati umetne inteligence in z njo povezanih algoritmov, kot so Kate Crawford, Safiya Umoja Noble in Cathy O’Neil. V knjigi jasno pove, da nikakor ni proti tej tehnologiji, saj jo je prav navdušenje nad tehnologijo umetne inteligence in robotike pripeljalo do raziskovanja na MIT. Po njenih besedah želi s svojim raziskovalnim in aktivističnim delom spodbuditi razvoj boljših orodij in s tem tudi razvoj boljše, pravičnejše družbe. Poleg tega, da se je sama uveljavila kot raziskovalka, je postala tudi aktivistka. Na podlagi svojega raziskovanja je Buolamwini ustanovila Ligo za algoritemsko pravičnost, v kateri s pomočjo raziskav, umetnosti in družbenega angažmaja prispevajo k ozaveščanju družbe o uporabi, morebitni škodi in pristranskosti umetne inteligence ter njenem vplivu na družbo in življenje ljudi.
V knjigi o razkrivanju umetne inteligence Joy Buolamwini prikazuje omejitve, nevarnosti in nepravičnosti umetne inteligence. Te teme se v določenih delih večkrat ponavljajo, zato bi lahko bilo kakšno poglavje tudi malo krajše. Hkrati pa je dobro, da avtorica glavna sporočila večkrat poudari, tako da si ključne poudarke lažje zapomnimo. Bralstvu razloži, kako pomembno je bilo, da se je lotila pojasnjevanja delovanja in omejitev teh tehnologij, predvsem kaj vse je narobe pri uporabi pristranskih algoritmov za prepoznavo obraza. V sklepu knjige Buolamwini ponudi razmišljanje, da se nikakor ne smemo zanašati zgolj na tehnologijo, ki le še poglablja in utrjuje družbene neenakosti. Ključno je sodelovanje vseh pri sprejemanju odločitev o predpisih, ki urejajo uporabo umetne inteligence in z njo povezanih tehnologij.
Joy Buolamwini verjame, da lahko umetno inteligenco razume vsak in da zadeva vsakega izmed nas, ki imamo obraz. Ker je umetna inteligenca prodrla v večji del naših življenj, je ključno, da smo z njo seznanjeni, da poznamo njene omejitve in da jo razumemo. Ob tem pa moramo razumeti tudi svet, v katerem algoritmi, ki krojijo naša življenja, nastajajo in se razvijajo. Buolamwini sama večkrat ponovi, da algoritmi in strojno učenje niso objektivna resnica, saj jih ustvarjamo ljudje, ki smo različni in imamo raznolike življenjske izkušnje, vse to pa vpliva na naše raziskovalno delo. Podobno velja za vse ljudi, ki sodelujejo pri razvijanju umetne inteligence. Ključno je, da vsi dobimo vsaj bežen uvid v njihov svet. To knjiga Unmasking AI uspešno posreduje, vsaj za področje razvoja algoritmov za prepoznavo obraza.
Umetno inteligenco je razkrivala Zarja.
Dodaj komentar
Komentiraj