Adimen artifizialaren erronkak herritar guztien eskubideak babesteko

Europar Batasunaren Oinarrizko Eskubideen Agentziak (FRA, ingelesezko siglengatik) txosten berri bat argitaratu du “Algoritmoen zeihartasuna– Adimen artifiziala eta diskriminazioa” (ingelesez irakur daiteke), eta bertan aztertu dute adimen artifiziala nola erabiltzen duten aurreikuspeneko polizia lanetan eta diskurtso iraingarrien detekzioan. Argitalpen hori dela-eta, Arartekoak errepasatu egin ditu Europako herriaren defendatzaileek orain dela gutxi aurreratu dituzten jarduketak agintaritza publikoek erabakiak hartzeko prozesuetan, adimen artifiziala (AI) geroz eta gehiago erabiltzen den garaian horri lotutako erronkak sortu direlako.

Adimen Artifiziala leku guztietan dago eta guztioi eragiten digu. Teknologiari esker, administrazio erabakiak modu eraginkorragoan hartu hala dira, herritarrek gehien interesatzen zaien informazioa jaso dezakete eta txertoak azkarrago sortu daitezke. Hala ere, testuinguru berean, geroz eta maizago erabakiak automatikoki hartzen dira, eta horregatik ezinbestekoa da bermatzea teknologiak ez duela herritarren aurka egingo orokorrean, eta zehazki, herritar zaurgarrienen aurka. Hori dela eta, oinarrizko eskubideak babestu eta defendatzeko erakundeak, FRA besteak beste, hurbiletik aztertzen ari dira IA erabiltzeak datuen pribatutasun eta babesean, berdintasunean eta ez diskriminazioan eta baliabide eraginkorrak eskuratzean izan ditzakeen eraginak.

Txosten berri honetan, FRAk lehen aldiz adibide jakin batzuk jaso ditu algoritmoen zeihartasuna nola sortzen denari buruz, eta azaltzen du nola zeihartasun horrek norbanakoen bizitzan eragin dezakeen. Informazio horri esker, are gehiago sakondu daiteke AIren erabilerak oinarrizko eskubideengan sor ditzakeen arrisku posibleen inguruan, zeintzuk FRAk aurretik identifikatuta zituen 2020ko AIri buruzko txostenean (ingelesez irakur daiteke). Zehazki, FRAk bere txostenean bi kasu azterlan jorratu ditu, eta hauek dira horien emaitzak:

  • Poliziaren aurreikuspen ekintzari buruzko kasu azterlanak dio aurretiaz dagoen zeihartasuna handitu egiten dela denbora igaro ahala, eta horren ondorioz polizia ekintza diskriminatzaileak gerta daitezkeela. Adibidez: txosten kriminal zeiharren eraginpeko aurreikuspenen oinarrian poliziak bere jarduna hiriko zona jakin batera mugatzen badu, orduan, poliziak krimena nagusiki zona horretan detektatuko du. Horrek sortzen du atzeraelikadura edo feedback loop izeneko zikloa. Kasu honetan, algoritmoek beste algoritmo batzuetan eragiten dute, eta horrekin, jardun diskriminatzaileak indartzen edo sortzen dituzte eta modu desproportzionalean eragiten diete gutxiengo etknikoei.
  • Bigarren kasuan iritzi iraingarriak detektatzeko sistemen zeihartasun etnikoa eta generoari lotutakoa analizatzen dira. Analisiak erakusten du sareetan gorroto diskurtsoak detektatzeko erabiltzen diren tresnek emaitza zeiharrak sor ditzaketela edo iraingarri gisa sailka ditzaketela egiaz ez direnak, adibidez “Musulmana naiz” edo “Judua naiz” bezalako esaldiak. Horrez gain, algoritmoek genero zeihartasunak sor ditzakete genero markak dituzten hizkuntzak analizatzean, besteak beste gaztelania edo alemana. Horren ondorioz, online zerbitzuen eskuragarritasuna ezberdina izan daiteke ziurrenik arrazoi diskriminatzaileengatik.

FRAk bukatzeko, agintaritza publikoei dei egiten die politikak sortzean kontuan har ditzaten diskriminazioak sortzen dituzten AIren zeihartasunen azterketak. Zehazki, FRAk uste du algoritmoen diagnosi integrala eta osoa egin behar dela, eta horretarako, hauek eskatu dizkie EBko erakunde eta herrialdeei:

  • Algoritmoek izan ditzaketen edo denborarekin garatu ditzaketen zeihartasun posibleak aztertzeko, baldin eta horiek diskriminazioak sor baditzakete;
  • zuzentarauak eman ditzatela datu sentikorrak jasotzearen inguruan, beharrezkoak direnak beste batzuen artean etnia edo genero arrazoiengatiko diskriminazio kasu posibleak ebaluatzeko;
  • banan-banan azter ditzatela zeihartasun etnikoak eta generoari lotutakoak diskurtsoak detektatu eta aurreikusteko ereduetan, eta ebaluazio horren parte egitea berrikuspen erakundeak eta herritarrak; diskriminazio arrazoi guztiak kontuan hartzea, izan ere, zeihartasunak handiak dira - horixe dio EBren Tratu berdintasunaren printzipioaren zuzentarau proposamenak;
  • tresnak erabiltzean hizkuntz aniztasun handiagoa sustatzea eta EBko hizkuntza ofizial guztietara hedatzea, horrela, ingelesaren hegemoniari aurre egiteko iritziak detektatzeko ereduetan, izan ere, arazoak sortzen ditu besteak beste genero marka duten hizkuntzetan;
  • datuetarako eta datuen azpiegituretarako sarbidea hobetzea, algoritmoen zeihartasun arriskua identifikatu eta horren aurka egiteko, eta horrela, aurrera egiteko AI sistemen berrikuspen eraginkorrean.

Erreferentziazkoa den Europako Herriaren Defendatzaileak (EO, ingelesezko siglengatik) AIen gaia jorratu du berriki baita ere. EOk ekimen estrategikoa egin zuen AIk EBko administrazioetan eta EBko estatuetako administrazio publikoetan izan dezakeen inpaktuari buruz (ingelesez irakur daiteke), hizpide hartuta 2021etik EBn eztabaidatzen ari diren Adimen Artifizialaren Lege proposamena. Lege proposamen horretan jasota dago EBko merkatuan AIren sistemen inguruko arauak bateratu behar direla, eta horretarako, arriskuan oinarritutako ikuspegi bat proposatzen du, araubide esku-hartzea mugatzen duena AI sistemek segurtasunarentzat eta oinarrizko eskubideentzat izan ditzaketen arriskuen mailaren arabera.

EOk ondorioztatu zuen administrazio onaren printzipioaren barne daudela justifikazioa, proportzionaltasuna eta zerbitzu kultura enpatikoa eta gizatiarra. Horregatik, AI erabilita pertsonak ordezkatzeak erronka argiak ditu, eta herriaren defendatzaileak ezinbestekoak dira herritarrak defendatzeko administrazio publikoa digitalizatzeak dakarren aldaketaren aurrean. EOk herritarren defendatzaileei eskatu die FRAren tresnak erabil ditzatela (AI erabiltzen denean oinarrizko eskubideei eragiteari buruzkoak), eta administrazio publikoan AIren erabilerako praktika onak bateratzeko ariketa bat martxan jarri du, eta hori baliogarria izango da Arartekoarentzat baita ere, erreferentzia gisa erabiltzeko arlo honetako etorkizuneko jarduketak garatzeko. Etorkizunari dagokionez, EOk aurreikusi du AI sistemen erabilerak gardentasunari eta herritarrek informazioa eskuratzeari buruzko kontuak sortuko dituela -adibidez, AIren lege proposamenak dio EBn AI sistema autonomoen erregistroa sortu beharko litzatekeela-, baita ere kontuen azalpenak emateari dagokionez.