Algoritmoek ere baztertzen dituzte pertsonak

Honako hau adibide soil bat besterik ez da. 2018ko ikerketa batek frogatu zuen algoritmoak ere arrazistak izan zitezkeela. Ikerketaren arabera, horrelako teknologien datu basean ia denak aurpegi zuriak dira (%85a) eta horregatik koloreko pertsonak modu desegokian klasifikatzeko %34ko aukera dago. Arazoak larria ez badirudi ere, dramatiko bihurtu daiteke pertsonen bizitzetan. Famatua da COMPAS sistemaren kasua. Sistema hau da Estatu Batuetan atxilotutakoei baldintzapeko askatasuna eman edo ez erabakitzearen arduraduna da.
Algoritmoak ez badu arraza argumentu nagusi bezala erabiltzen ere, sistemaren doitasunean eragina du zuri eta beltzen ezberdintasun historikoak eta azken hauek urtetan krimenarekin lotu izana. Honegatik azkenean injustizia batean bilakatzen da sistema, inpartziala izan behar lukeenean.
Horrelako adibideek algoritmoen programazioen inguruko eztabaida ireki dute. Algoritmoek berdintasun irizpideak bete beharko lituzkete baztertzaileak izan beharrean. Arazoak ez du irtenbide erraza ordea.
Europan datu pribatuen trataeraren inguruko kezka zabalduta dago. Araudian barne hartzen da eta horregatik datu pertsonalek babes berezia dute, horiek gaizki erabiltzeak ekar ditzakeen eskubide eta askatasun urraketengatik. Datu sentsible kontsideratzen dira iritzi politikoak, erlijio sinesteak, sindikatu afiliazioa eta datu genetikoen erabilera, izan osasunagatiko informazioak edo orientazio sexuala. Honen aurrean nola erabili horrelako datuak erabiltzen dituzten gaixotasunak diagnostikatzeko sistemak?
Ezbairik gabe, sistemaren diseinuaren seguritatea eta pribatutasuna aztertu beharko dira. Aurreko adibideek argi erakusten dutenez, datuen tratamendua eta bizitza zikloak eragin zuzena du algoritmoaren zehaztasunean. Horregatik, orain arte garatu diren kode etiko askok kontuan hartu beharreko gai anitzak jorratzen dituzte.
Inteligentzia Artifiziala gizarte eta pertsonen ongizatearen alde egiteko sei puntutan eragitea ezinbestekoa da: seguritatean, gardentasunean, lanean, gizakien eta makinen arteko kolaborazioan, manipulazio sozialean eta ongizatean.
IA arduratsu baterako errezeta
2019ko maitzean OECDk IAren printzipioak burutzeko akordio bat zehaztu zuen, eta hauek dira bere puntu garrantzitsuenak:
-
Inteligentzia Artifizialak pertsonei eta planetari onurak ekarri behar dizkio, hazkunde inklusiboa, garapen jarrangarria eta ongizatea bermatuz.
-
IAko sistemek Eskubide Estatua errespetatzeko moduan diseinatu behar dira, baita giza eskubideak, balore demokratikoak eta aniztasuna. Horretaz gain, beharrezkoa denean, gizakiaren esku-hartzea onartu behar du gizarte justu eta berdin bat bermatzeko.
-
Gardentasuna eta zabalkunde arduratsua bermatu behar da IA sistemetan pertsonek emaitzak uler ditzaten eta horiek ezbaian jarri ditzaten.
-
IA sistemek modu sendo, seguru eta babestuan funtzionatu behar dute bere bizi ziklo osoan zehar, eta arrisku potentzialak etengabe ebaluatuak eta kudeatuak izan behar dute.
-
IA sistemak garatu, zabaldu eta erabiltzen dituzten erakunde eta pertsonek arduratsuak izan behar dute, hauen erabilera arduratsuan aipatutako printzipioak betez.
Auzi etikoa
Printzipio hauek irakurriz egiaztatu dezakegu IAren etikaz hitz egitea filosofia moralaz harago doala. Eztabaidak zientzia sozialen gune guztiak barne hartzen ditu, politika publikoetatik hasi eta ekonomikoetatik jarraituz, giza eskubideak bermatzen dituzten erakundeetaraino.
Horretarako, beharrezkoa izango da diziplina ezberdinetako adituen jakintza uztartzea, hausnarketa sakon bat bultzatu eta honekin dauden dudak uxatuz. Inteligentzia Artifiziala izan dadila giza ongizatea lortzen laguntzen duen tresna eta ez aurkakoa.