Mogu li AI imati Biases?

Autor: Laura McKinney
Datum Stvaranja: 5 Travanj 2021
Datum Ažuriranja: 26 Lipanj 2024
Anonim
I’ve lived as a man & a woman -- here’s what I learned | Paula Stone Williams | TEDxMileHigh
Video: I’ve lived as a man & a woman -- here’s what I learned | Paula Stone Williams | TEDxMileHigh

Sadržaj


Oduzeti:

Posljednjih godina AI se sve više usvaja i primjenjuje na sve, od procjene ljepote do procjene rizika od recidivizma. Pritom je podupro standarde koji podržavaju pristranost i diskriminaciju u nekoliko slučajeva.

Napredak tehnologije ima potencijal da uistinu demokratizira pristup informacijama i mogućnostima. Međutim, kad se u nekim slučajevima koristi na načine koji jačaju mišljenje da su u našem društvu neki ljudi ravnopravniji od drugih.

To smo vidjeli iz slijedećih sedam slučajeva u kojima se umjetna inteligencija namjerno koristi kako bi se izuzele određene kategorije ili u kojima ona jednostavno odražava pristranost svojih ljudskih programera s diskriminirajućim učinkom.

AI Beauty pristranosti

Ljepota će možda biti u oku gledatelja, ali kad taj subjektivni pogled može programirati AI, imate programe pristranosti. Rachel Thomas izvijestila je o jednoj takvoj epizodi na natjecanju ljepote na beauty.ai-u 2016. Rezultati su pokazali da su svjetlije tenisice ocijenjene privlačnijima od tamnih.


Sljedeće godine je „FaceApp, koji koristi neuronske mreže za stvaranje filtera za fotografije, stvorio„ filter vrućine “koji je osvijetlio kožu naroda i dao im više europskih značajki."

Rodna pristranost na jezicima

Thomas također navodi dokumentirani primjer prijevoda koji prelaze stereotipna očekivanja od karijere. Polazište su dvije rečenice: "Ona je liječnik. On je medicinska sestra."

Ako ih potom prevedete na turski i vratite na engleski, dobili biste takve rezultate koje biste mogli očekivati ​​od telefonske igre.

Umjesto da započnete s onim što ste započeli, dobivate očekivanje iz 1950-ih, "On je liječnik. Ona je medicinska sestra." Objašnjava da je to zbog rodno neutralne jedninske imenice na turskom jeziku koja će rodu dodijeliti na temelju očekivanja i stereotipne pristranosti. (Pročitajte Žene u AI: Ojačavanje seksizma i stereotipa tehnikom.)

Iako rasna i spolna predrasuda filtriranje u slike i jezik uzrokuju uznemirenost, nisu sasvim isto što i aktivna diskriminacija koja proizlazi iz AI, ali i to se dogodilo.


Dokaz je bio snimka ograničenja koja su postavljena za oglas u kategoriji smještaja, što je omogućilo mogućnost sužavanja publike provjerom izuzeća kategorija poput Afroamerikanaca, Azijaca ili Hispanoamerikanca. Oglas možete pogledati ovdje.

Kao što ProPublica ističe, diskriminirajući učinak takvih oglasa nezakonit je i prema Zakonu o korektnom stanovanju iz 1968. i Zakonu o građanskim pravima iz 1964. godine. Jedina odbrana u ovom slučaju je bila da oglas nije namijenjen samoj stanovanju, kao što nije bio ' t o nekretnini ili kući na prodaju ili iznajmljivanje.

Međutim, bilo je i drugih slučajeva ciljanja koji ukazuju na rasnu pristranost i koji su motivirali razne subjekte da podnesu građanske tužbe protiv društvene mreže. Kako je Wired izvijestio, konačno je riješeno da prilagodi svoju tehnologiju za ciljanje oglasa kao rezultat nagodbe pet pravnih slučajeva koji su je terete za omogućavanje diskriminacije manjina putem oglasa u ožujku 2019. godine.

ACLU je u svom izvješću o nagodbi istaknuo koliko bi takvi ciljani oglasi mogli biti, jer manjine i žene možda uopće ne shvaćaju da im nije omogućen isti pristup informacijama, stanovanju i mogućnostima rada koje dijele s bijelim muškarcima.

Kako se sve više ljudi okreće internetu kako bi pronašli posao, stan i zajmove, postoji stvarni rizik da će ciljanje oglasa ponoviti i čak pogoršati postojeće rasne i rodne predrasude u društvu. Zamislite da poslodavac odabere prikazivanje oglasa za inženjerske poslove samo muškarcima - ne samo da korisnici koji nisu identificirani kao muškarci te oglase nikad neće vidjeti, već nikada neće znati što su propustili.

Uostalom, rijetko imamo način prepoznati oglase koje ne vidimo na mreži. To što je ta diskriminacija nevidljivom korisniku sve više otežava.

2. Spolna i dobna diskriminacija na poslovima

Među pravnim slučajevima bila je ilegalna diskriminacija u stambenom smještaju koja je dozvoljena. U svom izvješću o nagodbi, ProPublica je rekao da je testirao platformu i uspio kupiti „oglase koji se odnose na stanovanje za one koje isključuju grupe poput Afroamerikanaca i Židova, a prethodno je pronašao oglase za posao isključujući korisnike po dobi i spolu koje su postavile kompanije to su imena domaćinstava. "

Brojni oglasi za posao za koje je ACLU otkrio da su izričito namijenjeni samo muškarcima u određenoj dobnoj skupini, jer su korisnici mogli pronaći klikom na odgovor zašto im je prikazan taj određeni oglas, prikazani su u drugom članku o žičanima. ACLU je pokrenuo tužbu s Komisijom za jednake mogućnosti zapošljavanja protiv društvene mreže i tvrtki koje su postavljale oglase uz obrazloženje da krše i zakone o radu i građanskim pravima.

Diskriminacija zapošljavanja osoba starijih od 40 godina krši savezni Zakon o diskriminaciji u zapošljavanju (ADEA). Ali ciljanje oglasa za posao samo na ljude ispod te dobi jedna je od stvari koje omogućuje platforma.

ProPublica je istaknuo da je fokus jednog njegovog izvješća iznio koji oglasi za posao imaju koristi od ovog ilegalnog oblika isključenja prema dobi. "Imena kućanstava" uključuju Verizon, UPS, Uber, Target, Statefarm, Northwestern Mutual, Microsoft, J Street, HusbSpot, IKEA, Fond za javni interes, Goldman Sach, OpenWorks i sebe, između ostalih.

Prepoznavanje lica nije uspjelo

"Prepoznavanje lica je točno, ako ste bijeli tip" proglasio je naslov članka New York Timesa objavljenog u veljači 2018. Navodi rezultate koji su otkrili jasnu povezanost između tona kože i pogrešne identifikacije:

"Što je tamnija koža, to će se pojaviti više grešaka - i to gotovo 35% za slike tamnoputih žena, prema novom istraživanju koje probija svježe tlo mjerenjem kako tehnologija djeluje na ljude različitih rasa i spola."

Za otkrića se zaslužuje Joy Buolamwini, istraživač u MIT Media Lab-u i osnivač Algorithmic Justice League (AJL). Njeno područje istraživanja su pristranosti u kojima se nalazi AI, što rezultira takvim iskrivljenim rezultatima kada je u pitanju prepoznavanje lica koja ne odgovaraju bijeloj muškoj normi postavljenoj za model.

Buolamwini je u razgovoru o TED-u za 2017. predstavio problem rasne i rodne pristranosti zbog prepoznavanja lica, na koji se referirao na svoju ranu 2018. godinu u videu o projektu rodno sjena iz laboratorija MIT:

<

Navedeno u opisu videozapisa kaže da će ostavljanje AI pristranosti ne biti kontrolirano, "osakatio će dob automatizacije i dodatno pogoršati nejednakost ako se ostavi da se gnjavi". Rizici nisu ništa manji od „gubitka profita ostvarenog pokretom za građanska prava i ženskim pokretom pod lažnom pretpostavkom strojne neutralnosti“.

Opis videozapisa dodaje upozorenje koje su mnogi drugi sada istaknuli, kao što smo vidjeli u Ženama u AI: Pojačavanje seksizma i stereotipa tehnikom: "Automatizirani sustavi nisu svojstveno neutralni. Oni odražavaju prioritete, sklonosti i predrasude - kodirani pogled - onih koji imaju moć oblikovanja umjetne inteligencije. "

25. siječnja 2019. Buolamnwini je objavio Medium post koji se bavio njezinim vlastitim istraživanjima i istraživanjima koji ukazuju na to kako nedostaci AI rezultiraju pogreškama u Amazonovom ponovnom zbrinjavanju i zahtijevaju da tvrtka prestane prodavati AI uslugu policijskim odjelima.

Dok se Rekognizacija može pohvaliti sa 100% točnosti za prepoznavanje svijetloljubih mužjaka i 98,7% točnosti čak i kod tamnijih mužjaka, kada je u pitanju ženka, točnost je pala na 92,9% za svjetlije ženke. Još je blještaviji bio oštar pad točnosti od samo 68,6% za tamnije ženke.

Ali Amazon je odbio popustiti. Članak Venture Beat citirao je izjavu dr. Matt Wood-a, generalnog menadžera za duboko učenje i AI na AWS-u, u kojoj je inzistirao da nalazi istraživača ne odražavaju način na koji se AI zapravo koristi, objašnjavajući:

„Analiza lica i prepoznavanje lica potpuno su različiti s obzirom na temeljnu tehnologiju i podatke korištene za njihovo osposobljavanje. Pokušaj korištenja analize lica da se utvrdi točnost prepoznavanja lica loše se savjetuje, jer to nije planirani algoritam u tu svrhu. "

Ali nisu samo oni povezani s glavnim istraživačkim centrima koji su algoritme smatrali vrlo problematičnim. ACLU je izveo vlastiti test po najpovoljnijoj cijeni od 12,33 dolara, navodi se u izvještaju Gizmoda. Ustanovljeno je da je Rekognizacija uskladila 28 članova Kongresa s fotografijama kriminalaca.

"Lažne su identifikacije izvedene kada je ACLU Sjeverne Kalifornije dao zadatak Rekogniciji uspoređujući fotografije svih 535 članova Kongresa s 25.000 javno dostupnih fotografija sa slike."

Budući da je 11 od 28 ljudi bilo u boji, to odražava značajnu stopu pogreške za njih 39%. Suprotno tome, stopa pogreške u cjelini bila je prihvatljivijih 5%. Šest članova Crnog kongresa u Kongresu, koji su bili među onima koji su povezani s Rekognizacijom povezani s vrpcama, izrazili su zabrinutost u otvorenom pismu direktoru kompanije Amazon.

Recidivizam pristranosti

Pristranost ugrađena u AI protiv ljudi u boji postaje ozbiljniji problem kada znači više od pogreške samo u prepoznavanju. To je bio nalaz druge istrage ProPublica u 2016. Posljedice takve pristranosti nisu ništa manje od slobode pojedinca zajedno s ignoriranjem stvarnog rizika od osobe čija je boja kože pogodovana algoritmom.

Članak se odnosio na dva paralelna slučaja u koja su uključeni jedan bijeli počinitelj i jedan crni. Upotrijebljen je algoritam za predviđanje koji će vjerojatno opet prekršiti zakon. Crno je ocijenjeno visokim rizikom, a bijelo niskim.

Prognoza je shvatila potpuno pogrešno, a bijeli koji je izašao na slobodu morao je ponovo biti zatvoren. To je krajnje problematično jer se sudovi u odlučivanju o uvjetnoj slobodi oslanjaju na bodovanje, a to znači da rasna pristranost uzeta u program znači nejednako postupanje prema zakonu.

ProPublica je algoritam stavila na vlastiti test, uspoređujući ocjene rizika od preko 7000 ljudi koji su uhićeni u okrugu Broward na Floridi, 2013. i 2014., s brojem novih kaznenih prijava protiv njih u sljedeće dvije godine.

Otkrili su da se samo 20% predviđanja za ponavljanje zločina nasilnog karaktera obistinilo, a da su se manji prekršaji dogodili samo za 61% onih koji imaju ocjene o riziku.

Pravi problem nije samo nedostatak točnosti, već uključuje i rasnu pristranost:

  • Formula je posebno vjerovatno lažno označila crne optuženike kao buduće zločince, pogrešno ih označavajući na ovaj način gotovo dvostruko većim od bijelih optuženika.
  • Bijeli okrivljenici pogrešno su označeni kao niski rizik od crnih optuženika.

Zapravo, ovo se odnosi na stopu pogreške od 45% za crnce i 24% za bijelce. Unatoč toj blistavoj statistici, Thomas je izvijestio da je Vrhovni sud Wisconsina još uvijek podržao uporabu ovog algoritma. Ona također opisuje druge probleme povezane s algoritmima recidivizma.