Za diskriminaci a rasismus v umělé inteligenci můžou lidé a špatná vstupní data, vysvětluje expert

V umělé inteligenci se může objevovat rasismus nebo třeba diskriminace podle pohlaví. Upozorňuje na to Národní kontaktní centrum – gender a věda Akademie věd. Experti na umělou inteligenci ale vysvětlují, že na vině jsou sami lidé. Tvoří totiž algoritmy, do kterých vkládají vlastní předsudky a stereotypní názory.

Tento článek je více než rok starý.

Praha Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Umělá inteligence

V umělé inteligenci se může objevovat rasismus nebo třeba diskriminace podle pohlaví. Upozorňuje na to Národní kontaktní centrum - gender a věda Akademie věd (ilustrační foto) | Zdroj: Profimedia

„Existuje hezký pokus, kdy byl muž do půl těla svlečený a umělá inteligence obrázek vyhodnotila jako úplně v pořádku,“ popisuje Radiožurnálu Jana Gabrielová z Národního kontaktního centra – gender a věda, jak umělá inteligence odlišně přistupuje k mužskému a ženskému tělu.

Přehrát

00:00 / 00:00

Za diskriminaci v umělé inteligenci můžou podle expertů sami lidé, kteří vytvářejí algoritmy. Více si poslechněte v reportáži Zuzany Machálkové

„A pak si tentýž muž nasadil podprsenku a umělá inteligence ho vyhodnotila, že už je vyzývavý. Zatímco mužské bradavky nevadí, tak v momentě, kdy se tam objevila část oblečení spojená se ženami, už to bylo vyzývavé,“ doplnila.

Expert na umělou inteligenci Tomáš Mikolov z Českého vysokého učení technického v Praze nicméně upozorňuje, že problém není v samotné umělé inteligenci, ale v lidech.

„Umělá inteligence v dnešní době není žádná magická skříňka, žádná inteligence schovaná v počítači. Nedokážeme sestavit žádné umělé vědomí, to je pořád science fiction. Umělá inteligence, to jsou modely strojového učení a ty musí vycházet z nějakých trénovacích dat,“ vysvětluje.

Automatický sběr dat

A těmi jsou miliony obrázků nebo fotografií. V praxi to funguje tak, že si k nim lidé – takzvaní anotátoři – sednou, a jednoduše napíšou, co na obrázku vidí. A tak vzniknou rozsáhlé databáze, ze kterých pak čerpá model strojového učení.

Umělá inteligence zatkla Donalda Trumpa. ‚Bez digitální stopy nejde falešné fotky poznat,‘ říká expert

Číst článek

„Aby si nastavil parametry tak, aby dával co nejlepší odpovědi pro nové obrázky. A pak tento model můžeme použít, abychom generovali popisky obrázků, které nebyly v trénovacích datech. A když jsou ti lidé nějak zaujatí při přípravě dat, že třeba vyberou do testovacích dat jen samé muže, a ne ženy, tak pak nebude taková umělá inteligence schopná detekovat ženy, protože to neuvidí v trénovacích datech,“ popisuje Mikolov.

Pokud tedy anotátor napíše k obrázku popis plný předsudků nebo stereotypů, umělá inteligence to jednoduše převezme. „Za tím není žádná umělá osoba, pořád jen nějaká statistika,“ říká expert na umělou inteligenci.

Zatímco u modelů na rozpoznávání obrázků mají vliv anotátoři, u jiných modelů se podle Tomáše Mikolova sbírají data automaticky: „Vyloženě vychází z dat, která jsou ta reálná. To, co lidé píšou na internet. Takže ono je to takové zrcadlo společnosti.“

V minulosti byly algoritmy, které diskriminovaly určitou skupinu lidí, spojovány i se společností Google. „Výsledky modelů mohou být ovlivněny daty, které zesilují existující předsudky z reálného světa, souvisejících například s rasou, pohlavím, náboženstvím nebo jinými vlastnostmi. Model může například při překladu některých slov předpokládat ženská zájmena, protože to odpovídá historickým údajům,“ bránila se společnost Google.

Začarovaný kruh

Jana Gabrielová upozorňuje, že je to začarovaný kruh. Lidé do umělé inteligence vkládají své předsudky a jiní je skrze ni zase přebírají. Tím se pak může společnost utvrzovat v zajetých stereotypech.

Šéf firmy, která provozuje ChatGPT, se obává vlivu umělé inteligence na práci, volby i dezinformace

Číst článek

Je proto podle ní potřeba diskriminaci – v tomto případě vůči ženám – předcházet hned na začátku, při vytváření databází.

„Určitě by pomohlo, pokud by ty týmy, které pracují ve výzkumech, byly různorodé. Pokud se podíváme na technologické giganty, jako je třeba Google, kde máte mezi výzkumnými pracovníky deset procent žen, a u Facebooku je to patnáct procent žen, tak pak je jasné, že do algoritmů se nepromítá zkušenost s nějakou nerovností. Jsou tam další lidé, kteří vás upozorní: ‚Počkej. Tahle skupina lidí má takové zkušenosti, má tyhle problémy, které nevidíš, protože si se s tím nikdy nesetkal,‘“ myslí si Gabrielová.

Třeba právě Google vyvíjí nástroje, které odhalují zkreslení, detailněji analyzují tréninková data a testují je tak, aby byla nestranná. Konkrétně společnost využívá modelové karty, nástroj What If nebo Machine learning fairness gym – tedy takovou posilovnu nestrannosti ve strojovém učení.

Zuzana Machálková Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme