Sabine Köszegi na webináři ukázala, proč je genderová dimenze zásadní v oblasti umělé inteligence
NKC – gender a věda uspořádalo dne 26. 6. 2026 webinář s názvem I’d blush if I could: A gender perspective on (embodied) AI, který vedla profesorka Sabine Köszegi. Webinář se zaměřil na genderovou dimenzi umělé inteligence. Akce je součástí vzdělávacích aktivit NKC zaměřených na genderovou dimenzi ve výzkumu, které jsou určeny pro českou vědeckou komunitu.
Ve výzkumech týkajících se umělé inteligence (AI), stejně jako v jiných oblastech výzkumu, je klíčové zahrnutí genderové dimenze proto, aby byl výsledek skutečně inkluzivní a férový pro všechny. V oblasti umělé inteligence a robotiky dosahujeme v poslední době opravdu velkých pokroků, což může vzbuzovat naděje, že autonomní a inteligentní stroje pomáhají (nebo mohou pomoci) lidem činit spravedlivější, objektivnější a lepší rozhodnutí.
Navzdory tomu však empirické poznatky a dostupná data naznačují, že umělá inteligence má ještě velké mezery. Ve své současné podobě totiž reprodukuje, a nezřídka dokonce posiluje, nejen genderové, ale také například rasové stereotypy. Webinář rakouské profesorky Sabine Köszegi se zaměřil především na to, jak jsou technologie genderované, a to na třech úrovních – jak jsou genderovaná data, jak jsou genderované stroje a jaké důsledky má genderová segregace ve STEM oborech.
Co se týče genderovaných dat, systémy umělé inteligence jako například ChatGPT jsou trénované na veřejně dostupných datech. Pokud jsou tato data “reprezentativní” (tedy reflektují podobu současné společnosti), obsahují rovněž předsudky a stereotypy, protože ty existují ve společnosti jako takové. Problém nastává v momentech, kdy si nejsme vědomi toho, vůči komu jsou předpojaté a pokud se aktivně nesnažíme o jejich vědomé odstranění, protože v takových případech AI předsudky dále reprodukuje.
Köszegi mluvila o studii, která analyzovala 133 AI systémů v Evropě zjistila, že každý druhý systém obsahoval genderové předsudky a každý čtvrtý jak genderové, tak rasové předsudky (Smith et al. 2021). V některých případech, jako je například zdravotnictví, nám navíc některá data (zejména týkající se žen nebo osob jiné než bílé barvy pleti) zcela chybí, takže data nejsou ani reprezentativní.
Když se zaměříme na genderovanost strojů a konkrétních technologií, jako příklad za všechny nám mohou posloužit hlasové asistentky jako jsou Alexa, Siri nebo Cortana. Ty mají nejen ženská jména a ženské hlasy, ale genderované je i jejich chování a na položené otázky reagují genderově stereotypním způsobem. „Male bias” se zde projevuje jednak v podporování a upevňování představy žen v servisních a asistenčních rolích, čímž upevňují také představy o místě a určení ženy jak v profesním, tak v soukromém životě. S tím souvisí také to, že virtuální asistentky bývají verbálně obtěžovány. Problém je v tom, že jsou často naprogramovány tak, aby na obtěžování reagovaly omluvnými, odbíhavými, nebo dokonce flirtujícími odpověďmi. Odtud je také název webináře – “I’d blush if I could” je totiž jedna z naprogramovaných odpovědí Siri na výrok “You’re a slut”.
To je moment, kdy se genderovanost strojů zásadním způsobem prolíná s genderovou segregací ve STEM oborech. Nejedná se tedy pouze o genderovou dimenzi ve výzkumu a inovacích jako takových, ale v tomto případě jsou na předsudečné chování navázány i další aspekty jako je například nerovnoměrné genderové zastoupení v programovacích týmech. To může mít vliv na to, jak vypadá výsledný produkt a bohužel může docházet k reprodukci předsudků také touto cestou.
Podle Köszegi je důležité chápat algoritmy jako sociotechnické soubory, v nichž je lidský úsudek (a předsudky) součástí tvorby systémů. Apelovala tedy na to, aby během vývoje AI docházelo k interdisciplinární spolupráci, aby si výzkumníci a výzkumnice uvědomovali potenciální dopady jejich vlastních předsudků a aby se stal gender automatickou součástí inovací v oblasti AI.