Causal Fairness Analysis: A Causal Toolkit for Fair Machine Learning
Nedávny nárast záujmu o systémy umelej inteligencie vyvolal v morálnych kruhoch obavy o ich etické používanie a o to, či dokážu preukázať spravodlivé rozhodovacie procesy.
Otázky nespravodlivosti a diskriminácie sú všadeprítomné, keď rozhodnutia prijímajú ľudia, a potenciálne sa ešte znásobujú, keď sa rozhodnutia prijímajú pomocou strojov s malou transparentnosťou, zodpovednosťou a spravodlivosťou. V tejto monografii autori predstavujú rámec kauzálnej analýzy spravodlivosti na pochopenie, modelovanie a prípadné riešenie problémov spravodlivosti v prostredí rozhodovania s umelou inteligenciou.
Autori spájajú kvantifikáciu rozdielov prítomných v pozorovaných údajoch so základným, často nepozorovaným súborom kauzálnych mechanizmov, ktoré tieto rozdiely v prvom rade vytvárajú, pričom túto výzvu nazývajú základný problém analýzy kauzálnej spravodlivosti (Fundamental Problem of Causal Fairness Analysis - FPCFA). S cieľom vyriešiť FPCFA skúmajú mapovanie odchýlok a empirických mier spravodlivosti na štrukturálne mechanizmy a rôzne jednotky populácie, čo vyvrcholí mapou spravodlivosti. Táto monografia predstavuje prvý systematický pokus o usporiadanie a vysvetlenie vzťahu medzi rôznymi kritériami spravodlivosti a skúma, ktoré kauzálne predpoklady sú potrebné na vykonanie kauzálnej analýzy spravodlivosti.
Výsledná kuchárka spravodlivosti umožňuje každému posúdiť existenciu rozdielneho vplyvu a rozdielneho zaobchádzania. Je to aktuálny a dôležitý úvod do vývoja budúcich systémov umelej inteligencie obsahujúcich inherentnú spravodlivosť a ako taký bude široko zaujímavý nielen pre návrhárov systémov umelej inteligencie, ale pre všetkých, ktorí sa zaujímajú o širší vplyv umelej inteligencie na spoločnosť.
© Book1 Group - všetky práva vyhradené.
Obsah tejto stránky nesmie byť kopírovaný ani použitý čiastočne alebo v celku bez písomného súhlasu vlastníka.
Posledná úprava: 2024.11.13 22:11 (GMT)