Transparency and Interpretability for Learned Representations of Artificial Neural Networks
Umelá inteligencia (UI) je pojem, ktorého význam a vnímanie sa v posledných desaťročiach výrazne zmenili.
Počnúc individuálnymi a čisto teoretickými výskumnými snahami v 50. rokoch 20.
storočia sa umelá inteligencia rozrástla do plne rozvinutej výskumnej oblasti modernej doby a pravdepodobne sa môže stať jedným z najdôležitejších technologických pokrokov ľudstva. Napriek tomuto rýchlemu technologickému pokroku zostávajú nezodpovedané niektoré kľúčové otázky, ktoré sa točia okolo otázky transparentnosti, interpretovateľnosti a vysvetliteľnosti rozhodovania umelej inteligencie. Na základe čoraz prísnejších požiadaviek na používanie umelej inteligencie v oblastiach kritických z hľadiska bezpečnosti alebo eticky citlivých oblastiach tak vznikla mladá oblasť výskumu, ktorá sa označuje všeobecným termínom vysvetľujúca umelá inteligencia (Explainable AI - XAI).
Dôležitým výskumným odvetvím XAI je vývoj metód, ktoré pomáhajú uľahčiť hlbšie pochopenie pre naučené znalosti umelých neurónových systémov. V tejto knihe je prezentovaná séria vedeckých štúdií, ktoré osvetľujú, ako prijať empirický prístup inšpirovaný neurovedou na skúmanie naučenej reprezentácie neurónovej siete v rovnakom duchu ako neurovedecké štúdie mozgu.