Transparency and Interpretability for Learned Representations of Artificial Neural Networks
Umelá inteligencia (UI) je pojem, ktorého význam a vnímanie sa v posledných desaťročiach výrazne zmenili.
Počnúc individuálnymi a čisto teoretickými výskumnými snahami v 50. rokoch 20.
storočia sa umelá inteligencia rozrástla do plne rozvinutej výskumnej oblasti modernej doby a pravdepodobne sa môže stať jedným z najdôležitejších technologických pokrokov ľudstva. Napriek tomuto rýchlemu technologickému pokroku zostávajú nezodpovedané niektoré kľúčové otázky, ktoré sa točia okolo otázky transparentnosti, interpretovateľnosti a vysvetliteľnosti rozhodovania umelej inteligencie. Na základe čoraz prísnejších požiadaviek na používanie umelej inteligencie v oblastiach kritických z hľadiska bezpečnosti alebo eticky citlivých oblastiach tak vznikla mladá oblasť výskumu, ktorá sa označuje všeobecným termínom vysvetľujúca umelá inteligencia (Explainable AI - XAI).
Dôležitým výskumným odvetvím XAI je vývoj metód, ktoré pomáhajú uľahčiť hlbšie pochopenie pre naučené znalosti umelých neurónových systémov. V tejto knihe je prezentovaná séria vedeckých štúdií, ktoré osvetľujú, ako prijať empirický prístup inšpirovaný neurovedou na skúmanie naučenej reprezentácie neurónovej siete v rovnakom duchu ako neurovedecké štúdie mozgu.
© Book1 Group - všetky práva vyhradené.
Obsah tejto stránky nesmie byť kopírovaný ani použitý čiastočne alebo v celku bez písomného súhlasu vlastníka.
Posledná úprava: 2024.11.13 22:11 (GMT)