Common Information, Noise Stability, and Their Extensions
Spoločné informácie merajú množstvo zhodných premenných v dvoch alebo viacerých informačných zdrojoch. Je všadeprítomná v teórii informácie a príbuzných oblastiach, ako je teoretická informatika a diskrétna pravdepodobnosť.
Keďže však existuje viacero pojmov spoločnej informácie, chýba jednotné chápanie hlbokých vzájomných súvislostí medzi nimi. V tejto monografii autori túto medzeru vypĺňajú využitím malého súboru matematických techník, ktoré sú použiteľné v zdanlivo odlišných problémoch. V prvej časti sa čitateľ oboznámi s operačnými úlohami a vlastnosťami spojenými s dvoma hlavnými mierami spoločnej informácie, a to Wynerovou a Gács-Körner-Witsenhausenovou (GKW).
V nasledujúcich dvoch častiach sa autori hlbšie zaoberajú každou z nich. V druhej časti sa zaoberajú rozšíreniami Wynerovej spoločnej informácie z hľadiska simulácie distribuovaných zdrojov vrátane Rényiho spoločnej informácie.
V časti III sa do centra pozornosti dostáva spoločná informácia GKW. Po položení základov autori plynule prechádzajú k diskusii o ich prepojení s rôznymi domnienkami v teórii informácie a diskrétnej pravdepodobnosti.
Táto monografia poskytuje študentom a výskumníkom v oblasti teórie informácie komplexný zdroj informácií pre pochopenie spoločnej informácie a ukazuje cestu k vytvoreniu jednotného súboru techník použiteľných v širokom spektre problémov.