Hodnotenie:
Momentálne nie sú žiadne recenzie čitateľov. Hodnotenie je založené na 6 hlasoch.
Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient
⬤ .
Kapitola 1: Hyperparametre.
Cieľ kapitoly: Predstaviť, čo sú to hyperparametre, ako môžu ovplyvniť tréning modelu. Tiež poskytuje intuíciu o tom, ako hyperparameter ovplyvňuje všeobecné algoritmy strojového učenia a akú hodnotu by sme mali zvoliť podľa trénovacej množiny údajov. Podtémy1. Úvod do hyperparametrov. 2. Prečo potrebujeme vyladiť hyperparametre3. Konkrétne algoritmy a ich hyperparametre4. Tabuľka na rozhodovanie o hyperparametroch niektorých špecifických algoritmov.
Kapitola 2: Brute force tuning hyperparametrovCieľ kapitoly: Pochopiť bežne používané klasické metódy ladenia hyperparametrov a implementovať ich od základu, ako aj použiť na to knižnicu Scikit-Learn. Podotázky: 1. Ladenie hyperparametrov2. Vyčerpávajúce metódy ladenia hyperparametrov3. Vyhľadávanie v mriežke4. Náhodné vyhľadávanie5. Hodnotenie modelov pri ladení hyperparametrov.
Kapitola 3: Distribuovaná optimalizácia hyperparametrovCieľ kapitoly: Zvládnuť väčšie súbory údajov a veľký počet hyperparametrov so spojitým priestorom vyhľadávania pomocou distribuovaných algoritmov a metód distribuovanej optimalizácie hyperparametrov s využitím knižnice Dask. Podotázky: 1. Prečo potrebujeme distribuované ladenie2. Dask dátovérámce3. InkrementálnevyhľadávanieCV.
Kapitola 4: Sekvenčná globálna optimalizácia založená na modeli a jej hierarchické metódyCieľ kapitoly: Podrobná teoretická kapitola o metódach SMBO, ktoré využívajú Bayesove techniky na optimalizáciu hyperparametrov. Učia sa zo svojich predchádzajúcich iteráciína rozdiel od Grid Search alebo Random Search. Podotázky: 1. Sekvenčná globálna optimalizácia založená na modeli2. Prístup Gaussovho procesu3. Stromovo štruktúrovaný Parzenov odhad(TPE)
Kapitola 5: Používanie HyperOptCieľ kapitoly: Kapitola zameraná na knižnicu hyperopt, ktorá implementuje algoritmus TPE, o ktorom sa hovorilo v poslednej kapitole. CieľpoužiťalgoritmusTPEnaoptimalizáciuperparametra a oboznámiť čitateľa s tým, v čom je lepší ako iné metódy. Na paralelizáciu vyhodnotení sa použije MongoDB. Diskutovať o Hyperopt Scikit-Learn a Hyperas s príkladmi. 1. Definovanie účelovej funkcie. 2. Vytvorenie prehľadávacieho priestoru. 3. Spustenie programu HyperOpt. 4. Použitie MongoDB Trials na paralelné vyhodnocovanie. 5. Skúšanie HyperOpt6. HyperOpt.
Kapitola 6: Hyperparametrické generatívne adverzné neurónové siete (HG-cGAN) a Forth. Cieľ kapitoly: Vychádza z hypotézy, ako možno na základe určitých vlastností datasetu trénovať neurónové siete na metadátach a generovať hyperparametre pre nové datasety. Tiež sumarizuje, ako môžu tieto novšie metódy ladenia hyperparametrov pomôcť AI v ďalšom rozvoji. Podtémy: - Výskum a vývoj parametrov parametrov: 1. Generovanie metadát2. Trénovanie HG-cGAN3. UI a ladenie hyperparametrov.
© Book1 Group - všetky práva vyhradené.
Obsah tejto stránky nesmie byť kopírovaný ani použitý čiastočne alebo v celku bez písomného súhlasu vlastníka.
Posledná úprava: 2024.11.13 22:11 (GMT)