Porovnanie klasickej analýzy významnosti premenných a interpretácie pomocou SHAP pri modeli XGboost

Interpretovateľnosť modelov strojového učenia zohráva kľúčovú úlohu kde je potrebné porozumieť rozhodovaciemu procesu modelu. Tradičné metódy hodnotenia významnosti premenných, ako napríklad Gain alebo Weight používané v rámci modelov typu Gradient Boosted Trees, poskytujú globálny prehľad o dôležit...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
1. Verfasser: Bednařík, Andrej, 1998-
Format: Buchkapitel
Sprache:Slowakisch
Schlagworte:
Tags: Tag hinzufügen
Keine Tags, Fügen Sie das erste Tag hinzu!
Beschreibung
Zusammenfassung:Interpretovateľnosť modelov strojového učenia zohráva kľúčovú úlohu kde je potrebné porozumieť rozhodovaciemu procesu modelu. Tradičné metódy hodnotenia významnosti premenných, ako napríklad Gain alebo Weight používané v rámci modelov typu Gradient Boosted Trees, poskytujú globálny prehľad o dôležitosti vstupných atribútov avšak často nezachytávajú nelineárne vzťahy a interakcie medzi premennými. Cieľom tohto príspevku je porovnať výsledky klasickej analýzy významnosti s interpretáciou založenou na metóde SHAP (SHapley Additive exPlanations) v modeli XGBoost. Analýza bola realizovaná na vybranom dataset-e prostredníctvom trénovania XGBoost modelu a následného vyhodnotenia klasických metód feature importance a výpočtu SHAP hodnôt. Výsledky ukazujú, že SHAP poskytuje detailnejší a konzistentnejší pohľad na vplyv jednotlivých premenných pričom zohľadňuje ich interakcie a prispieva k lepšej interpretovateľnosti modelu. Výsledky sú zároveň využiteľné aj vo výučbe predmetov Neživotné poistenie a Aktuárske prediktívne modely, kde podporujú transparentné vysvetlenie vplyvu rizikových faktorov v modeloch typu XGBoost.