Přehled

Metody strojového učení jsou již dnes běžnou součástí vědecké praxe. Aktuálně nejpřesnější modely jsou však typu black-box, pro něž není snadné určit jak daný model funguje. Je tedy možné, že i přesné predikce jsou založeny na chybné interpretaci dat, například kvůli neúplnosti trénovacích dat. Vysvětlitelné modely strojového učení se snaží tento problém řešit. Jejich primárním cílem je vysvětlit jakým způsobem se formoval výstup modelu (například hluboké neuronové sítě) pro daná data. Kritickou výzkumnou otázkou je, jak správně zvolit „slovník“ pojmů v nichž se vysvětlení představí lidem. Při správné funkci těchto vysvětlujících principů je však možné použít tento slovník při tvorbě modelu a budovat modely pomocí interakce člověka a strojového učení. Tento přístup je dnes v počátcích, avšak jeho potenciálem je významně zrychlit vývoj a snížit počet experimentů. Garant spolupracuje na vývoji modelů ve fyzice plazmatu a v astronomii.

https://www.utia.cas.cz/cs