Position: Do Not Explain Vision Models Without Context
Czy stetoskop na zdjęciu czyni osobę obok lekarzem czy pacjentem? To oczywiście zależy od kontekstowej relacji między tymi dwoma obiektami. Jeśli jest to oczywiste dla ludzi, to dlaczego metody wyjaśnialnej sztucznej inteligencji (XAI) stosowane do analizy głębokich modeli wizyjnych nie wykorzystują informacji kontekstowych?
W tym artykule:
- dokonujemy przeglądu najpopularniejszych metod do wyjaśniania decyzji głębokich modeli wizyjnych, wskazując, że nie uwzględniają one informacji kontekstowych,
- pokazujemy przykłady ograniczeń i niepowodzeń popularnych metod XAI,
- przedstawiamy rzeczywiste przypadki użycia, w których kontekst przestrzenny odgrywa kluczową rolę,
- proponujemy nowe kierunki badań, które mogą prowadzić do lepszego wykorzystania informacji kontekstowych w wyjaśnianiu głębokich modeli wizyjnych,
- argumentujemy, że konieczna jest zmiana paradygmatu w XAI z "gdzie" na "jak"– czyli zamiast skupiać się jedynie na tym "gdzie" na wejściowym obrazie jest kluczowy obszar z punktu widzenia modelu, należy też analizować "jak" różne obiekty na obrazie są zorientowane w przestrzeni.
Naukowcy z PW pracują nad poprawnym zrozumieniem i zakodowaniem roli kontekstu w modelach AI.
Materiał konferencyjny:
Proceedings of Machine Learning Research
Autorzy z PW:
Paulina Tomaszewska, Przemysław Biecek
Dyscyplina:
Rok wydania: