Dúvida sobre conceito de Explainable AI

Pessoal estou estudando um pouco sobre modelos de redes neurais e queria saber se o conceito de explainable AI é uma discussão mais teórica a respeito de como tentar fazer com que esses modelos possam ser mais interpretáveis ou se de fato são análises já consolidadas e implementadas em algum pacote, como o keras, por exemplo.

Oi Bruna! Vou jogar aqui alguns links que eu já vi e gostei sobre interpretabilidade de modelos de redes neurais.

  1. um post muito legal sobre redes convolucionais.
  2. arquitetura tabnet (feito em torch) para dados tabulares e suas ferramentas de interpretação.
  3. o ecossistema do DALEX que foca em interpretar modelos de machine learning no R

Também estive vendo ferramentas e discussões sobre “fairness” da equipe do Explaneble AI da Google + um posto da Sygrid contrapondo ao uso de métricas objetivas para “otimizar justiça”.

Sobre keras eu não conheço! Eu apenas chuto que deva ter coisas legais já feitas para isso.

1 Curtida

Oi Athos! Vou dá uma olhada nos links que você enviou, mas já olhando por cima vi uma coisas interessantes que não achei pesquisando antes de perguntar aqui! Inclusive, notei que o tabnet foi desenvolvido pelo Daniel Falbel! Que demais!

1 Curtida