Публикации по теме 'model-interpretability'
Интерпретируемое машинное обучение 1 — «Не доверяйте линейным моделям!
Группа специалистов по данным спустилась в пещеру, где массивный блестящий золотой идол отражал свет горящего огня. Собравшись в круг, они начали псалом «линейные модели интерпретируемы, линейные модели интерпретируемы» как раз перед тем, как были принесены в жертву на Общежитии Веры. Наблюдая за сценой сверху, Авантюрист-статистик покачал головой, бормоча «бедняжки», надеясь, что они не примут причинно-следственных решений и не сообщат об этом руководству.
Вам интересно, почему..
Измерение методов XAI с помощью неверности и чувствительности
Интерпретируемость модели , понимание машинного обучения
Измерение методов XAI с помощью неверности и чувствительности
Интуиция, лежащая в основе измерений неверности и чувствительности для методов XAI.
Объяснимый искусственный интеллект ( XAI ) с каждым годом становится все более популярным. Кроме того, с каждым годом у нас появляется больше методов, объясняющих, как работают наши модели. Единственная проблема с большинством из этих подходов - это сравнение.
У нас есть два типа..
Ценность Шепли для моделей машинного обучения
Надежный ИИ
Ценность Шепли для моделей машинного обучения
Что такое ценность Шепли и почему она важна для многих техник объяснимости?
Этот пост написан в соавторстве с Дэвидом Курокавой.
В нашем предыдущем посте мы объяснили, почему объяснимость является ключевым элементом для обеспечения качества вашей модели AI / ML. Мы также ввели таксономию методов объяснения, чтобы помочь сравнить и сопоставить различные методы интерпретации модели.
В этом посте мы погрузимся на уровень..