Публикации по теме 'model-interpretability'


Интерпретируемое машинное обучение 1  — «Не доверяйте линейным моделям!
Группа специалистов по данным спустилась в пещеру, где массивный блестящий золотой идол отражал свет горящего огня. Собравшись в круг, они начали псалом «линейные модели интерпретируемы, линейные модели интерпретируемы» как раз перед тем, как были принесены в жертву на Общежитии Веры. Наблюдая за сценой сверху, Авантюрист-статистик покачал головой, бормоча «бедняжки», надеясь, что они не примут причинно-следственных решений и не сообщат об этом руководству. Вам интересно, почему..

Измерение методов XAI с помощью неверности и чувствительности
Интерпретируемость модели , понимание машинного обучения Измерение методов XAI с помощью неверности и чувствительности Интуиция, лежащая в основе измерений неверности и чувствительности для методов XAI. Объяснимый искусственный интеллект ( XAI ) с каждым годом становится все более популярным. Кроме того, с каждым годом у нас появляется больше методов, объясняющих, как работают наши модели. Единственная проблема с большинством из этих подходов - это сравнение. У нас есть два типа..

Ценность Шепли для моделей машинного обучения
Надежный ИИ Ценность Шепли для моделей машинного обучения Что такое ценность Шепли и почему она важна для многих техник объяснимости? Этот пост написан в соавторстве с Дэвидом Курокавой. В нашем предыдущем посте мы объяснили, почему объяснимость является ключевым элементом для обеспечения качества вашей модели AI / ML. Мы также ввели таксономию методов объяснения, чтобы помочь сравнить и сопоставить различные методы интерпретации модели. В этом посте мы погрузимся на уровень..