Публикации по теме 'explainable-ai'


Объяснимый ИИ, управляемый данными (XAI): интерпретация моделей машинного обучения
В настоящее время мы все чаще используем технологии искусственного интеллекта (ИИ) в нашей повседневной жизни. Модели ИИ действуют как черные ящики, поэтому мы не можем знать, как и почему модель генерирует то или иное решение. Это повлияет на доверие между пользователем и моделью. Следовательно, существует необходимость в совместном взаимодействии человека и системы ИИ, что означает, что действия системы ИИ должны быть объяснимы для пользователя, то есть Объяснимый искусственный..

Требуется: интуитивное понимание ваших моделей
Не ориентируйтесь только на свои показатели. Создайте базовое и интуитивное представление о том, как и почему работает ваша модель. На одном из моих первых занятий по глубокому обучению в аспирантуре мы должны были выбрать наш окончательный проект. Задача заключалась в том, чтобы найти проблему глубокого обучения и построить успешную модель. Хотя этот проект был много лет назад, он также преподал мне один из самых важных уроков в Data Science. Возможность: обнаружение каски..

ECCO : Расшифровка замаскированных трансформеров.
Инструмент на основе Python для объяснения моделей языковых преобразователей. Большинство организаций сегодня мигрируют к модному слову Машинное обучение и ИИ , создавая множество моделей, начиная от традиционных моделей и заканчивая передовыми моделями нейронных сетей (будь то CNN, RNN, LSTM или даже Transformers), чтобы решить сложную работу и получить прогнозы или Запуск рабочих мест автоматизации с замкнутым циклом и упрощение повседневных задач. Чтобы проверить надлежащую..

Рассвет нейронных сетей — объяснимая визуализация ИИ (часть 5)
Эта статья продолжает общий обзор исследования «Объяснимое глубокое обучение и визуальная интерпретируемость». В середине 1990-х годов исследователи представили искусственные нейронные сети, и они ознаменовали сдвиг парадигмы прогнозного моделирования от мира прикладной статистики к информатике и машинному обучению. Революция глубокого обучения Глубокое обучение — это надмножество машинного обучения, корни которого лежат в математике, информатике и нейробиологии. Прежде всего,..

Секрет качества красного вина
Секрет качества красного вина Настоящий символ Матери-Земли «Пиво делают люди, вино — Бог» — кто-то может сказать, что это была не самая значимая цитата Мартина Лютера в истории… но тот факт, что эта тема уже обсуждалась тогда и что его размышления имеют много сторонников по сей день, говорит для себя. Любите вы его или ненавидите, но факты просты — вино занимает важное место в культуре всего мира… и почти с самого его зарождения. Так почему бы не потратить несколько месяцев на..

BERT Объяснимость
В этом посте мы собираемся изучить несколько методов объяснения BERT и почему это может стоить времени. Что такое БЕРТ? BERT — это платформа машинного обучения с открытым исходным кодом для обработки естественного языка (NLP). BERT разработан, чтобы помочь компьютерам понять значение неоднозначного языка в тексте, используя окружающий текст для установления контекста. BERT, что означает двунаправленные представления кодировщика от преобразователей, основан на преобразователях,..

Измерение методов XAI с помощью неверности и чувствительности
Интерпретируемость модели , понимание машинного обучения Измерение методов XAI с помощью неверности и чувствительности Интуиция, лежащая в основе измерений неверности и чувствительности для методов XAI. Объяснимый искусственный интеллект ( XAI ) с каждым годом становится все более популярным. Кроме того, с каждым годом у нас появляется больше методов, объясняющих, как работают наши модели. Единственная проблема с большинством из этих подходов - это сравнение. У нас есть два типа..