Об ответственном искусственном интеллекте уже давно много говорят. Каждый другой ИИ-игрок строит и предлагает решения на его основе. Свое мнение высказывают миллиарды экспертов, принимаются меры регулирования. Эта статья является моим небольшим дополнением или обязанностью перед Responsible AI.

Начнем с определения ответственного ИИ. Он состоит из нескольких компонентов, таких как справедливость, объяснимость, интерпретируемость, конфиденциальность (нормативная) и т. Д.

Я просто излагаю свое видение этих различных компонентов, когда мы смотрим на решение, разработанное с использованием ИИ.

Справедливость

Начнем с примера справедливости. Некоторое время назад многие из нас слышали новости о предвзятости ИИ в отношении расы, пола или чего-то еще. Теперь, когда мы говорим, что ИИ является предвзятым, то есть модель ИИ является необъективной (прогнозы необъективны). Теперь вопрос в том, почему модель была необъективной. Это не определенно функция используемой модели машинного обучения, если предположить, что мы заботимся обо всех необходимых параметрах при обучении модели. Тогда в чем может быть причина предвзятости модели. Это данные, которые были введены. Если мы изучим данные, исследуя распределение переменных по отношению к предиктору, мы поймем, что это смещение было вызвано самими данными.

Итак, почему же данные являются необъективными? Откуда эти данные? Эти данные - результат действий, предпринятых людьми. Эти данные в основном генерируются человеком или, скорее, генерируются в результате действий человека. Это означает, что исторически люди были предвзяты. Но опять же, это правильно? Итак, дело в том, что данные никогда не будут равномерно распределены для данных переменных. Всегда будет асимметрия, и не каждую переменную с перекосом можно будет считать смещением.

Важно отметить, что переменные, которые могут привести к социальной или личной предвзятости, вообще не должны быть частью алгоритма или обучения. Потому что в любом случае эти переменные не являются или не должны быть переменными решения. Другие косвенные переменные, которые могут сильно коррелировать с этими чувствительными переменными, в любом случае будут отражать исторические закономерности. Таким образом, мы даже решаем проблему конфиденциальности, не используя никаких личных идентификаторов в обучающих данных. Есть много открытых моментов в отношении того, как нам удалить эти данные в самой точке извлечения, когда никто (то есть никто) не имеет доступа к этим данным. Это более крупный вопрос, который необходимо решить, но я ограничиваю свои мысли о том, как, по крайней мере, при построении таких моделей мы берем на себя ответственность за устранение таких предубеждений или переменных и создание ответственных решений ИИ.

Одним словом: соблюдайте конфиденциальность при создании решения AI, справедливость будет решена автоматически

Объясняемость и интерпретируемость

Давайте поговорим о других важных компонентах: объяснимости и интерпретируемости.

Мне действительно интересно, что мы сначала создаем или хотим, чтобы Auto Feature Engineering, Auto ML, и при этом мы фактически превращаем процесс создания решения в процесс черного ящика. А затем, после создания решения, мы хотим объяснить, почему и как все было сделано. Мы могли бы использовать подход прозрачности с самого начала, сохраняя наши решения простыми и эффективными.

В любом случае, какой бы подход мы ни выбрали, теперь вопрос в том, как мы объясним и интерпретируем решение или решение, исходящие из решения Responsible AI.

Есть следующие 4 очень важных вопроса, на которые необходимо ответить

  1. Почему было сделано решение / прогноз?
  2. Как было принято решение / прогноз?
  3. Оценить неопределенность в принятом решении?
  4. Объясните смягчение / альтернативу для устранения неопределенностей?

Если мы сможем ответить на эти вопросы и объяснить ответы специалисту, не занимающемуся данными, то большая часть работы будет сделана.

Я надеюсь, что если мы рассмотрим вышеупомянутые проблемы, связанные с нашим решением «Ответственный ИИ», вскоре мы увидим отчеты Gartner, в которых, по крайней мере, более 50% решений ИИ перейдет в фактическую реализацию, тогда как текущая заявленная цифра составляет около 20%.

Прозрачность

Один очень важный момент, который я хотел бы выделить, - это проблема «манипуляции», упомянутая в отчете о правилах конфиденциальности данных, представленном в настоящий момент Европейскому союзу. В нем говорится о манипулировании решениями с помощью алгоритмов / каналов и т. Д. Следует отметить разницу между управляемыми решениями и осознанными решениями. Позвольте мне привести здесь пример из того, что я узнал по предмету «Ценообразование» во время моей MBA. Существует концепция под названием «ложное ценообразование», которая в основном используется для манипулирования человеческими решениями в пользу бизнеса, которая используется уже много лет. Не знаю, почему даже это было разрешено. В любом случае, чтобы, наконец, возложить ответственность на наш ИИ, сделать наше решение полностью прозрачным и со всеми объяснениями, лежащими в основе каждой рекомендации / решения / прогноза, а затем позволить людям принять окончательное решение!

Справедливость не означает, что все становятся одинаковыми. Справедливость означает, что каждый получает то, что ему нужно - Рик Риордан