Автор Камилла Эдди

В качестве стажера по машинному обучению я каждый день хожу на работу и начинаю свою работу. Я включаю компьютер и начинаю рассматривать свои следующие задачи. Но быстро стало неизбежным осознание того, что в области машинного обучения есть проблемы. В этой статье я надеюсь обрисовать, почему, как черной женщине, помощь в создании следующего умного робота - это огромное дело. И почему нам нужно привлечь больше недопредставленных групп в эту важную область.

Искусственный интеллект и машинное обучение быстро внедряются в нашу повседневную жизнь, но есть основная проблема, которая не решается. Сфера машинного обучения не очень разнообразна. Искусственный интеллект - это обучение машин мыслить, делать выводы и выполнять действия самостоятельно. Но какая информация формирует эти действия? Как машина делает выбор между двумя разными вариантами и может ли предвзятость создателя проникнуть в мышление компьютера?

Ответ на последний вопрос - да.

Одним из шокирующих примеров такой предвзятости был случай, когда служба изображений Google по ошибке классифицировала чернокожих как горилл. Большая часть искусственного интеллекта проверяется на данных, предоставленных исследователями. Хотя Google заявил, что их алгоритм был протестирован с изображениями сотрудниками разных рас, очевидно, что данных для обнаружения и отличия более темных тонов кожи от более светлых явно не хватало. Эксперт по искусственному интеллекту Вивьен Мин сообщила Wall Street Journal, что некоторым системам сложно распознать небелых людей, потому что они обучаются на изображениях в Интернете, которые в подавляющем большинстве являются белыми. Произошло бы это, если бы в командах разработчиков и исследователей было больше «цветных людей»? Разнообразие в области машинного обучения может минимизировать эти типы инцидентов, обеспечивая использование полностью представленных наборов данных в наиболее критических состояниях разработки ИИ.

В целом, разнообразие искусственного интеллекта не позволяет технологии стать инструментом, увековечивающим предубеждения и стереотипы. В недавней статье в New York Times Кейт Кроуфорд [главный исследователь Microsoft и приглашенный профессор Центра гражданских медиа Массачусетского технологического института] заявила, что, если мы не будем бдительны в отношении того, как мы проектируем / обучаем системы машинного обучения, мы «увидим укоренившиеся формы предвзятости. встроен в искусственный интеллект будущего ». И статья Quartz Daily по этому поводу напоминает нам, что устаревшие представления о гендере и расе, как правило, укореняются там, где отсутствуют различные точки зрения.

Это возвращает нас к моей истории. Я осознал, что оказался в отличном месте, чтобы повлиять на изменения в искусственном интеллекте, привнося свой разнообразный опыт в исследования, над которыми я работаю, и поощряя моих коллег проявлять интерес к этой области. Кроме того, генеральный директор Microsoft Сатья Наделла недавно написал статью о Slate, в которой заявил, что «нам нужно перестать предсказывать будущее ИИ и создавать его». И это то, что я надеюсь делать в последующие годы моей карьеры.

В итоге

  • ИИ очень выиграет, если бы разносторонняя группа исследователей предоставила хорошие наборы данных для тестирования.
  • Разнообразие отсутствует, но мы можем и должны изменить его, чтобы стереотипы не укоренились в программных приложениях, которые мы используем каждый день.

Больше POCIT Goodness!

Найдите последние выпуски POCIT здесь!

Ищете работу или хотите нанять? Посетите Доска объявлений POCIT!

Получите еженедельную дозу POCIT в свой почтовый ящик!