Как ИИ может усилить неравенство в обществе и что с этим делать правительству?

Когда Facebook отключил своего робота с искусственным интеллектом якобы из-за того, что он разработал свой собственный язык (на самом деле его отключили, потому что он выполнил свои задачи), Интернет вспыхнул от ужаса при указании на то, что нас ждет антиутопическое будущее, в котором доминируют роботы.

Этот инцидент в очередной раз поднял вопрос о том, как мы должны решать этические дилеммы, возникающие в связи с появлением все более интеллектуальных роботов. Основная проблема заключается в самой основе принципа ИИ, машинного обучения. Мы уже начали учить реальных роботов и чат-ботов постоянному самосовершенствованию, поэтому кажется, что сингулярность ближе, чем когда-либо.

Концепция реализации набора универсальных этических норм ИИ не нова. В 2007 году профессор Дарио Флореано уже изучал эволюционное преимущество, которое обман дает в остальном однородной группе роботов-агентов. Три года спустя профессора Университета Джорджии смогли научить роботов способности к обману, создав игру в прятки, в которой один из роботов будет жульничать. Эти технологические разработки вызвали возражения и были названы Wired ужасной, ужасной ошибкой. Несмотря на это, ничего не было сделано для создания этичной роботизированной политики.

Неспособность разработать универсальные этические принципы ИИ до использования технологии в реальном мире явно вызвала глобальный дискомфорт. Мы находимся в той точке, когда «Три закона робототехники» недостаточно глубоки, чтобы успокоить людей тем, что машины не причинят вреда людям и не захватят мир. Тем не менее, уже достигнут ряд значительных успехов, поддерживаемых отраслью (Илон Маск создал «OpenAI» для исследования «дружественного ИИ», в то время как Google, Microsoft, Amazon, IBM и Microsoft сформировали «Партнерство в области ИИ» для получения выгоды). людей и общество) и правительствами (лучшим и наиболее подробным примером является недавно опубликованная статья Британского института стандартов под названием «BS8611: Руководство по этичному проектированию и применению роботов и робототехнических систем»).

Одним из самых интересных и подробных усилий является столетнее исследование Стэнфордского университета Искусственный интеллект и жизнь в 2030 году. Это продолжающееся исследование, посвященное роли ИИ в обществе в обозримом будущем. Это подчеркивает истинную ценность технологии и поднимает несколько потенциальных проблем, связанных с повсеместным использованием ИИ.

Ключевой проблемой, поднятой в отчете, является тот факт, что ИИ может резко увеличить неравенство; как если доступ к технологии неравномерно распределен в обществе, так и между поколениями. Уже сейчас очевидно, что дети больше знакомы с приложениями ИИ, от мобильных телефонов до виртуальных агентов в тематических парках, чем старшее поколение. Раннее знакомство улучшит взаимодействие детей с ИИ, а это означает, что они быстро адаптируются к массовому внедрению технологии, потенциально получая социальные преимущества.

Однако более тревожным является тот факт, что несколько исследований недавно выявили примеры того, как чат-боты с машинным обучением улавливают и используют случайный расизм и сексизм. Приложения ИИ и данные, на которые они опираются, могут отражать бессознательные социальные предубеждения дизайнеров (которые распределяют источники данных и алгоритмы разработки) и пользователей (с которыми ИИ взаимодействуют и у которых учатся поведению). Поэтому существует риск того, что преимущества ИИ будут неравномерно распределены между различными группами в обществе. В статье Предвзятость, вызванная ИИ под названием Сексистский ли ИИ? отмечается, что непрозрачные алгоритмы могут стать косвенными инструментами дискриминации и могут напрямую повлиять на средства к существованию. Существуют алгоритмы, которые с большей вероятностью показывают онлайн-объявления о высокооплачиваемых вакансиях мужчинам, и было показано, что существует алгоритм найма, который при показе идентичных резюме с вероятностью на 50 % предложит кандидату пройти собеседование, если имя европейско-американское, а не афроамериканское.

Компании уже используют машинное обучение для прогнозирования страховых и кредитных рисков на основе финансовой истории людей, а некоторые штаты в США обрабатывают информацию о заключенных с помощью сложных алгоритмов, чтобы предсказать вероятность рецидива при рассмотрении вопроса об условно-досрочном освобождении. Было бы технической проблемой не включить предвзятость в отношении такой информации, как раса, возраст или даже почтовый индекс.

Хотя реализация более строгих правительственных директив по борьбе с этой предвзятостью, особенно в отношении конфиденциальности информации, кажется лучшей идеей, реальность не так проста. Продольное исследование показало, что в таких странах, как Испания и Франция, которые имеют очень строгие правила, в корпорациях сформировался менталитет соответствия, который препятствовал как инновациям, так и защите конфиденциальности. Напротив, нормативно-правовая среда в Соединенных Штатах и ​​Германии, в которой более неоднозначные цели сочетаются с жесткими требованиями прозрачности и действенным правоприменением, добивается большего успеха, когда компании контролируют свою конфиденциальность и уменьшают предвзятость.

Тем не менее, чтобы правительства оказали действительно положительное влияние при разработке этической политики в области ИИ, им придется тесно сотрудничать с технологическими гигантами, которые, как известно, отказываются сотрудничать. У проекта Google Deepmind есть собственная комиссия по этике, которая подвергается критике из-за отсутствия прозрачности и эффективности. Facebook и Amazon активно выступали против использования правительством ИИ и разработки политики ИИ, утверждая, что это приведет к созданию правил, которые поставят под угрозу их быстрые циклы разработки продуктов.

Стэнфордское исследование также показывает, что для создания долговечной и эффективной инфраструктуры ИИ (и политики, связанной с ней) дизайнеры должны учитывать, для чего будет использоваться технология, и учитывать потенциальные негативные привычки, которые она может унаследовать от своих пользователей, чтобы чтобы смягчить эти эффекты. Только определяя эти реальные приложения в разных секторах (от здравоохранения до автономных автомобилей, налогообложения и умных холодильников), мы сможем добиться реального прогресса.

Нехватка женщин и представителей меньшинств в секторе ИИ и, следовательно, участвующих в создании этой технологии, была названа «одной из наиболее важных и приоритетных проблем для компьютерных наук и ИИ» — нам нужно большое разнообразие точек зрения для создания эффективные и инклюзивные алгоритмы. Только объединив эти разные точки зрения, мы сможем создать ИИ, который действительно поможет обществу. В этой области растет объем исследований и инвестиций, и ранее в этом году был запущен Фонд этики и управления ИИ для поддержки работы по разработке этического ИИ в общественных интересах, с упором на прикладные исследования и образование, с первоначальные инвестиции в размере 27 миллионов долларов. А поскольку будущие технологии, приложения и эффекты ИИ невозможно предсказать, нам необходимо постоянно переоценивать политику в контексте новых социальных проблем и учиться на наших прошлых ошибках.

Автор: Маргерит Беллек, исследователь стартапов, CUBE
Отредактировано: Эмили МакДоннелл, глава глобального сообщества, CUBE

CUBE – это глобальная инновационная экосистема, которая служит стратегическим связующим звеном между стартапами, работающими в сфере высоких технологий, и корпорациями, которые полны решимости формировать будущее индустрии 4.0.