«Если я не могу вызвать любовь, я вызову страх».

Научная фантастика проверила тысячелетия философского мышления в виде великих мысленных экспериментов. Эти художественные произведения предполагают человеческую реакцию на развитие технологий в зачастую антиутопических условиях, когда мы смотрим в зловещую долину искусственного.

В фильме «Бегущий по лезвию» Декард — герой-убийца, которому поручено убивать сбежавшие искусственные формы жизни. Он сразу же встречает Рэйчел, личного помощника Тайрелла. Тайрелл управляет корпорацией Tyrell, создателем искусственных форм жизни. Рэйчел оценивает Декарда и говорит: «Похоже, вы чувствуете, что наша работа не приносит пользы обществу», мгновенно помещая двойственные отношения людей с миром и вещами, которые мы создаем, на передний план повествования.

Хэл, компьютер в фильме «Космическая одиссея 2001 года», прямо говорит: «Я знаю, что в последнее время принимал несколько неверных решений, но я могу дать вам полную уверенность, что моя работа вернется в нормальное русло». И «Я хочу тебе помочь». Иллюстрируя напряженные доверительные отношения между людьми и искусственным.

Это напряжение доверия, кажущаяся скорость, с которой оно легко теряется, проиллюстрированы еще Шелли во «Франкенштейне», который описал искусственное существо как монстра более самореализующимся тоном, говоря: «Если я не могу внушить любовь , я вызову страх».

Азимов, как известно, придумал правила для роботов, которые будут бороться с нашими страхами и поддерживать этический контроль в руках людей. В I Robot правила появились в виде полного списка:

· Первый закон: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

· Второй закон: робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.

· Третий закон: Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму законам.

В сегодняшней технологической экосистеме социальных сетей роботизированная деятельность приняла менее физическую форму, но процветала. Чтобы понять природу этого развития, робототехнике требуется более широкое определение, включающее искусственных социальных участников, не имеющих физической формы, связанных с этикой.

Эти социальные машины, какими бы виртуальными они ни были, потребители даже называют «ботами», что свидетельствует о роботизированной природе их существования. Эти боты взаимодействуют с нами в искусственной среде и виртуальном мире социальных сетей. Нас подталкивают и направляют действия этих акторов, сознательно или нет. В искусственной среде и нашей социальной жизни мало что не улучшено аналитикой данных и машинным обучением, от медицинского обслуживания, беспилотных автомобилей до приложений для знакомств и рекламы, размещенной перед нами. В разговоре об этих переживаниях не требуется много времени, чтобы кто-то воскликнул «хотя это было жутко» для такой простой вещи, как реклама. Тем не менее, мы приветствуем легкость, с которой алгоритмы представляют другие результаты, такие как список людей, которые, скорее всего, получат подключение к приложениям для знакомств. Получается, мы, как и в фантастических примерах, находимся в постоянном напряжении с машинным обучением и искусственным интеллектом вокруг нас.

Три правила Азимова наполнены вызовами и сценариями. Это первое правило, с которым мы уже подробно столкнулись, борясь со своего рода неопросвещением (самоописанным как «пробуждение») социального активизма, основанного на социальных сетях, и вытекающим из этого юридически ограниченным осознанием перекрестных уязвимостей. Само определение вреда было расширено по мере того, как мы лучше понимаем, что наносит вред людям способами, которые могут быть незаметны, но столь же разрушительны.

В рамках этого нюанса и сложности эволюции этики возникает парадокс при внедрении этики в участников, управляемых машинным обучением, поскольку все больше и больше алгоритмов и данных используются и предлагаются в цифровой трансформации гражданской ответственности и управления. Цифровая трансформация гражданской ответственности и присутствие этих кибернетических субъектов, состоящих из алгоритмов и электронных таблиц, все больше изолирует и ограничивает ответственность правительства, позволяя администраторам заявлять о доказательствах своей технической грамотности и принятия решений, основанных на данных, даже когда алгоритмы и данные угрожают благосостоянию. наших наиболее уязвимых граждан. Парадокс: в попытке, даже с благими намерениями, передать этический контроль роботам, мы не можем не нарушить первое правило Азимова.

В этом случае целесообразно использовать сервисы, основанные на машинном обучении, в качестве руководства, как вероятностные механизмы, а не принимать результаты без вопросов. Это особенно верно в отношении управления, «умного города», дизайна и архитектуры застроенной среды и многих компонентов сложной машины общества.

Общеизвестно, что компьютеры работают на двоичном коде. Менее известно, что это форма арифметики, изобретенная Готфридом Лейбницем в 1689 году, который основывал свою работу на И Цзин 9 г. до н.э. Его работа была использована для включения/выключения электронных ламп, затем транзисторов, которые их заменили, а затем кремния, который их миниатюризировал. Большинству людей это знакомо как термин двоичный, те цепочки единиц и нулей, которые самым необъяснимым образом существуют в ядре всех вычислений, скрытых и надежно окаменевших в субстрате, лежащем в основе всего, столь же доступном, как и любая другая константа во Вселенной.

Скорость и доступность машин с облачной архитектурой в безграничных, гибких, бессерверных вычислениях с алгоритмами машинного обучения, доступными в качестве услуги, предоставили новую нотацию для единиц и нулей, к которым мы так привыкли. Популярная культура засвидетельствовала это появлением IBM Watson on Jeopardy. Показанное машинное обучение намекнуло аудитории на вероятность результатов машинного обучения выбирать статистически выбранные ответы, которые, возможно, были ответами, но не гарантированы. С этого момента было важно думать о вычислениях не просто как об одном и нуле, а об одном, нуле и, может быть. Может быть существует как своего рода плавающая точка между нулем и единицей, как суперпозиция, где машина одновременно и зафиксирована, и не зафиксирована, чтобы обеспечить вычисленный результат.

На людей ложится тяжелое этическое бремя, особенно в антропогенной среде и гражданских функциях, поддерживающих ее работу. Указание на алгоритмы и данные, когда граждане и пользователи спрашивают о последствиях, с которыми они должны столкнуться после запуска этих алгоритмов, — это смещение этого бремени, а не решение.

В этичном и функционирующем обществе кто-то должен стоять и отвечать перед теми гражданами, которые пострадали негативно. Эта ответственность ляжет на тех, кто развернул алгоритмы и данные, надеясь, что этическая дилемма была волшебным образом решена и растворилась в субстрате из единиц, нулей и возможностей.

Эта статья является продолжением моей статьи Цифровое правительство и театр данных. Отправляйтесь туда, чтобы узнать больше и найти длинный список рекомендуемых исследований!