Одна из моих любимых (а их много) цитат из серии о Гарри Поттере — из первой книги, когда Волан-де-Морт говорит Гарри: «Нет добра и зла, есть только сила и те, кто слишком слаб, чтобы искать ее».

В каком-то смысле Волдеморт прекрасно это понимает (и выражает).

Никогда не было объективного правильного и неправильного.

Раньше считалось правильным порабощать людей и относиться к ним как к нижестоящим хозяевам. Это больше не так.

Раньше было правильным отказывать женщинам в праве владеть имуществом или голосовать на выборах. Это больше не так.

Раньше было правильно убивать во имя религии и начинать войны за захват территорий. Это больше не так.

Раньше было правильно преследовать гомосексуалистов. Это больше не так.

Есть некоторые вещи, которые можно научно доказать с помощью теории и наблюдений. Но ни один из них не подпадает под эту категорию. Фактически, ничто из того, о чем мы говорим, когда говорим о добре и зле или правильном и неправильном (с моральной, а не с математической точки зрения), не подпадает под эту категорию.

В этом смысле объективно нет добра и зла. А есть только сила. Это способность определять, что есть добро и зло, что правильно, а что неправильно.

Сегодня и в обозримом будущем (в большинстве стран мира) эта власть исходит от демократии. Не демократия с точки зрения осуществления голосования при избрании должностных лиц. Но демократия в истинной сущности. Потому что то, что большинство из нас считает добром, является добром, а то, что большинство из нас считает злом, является злом.

С появлением ИИ возникли опасения по поводу того, как научить машины действовать этично. В случаях, подобных тому, когда беспилотный автомобиль должен принять решение: ехать прямо и столкнуться с пятью людьми, которые только что прыгнули перед ним, или повернуть налево и столкнуться с одним человеком на тротуаре, или повернуть направо и врезаться в дерево, убив человека внутри машины.

Если бы существовало объективное определение правильного и неправильного, было бы очень просто научить алгоритмы следовать этим принципам. Но, к сожалению, нет.

И хорошо, что это не так. В противном случае все те примеры, с которых я начал, никогда бы не были опрокинуты.

Превращение чего-то неправильного в правильное или злого в хорошее требует изменения общественного мнения. Требуются годы усилий и кампаний, чтобы убедить людей одного за другим изменить образ своего мышления и в конечном итоге достичь переломного момента, когда сила будет на другой стороне, делая их заявления правильными, а тех, кто им противостоит, — неверными.

С ИИ невозможно убедить каждую машину, робота и компьютер по отдельности, один за другим. Все они работают по одному алгоритму. Это означает, что он всегда имеет силу и всегда прав.

Но то, как эти алгоритмы разработаны, заключается в том, что они постоянно учатся на человеческих взаимодействиях (и на взаимодействиях между машинами). Это означает, что если человек говорит им, что что-то, что они сделали, плохо, они объективно слушают. И сразу учиться. И если достаточное количество людей говорят им, что они поступили плохо, и подталкивают их к переломному моменту, они меняются.

Таким образом, реальная проблема заключается не в том, будет ли ИИ действовать этично или нет, он будет, даже если потребуется некоторое время, чтобы отличить правильное от неправильного.

Настоящая забота заключается в том, повлияет ли ИИ на людей, чтобы они изменили свои убеждения о том, что правильно, а что неправильно, выявив и адаптировав их глубокие предубеждения, как на выборах Трампа.

И это проблема, которую стоит решить.

Перед тем, как ты уйдешь…

Если вам это понравилось, поддержите мою работу. Все, что вам нужно сделать, это хлопнуть в ладоши.

Обсудите со мной тонкости хорошей жизни.

Прочитать мою книгу