Илон снова за это. В своем твите 11 августа он повторил свои мысли об искусственном интеллекте, заявив, что «если вас не беспокоит безопасность ИИ, вы должны беспокоиться. Риск гораздо больше, чем в Северной Корее ». Он также призвал регулировать ИИ, как «все (автомобили, самолеты, продукты питания, наркотики и т. Д.), Которые представляют опасность для общества».

Это было последнее изложение его сенсационных мыслей по этой теме, которые, если вы читаете это, вам уже знакомы.

Конечно, он не единственный: Билл Гейтс и Стивен Хокинг также выразили обеспокоенность по поводу необузданного ИИ. Но никто из них не был более громким и необоснованным, чем Маск, который недавно зашел так далеко, что сказал, что «мы вызываем демона», преследуя сверхразумный ИИ.

Даже его самые подробные аргументы удивительно грубы.

Например, такой:

«Самая большая угроза для ИИ заключается не в том, что он разовьет собственную волю, а в том, что он будет следовать воле людей, которые установят его функцию полезности, его функцию оптимизации. И эта функция оптимизации, если она не продумана до мелочей, даже если ее намерения являются благими, она может иметь довольно плохой результат. Например, если бы вы были менеджером хедж-фонда или портфельным менеджером и сказали: «Все, что я хочу, чтобы ИИ делал, это максимизировал ценность моего портфеля, ИИ мог бы решить, что лучший способ сделать это будет заключаться в сокращении продаж. акции, длинные защитные акции и начало войны. А это, очевидно, было бы совсем плохо ».

… и вот этот:

«Если есть цифровой суперинтеллект, и его функция оптимизации или полезности является чем-то, что наносит ущерб человечеству, то это будет иметь очень плохой эффект. Речь может идти о том, чтобы избавиться от спама: самый быстрый способ избавиться от спама - избавиться от людей ».

Как знает Илон, избавиться от людей было бы гораздо сложнее, чем максимизировать портфель акций или избавиться от спама, и ни одно настоящее ИИ-приложение не выберет сценарий высокой сложности и низкой вероятности, а не низкий. -сложность, сценарий с высокой вероятностью. Фактически, мы избавились от спама (когда в последний раз реклама Виагры появлялась в вашем почтовом ящике?), И существует множество приложений ИИ, оптимизирующих портфолио, включая нашу собственную Aidyia.

Позвольте мне прояснить: Илон Маск, безусловно, величайший предприниматель и один из величайших умов нашего времени. Но мне еще предстоит увидеть свидетельства того, что он не лишился своей глубины в этой теме, что делает его обвинение в компетентности Марка Цукерберга немного ироничным.

Во-первых, «ИИ» как общий термин - понятие расплывчатое. Существует много уровней машинного интеллекта, в зависимости от того, насколько обширна область их применения. Сейчас мы классифицируем приложения AI на две категории:

УЗКИЙ ИИ: 99,9% сегодняшних приложений ИИ (включая беспилотные автомобили, Alphago от DeepMind и почти все, что вы видели или читали) относятся к категории того, что мы называем «узким ИИ» (или «слабым ИИ»). . Это приложения ИИ, которые работают на уровне интеллекта человека или выше, но в узкой области. Приложение для самоуправляемых автомобилей нельзя перенести, например, для управления мотоциклом, не говоря уже о торговле акциями. Даже Alphago DeepMind был обучен игре в го на доске 19X19 Go, а это означает, что если бы доска была больше, меньше или даже треугольной, Alphago пришлось бы переделывать и заново обучать.

ИСКУССТВЕННЫЙ ОБЩИЙ ИНТЕЛЛЕКТ: это то, что имеет в виду Илон (и все остальные): приложения ИИ, которые, в отличие от узкого ИИ, работают на уровне человеческого интеллекта или выше и обладают способностью обобщать по областям. Таким образом, одно и то же приложение или архитектура можно использовать для управления автомобилем, торговли акциями, изучения языка. Точно так же, как наш человеческий мозг представляет собой одну (чрезвычайно сложную) парадигму интеллекта, способную делать все эти вещи, часто даже одновременно.

Итак, Илон предупреждает, что это AGI. И, честно говоря, он не совсем ошибается в отношении потенциала AGI и его теоретических опасностей. Но он определенно не в своем уме и, возможно, даже интеллектуально ленив в отношении реальности, архитектуры и внутренних границ общего искусственного интеллекта (AGI). Его аргументы также выявляют интересные когнитивные предубеждения, присутствующие во всей технологической отрасли: тенденция к чрезмерному упрощению чрезвычайно сложных систем, которая так часто приводит к неудачам стартапов, но эта тенденция упускать из виду техническую сложность также приводит к массовому разрушению компаний.

Маск отметает невероятную сложность AGI. Не верьте мне на слово, сразу переходите к чрезвычайно подробному математическому и инженерному проекту AGI: Engineering General Intelligence Бена Гертцеля, Кассио Пенначина и Нила Гейсвайлера (https://www.amazon.com/Engineering-General -Интеллект-Частично-Познавательный / dp / 9462390266 ). На данный момент это единственная техническая библия по построению AGI, которую фактически представила эта книга.

Возможно, это связано с тем, что Силиконовая долина рассматривает AGI как взаимосвязанную пирамиду нейронных сетей, работающих на обучении с подкреплением, и это направление, по которому команда Илона из OpenAI, похоже, удвоила свои усилия. Многие эксперты, в том числе Бен и Кассио, которые работают с Novamente и Corto (те самые люди, которые создали проект OpenCog и фактически изобрели термин AGI), уверены, что этот подход, основанный только на нейронных сетях, не является способом достижения AGI. Нейронные сети очень эффективны для решения определенных задач машинного обучения, но слишком ограничены, чтобы справляться с неопределенностью. Они не могут сами по себе создавать машины, которые могут мыслить или даже рассуждать на основе разреженных и неоднозначных данных, что является основной особенностью AGI.

Он предполагает, что приложения AGI будут обладать неограниченной рациональностью, что довольно странно, учитывая, что любые и все приложения AI полагаются на входные данные, и даже в далеком будущем объем доступных данных о реальности и Вселенной в целом всегда будет неизменным. значительно ограничено. Даже если приложения AGI не имеют проблем с интеллектом или вычислениями, они определенно будут иметь проблемы со зрением и проблемами с данными из-за того, что наша наблюдаемая реальность и вселенная составляют лишь часть доступной вселенной. Без единого взгляда на нашу реальность приложения ИИ будут представлять ее в очень разнообразной форме, что, скорее всего, помешает им сотрудничать «достаточно гибко и масштабируемо» (позаимствованным у превосходного Ювала Хоа Харари), чтобы полностью доминировать над нами.

Он, кажется, удобно переступает через основной сценарий взаимоотношений человека и ИИ: тот факт, что границы между биологическим и синтетическим интеллектом становятся все более размытыми. Как синтетический интеллект может выступить против биологического интеллекта, если между ними нет разницы? В конце концов, биологический интеллект, скорее всего, всего лишь переход к синтетическому интеллекту. Это то, что он имеет в виду? Означает ли он, что мы потеряем определенные фундаментальные аспекты нашей человеческой природы, такие как эмоции? Скорее всего, это произойдет, но в конечном итоге мы изучим более глубокие эмоции, более связанные с природой реальности, в которой мы живем. Тот факт, что Маск игнорирует это, вызывает недоумение, поскольку он только что основал компанию по созданию интерфейсов между мозгом и компьютером под названием Neurolink.

Что наиболее важно, он, кажется, игнорирует тот факт, что весь интеллект - особенно машинный - работает в рамках нормативных рамок (мотивированных целями внутри более крупных целей внутри более крупных целей), которые не являются и никогда не будут конечными. Просто потому, что ни у кого никогда не будет достаточно данных для измерения и подтверждения окончательных вопросов «почему?» и «зачем?». На эти вопросы есть бесконечные ответы. А машины не могут и не смогут увидеть столько бесконечного, чтобы связать его или даже изобрести. У людей будет много возможностей сделать это. По мере разработки действительно мыслящих машин у нас будет много возможностей для создания этой окончательной основы «почему?» и «зачем?». Возможно, даже за счет того, что мы провозгласили себя получателями окончательной нормативной основы, которую нельзя ни измерить, ни наблюдать и, следовательно, не могут подвергнуть сомнению машины (многие из нас называли эту основу «Богом»).

Главное, самое непосредственное и самое серьезное последствие развития машинного интеллекта человеческого уровня - это уничтожение миллионов рабочих мест. Поговорим об этом подробнее, пожалуйста.