Финансовая индустрия, кажется, имеет странный способ зацикливаться на тенденциях в течение длительных периодов времени только для того, чтобы отбросить эту тенденцию в пользу новой, а затем вернуться к исходной тенденции через несколько десятилетий. Этот недавний всплеск интереса к большим данным/машинному обучению и их приложениям в сфере финансов можно рассматривать как последнюю волну в долгой истории интереса к количественному статистическому анализу. В конце концов, нейронные сети применялись (хотя и в гораздо меньших масштабах) к финансовым рынкам в 90-х годах только для того, чтобы исчезнуть.

Но решение никогда не кажется таким простым, как дать отпор и позволить куску металла делать всю работу. Деньги и богатство, похоже, так не работают:



Одной из самых больших особенностей машинного обучения является автоматический характер процесса. Как описано в статье, метод находит закономерности, часто без объяснений, и делает прогнозы на основе этих закономерностей. Хотя с помощью этих методов можно добиться успеха и в других областях, уникальный самоусиливающийся характер финансовых рынков делает эти методы менее полезными. В результате часто возникает вопрос, действительно ли машина что-то обнаружила. полезно, или если его просто обманывает случайность.

Здесь могут помочь тесты статистической значимости, но существуют и другие практические проблемы, усложняющие задачу. Одним из них является то, что методы машинного обучения (например, машины опорных векторов) имеют несколько параметров, которые необходимо настроить практикующему специалисту. Настоящей догмы, управляющей этой практикой, не существует, поэтому остаются только эвристики и специальные рекомендации. Это означает, что произвольные процессы выбора параметров могут существенно повлиять на точность и достоверность модели.

На более глубоком уровне методы машинного обучения ограничены компьютерным кодом, который сам ограничен (аппаратными) схемами, которым не хватает уровня адаптивности, необходимого для эффективного функционирования на финансовых рынках. Одного этого факта может быть достаточно, чтобы ограничить полезность методов машинного обучения.

Если (пока?) не произойдет Сингулярность.