1. MTMD: многомасштабное обучение временной памяти и эффективная система устранения смещения для прогнозирования тренда акций (arXiv)

Автор: Минцзе Ван, Мингзе Чжан, Цзяньсюн Го, Вейцзя Цзя.

Аннотация: В последнее время методы машинного обучения показали перспективность прогнозирования тренда акций. Однако изменчивый и динамичный характер фондового рынка затрудняет прямое применение методов машинного обучения. Предыдущие методы обычно используют временную информацию об исторических моделях цен на акции для прогнозирования будущих тенденций акций, но многомасштабную временную зависимость финансовых данных и стабильные торговые возможности по-прежнему трудно уловить. Основную проблему можно отнести к проблеме распознавания закономерностей сигналов реальной прибыли из зашумленной информации. В этой статье мы предлагаем структуру под названием Многомасштабное обучение временной памяти и эффективное устранение смещения (MTMD). В частности, благодаря самоподобию мы разрабатываем обучаемое встраивание с внешним вниманием в качестве блока памяти, чтобы уменьшить проблемы с шумом и повысить временную согласованность модели. Эта структура не только собирает всестороннюю локальную информацию в каждой метке времени, но также концентрирует глобальные важные исторические закономерности во всем временном потоке. Между тем, мы также разрабатываем графовую сеть на основе глобальной и локальной информации для адаптивного объединения разнородной многомасштабной информации. Обширные исследования и эксперименты по абляции показывают, что MTMD значительно превосходит современные подходы в наборах эталонных данных. Исходный код предложенного нами метода доступен по адресу https://github.com/MingjieWang0606/MDMT-Public.

2. Сквозная платформа самоустранения смещения для надежного обучения NLU (arXiv)

Автор: Аббас Гаддар, Филипп Лангле, Мехди Резаголизаде, Ахмад Рашид.

Аннотация. Было показано, что существующие модели понимания естественного языка (NLU) включают предвзятость наборов данных, что приводит к высокой производительности на тестовых наборах в распределении (ID), но низкой производительности на тестовых наборах вне распространения (OOD). Мы представляем простую, но эффективную структуру устранения смещения, в которой неглубокие представления основной модели используются для получения модели смещения, и обе модели обучаются одновременно. Мы демонстрируем на трех хорошо изученных задачах NLU, что, несмотря на свою простоту, наш метод приводит к конкурентоспособным результатам OOD. Он значительно превосходит другие подходы к устранению смещения при решении двух задач, обеспечивая при этом высокую производительность при распределении.