Я пытаюсь найти информацию о том, как обучить модель BERT, возможно, из Huggingface Transformers библиотека, так что встраивание, которое она выводит, более тесно связано с контекстом текста, который я использую.
Однако все примеры, которые мне удалось найти, касаются точной настройки модели для другой задачи, например классификация.
Может ли у кого-нибудь быть пример модели тонкой настройки BERT для замаскированных токенов или предсказания следующего предложения, которая выводит другую необработанную модель BERT, точно настроенную для контекста?
Спасибо!