Пробовал модель gpt2 с обнимающим лицом. Я видел run_generation.py
script, который генерирует последовательность жетонов с подсказкой. Я знаю, что мы можем использовать GPT2 для NLG.
В моем случае использования я хочу определить распределение вероятностей (только) для следующего слова, следующего за заданной подсказкой. В идеале это распределение должно быть по всему словарю.
Например, учитывая приглашение: Как дела, оно должно дать распределение вероятностей, в котором у вас или у них есть некоторые высокие значения с плавающей запятой, а у других словарных слов очень низкие значения с плавающей запятой.
Как это сделать с помощью трансформаторов обнимающего лица? Если это невозможно в объятиях лица, есть ли другая модель трансформатора, которая делает это?