Начиная с версии 2.1, spaCy имеет языковую модель в стиле BERT (LM). Он предсказывает слова-векторы вместо слов, поэтому я собираюсь использовать здесь «слова» и «словесные векторы» как синонимы.
Мне нужно взять предложение с замаскированным словом и список слов и ранжировать слова по вероятности их появления в замаскированном слоте. В настоящее время я использую для этого BERT (аналогично bert-syntax < / а>). Хотелось бы узнать, приемлема ли производительность spaCy в этой задаче. Между этим файлом и этот Я почти уверен, что что-то можно построить. Тем не менее, мне кажется, что нужно проникнуть во внутреннее устройство библиотеки глубже, чем мне бы хотелось.
Есть ли простой способ взаимодействия с маскированной языковой моделью spaCy?