Я использую LDA для небольшого корпуса из 2 документов (предложений) в целях тестирования. Следующий код возвращает распределения тема-термин и документ-тема, которые совершенно неразумны с учетом входных документов. Выполнение точно таких же результатов в Python дает разумные результаты. Кто знает, что здесь не так?
library(topicmodels)
library(tm)
d1 <- "bank bank bank"
d2 <- "stock stock stock"
corpus <- Corpus(VectorSource(c(d1,d2)))
##fit lda to data
dtm <- DocumentTermMatrix(corpus)
ldafit <- LDA(dtm, k=2, method="Gibbs")
##get posteriors
topicTerm <- t(posterior(ldafit)$terms)
docTopic <- posterior(ldafit)$topics
topicTerm
docTopic
> topicTerm
1 2
bank 0.3114525 0.6885475
stock 0.6885475 0.3114525
> docTopic
1 2
1 0.4963245 0.5036755
2 0.5036755 0.4963245
Результаты Python следующие:
>>> docTopic
array([[ 0.87100799, 0.12899201],
[ 0.12916713, 0.87083287]])
>>> fit.print_topic(1)
u'0.821*"bank" + 0.179*"stock"'
>>> fit.print_topic(0)
u'0.824*"stock" + 0.176*"bank"'
gensim
иtopicmodels
используют разные методы.gensim
использует вариационный вывод, тогда какtopicmodels
здесь использует выборку свернутых гиббсов.topicmodels
также имеет вариант вариационного вывода, но он дает такие же дерьмовые результаты .. Я тоже в тупике, извините - person KenHBS   schedule 13.09.2017