从问题中可能看出也可能不会明显,我对R很新,我可以在此方面做些帮助。
创建主题模型时,我已经尝试了LDA和LDAVIS -(a)和(b)中的LDA和LDAVIS -CODE。(a)中的LDA允许我找到语料库中每个文档中发生的主题的后验概率,而我曾经使用其他数据集的变量来运行回归。(b)使用ldavis的主题生成方法比通过(a)生成"更好",更连贯的主题Ldavis方法,还是将其视为不可能的任务。
所有建议都非常感谢。
谢谢!
(a)
set.seed(1)
require(topicmodels)
set.seed(1)
P5LDA4 <- LDA(P592dfm, control=list(seed=1), k = 23)
set.seed(1)
terms(P5LDA4, k =30)
#find posterior probability
postTopics <- data.frame(posterior(P5LDA4)$topics)
postTopics
(b)
# MCMC and model tuning parameters:
K <- 23
G <- 5000
alpha <- 0.02
eta <- 0.02
# convert to lda format
dfmlda <- convert(newdfm, to = "lda")
# fit the model
library(lda)
set.seed(1)
t1 <- Sys.time()
fit <- lda.collapsed.gibbs.sampler(documents = dfmlda$documents, K = K,
vocab = dfmlda$vocab,
num.iterations = G, alpha = alpha,
eta = eta, initial = NULL, burnin = 0,
compute.log.likelihood = TRUE)
t2 <- Sys.time()
t2 - t1
#Time difference of 3.13337 mins
save(fit, file = "./fit.RData")
load("./fit.RData")
library(LDAvis)
set.seed(1)
json <- createJSON(phi = t(apply(t(fit$topics) + eta, 2, function(x) x/sum(x))),
theta = t(apply(fit$document_sums + alpha, 2, function(x) x/sum(x))),
doc.length = ntoken(newdfm),
vocab = features(newdfm),
term.frequency = colSums(newdfm))
serVis(json, out.dir = "./visColl", open.browser = TRUE)
在您的代码B中,您已经在创建JSON时已经计算后部。
- theta:a d×k矩阵是文档主题分布的后部。
- phi:a k×w矩阵是主题分布的后部。
希望有帮助!