This HTML5 document contains 158 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbthttp://dbpedia.org/resource/Template:
wikipedia-enhttp://en.wikipedia.org/wiki/
n39https://code.google.com/p/topic-modeling-tool/
dbrhttp://dbpedia.org/resource/
n31http://mimno.infosci.cornell.edu/
n42http://research.microsoft.com/en-us/um/cambridge/projects/infernet/docs/
n9https://github.com/datquocnguyen/
n25http://commons.wikimedia.org/wiki/Special:FilePath/
dbpedia-frhttp://fr.dbpedia.org/resource/
n18http://mallet.cs.umass.edu/
dctermshttp://purl.org/dc/terms/
rdfshttp://www.w3.org/2000/01/rdf-schema#
n11https://github.com/qiang2100/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
n36https://cran.r-project.org/web/packages/lda/
n28http://dbpedia.org/resource/File:
dbphttp://dbpedia.org/property/
xsdhhttp://www.w3.org/2001/XMLSchema#
dbohttp://dbpedia.org/ontology/
dbpedia-vihttp://vi.dbpedia.org/resource/
dbpedia-pthttp://pt.dbpedia.org/resource/
dbchttp://dbpedia.org/resource/Category:
dbpedia-dehttp://de.dbpedia.org/resource/
n8https://github.com/AmazaspShumik/BayesianML-MCMC/blob/master/Gibbs%20LDA/
dbpedia-ruhttp://ru.dbpedia.org/resource/
yagohttp://dbpedia.org/class/yago/
dbpedia-rohttp://ro.dbpedia.org/resource/
wikidatahttp://www.wikidata.org/entity/
n14https://mahout.apache.org/users/clustering/
goldhttp://purl.org/linguistics/gold/
yago-reshttp://yago-knowledge.org/resource/
n16https://global.dbpedia.org/id/
n17https://spark.apache.org/docs/latest/
dbpedia-cahttp://ca.dbpedia.org/resource/
provhttp://www.w3.org/ns/prov#
foafhttp://xmlns.com/foaf/0.1/
n30https://cran.r-project.org/web/packages/topicmodels/
dbpedia-zhhttp://zh.dbpedia.org/resource/
n20http://videolectures.net/mlss09uk_blei_tm/
dbpedia-kohttp://ko.dbpedia.org/resource/
n35https://www.youtube.com/watch%3Fv=DDq3OVp9dNA/
dbpedia-trhttp://tr.dbpedia.org/resource/
dbpedia-fahttp://fa.dbpedia.org/resource/
dbpedia-eshttp://es.dbpedia.org/resource/
freebasehttp://rdf.freebase.com/ns/
owlhttp://www.w3.org/2002/07/owl#

Statements

Subject Item
dbr:Latent_Dirichlet_allocation
rdf:type
dbo:Person yago:Whole100003553 owl:Thing yago:Object100002684 yago:WikicatStatisticalModels yago:CausalAgent100007347 yago:WikicatLatentVariableModels yago:Model110324560 yago:Assistant109815790 yago:WikicatProbabilisticModels yago:Person100007846 yago:YagoLegalActor yago:YagoLegalActorGeo yago:Worker109632518 yago:Organism100004475 yago:LivingThing100004258 yago:PhysicalEntity100001930
rdfs:label
Alocação latente de Dirichlet Assignació Latent de Dirichlet Latent Dirichlet Allocation Latent Dirichlet Allocation Latent Dirichlet allocation 잠재 디리클레 할당 隐含狄利克雷分布 Латентное размещение Дирихле Allocation de Dirichlet latente
rdfs:comment
In natural language processing, Latent Dirichlet Allocation (LDA) is a generative statistical model that explains a set of observations through unobserved groups, and each group explains why some parts of the data are similar. The LDA is an example of a topic model. In this, observations (e.g., words) are collected into documents, and each word's presence is attributable to one of the document's topics. Each document will contain a small number of topics. Латентное размещение Дирихле (LDA, от англ. Latent Dirichlet allocation) — применяемая в машинном обучении и информационном поиске , позволяющая объяснять результаты наблюдений с помощью неявных групп, благодаря чему возможно выявление причин сходства некоторых частей данных. Например, если наблюдениями являются слова, собранные в документы, утверждается, что каждый документ представляет собой смесь небольшого количества тем и что появление каждого слова связано с одной из тем документа. LDA является одним из методов тематического моделирования и впервые был представлен в качестве графовой модели для обнаружения тематик Дэвидом Блеем, Эндрю Ыном и Майклом Джорданом в 2003 году. Dans le domaine du traitement automatique des langues, l’allocation de Dirichlet latente (de l’anglais Latent Dirichlet Allocation) ou LDA est un modèle génératif probabiliste permettant d’expliquer des ensembles d’observations, par le moyen de groupes non observés, eux-mêmes définis par des similarités de données. En el processament de llenguatge natural, l'Assignació Latent de Dirichlet (LDA, de l'anglès Latent Dirichlet Allocation) és un modelatge de temes que permet analitzar els temes dels que tracten diferents textos. Es considera que cada text és una barreja d'un nombre reduït de temes, i que la presència de cada paraula al text és atribuïble a un dels temes del document. En aprendizaje automático, la Asignación Latente de Dirichlet (ALD) o Latent Dirichlet Allocation (LDA) es un modelo generativo que permite que conjuntos de observaciones puedan ser explicados por grupos que explican porqué algunas partes de los datos son similares. Por ejemplo, si las observaciones son palabras en documentos, presupone que cada documento es una mezcla de un pequeño número de categorías (también denominados como tópicos) y la aparición de cada palabra en un documento se debe a una de las categorías a las que el documento pertenece. LDA es un ejemplo de y fue presentado como un modelo en grafo para descubrir categorías por David Blei, Andrew Ng y Michael Jordan en 2002.​ 隐含狄利克雷分布(英語:Latent Dirichlet allocation,简称LDA),是一种主题模型,它可以将文档集中每篇文档的主题按照概率分布的形式给出。同时它是一种无监督学习算法,在训练时不需要手工标注的训练集,需要的仅仅是文档集以及指定主题的数量k即可。此外LDA的另一个优点则是,对于每一个主题均可找出一些词语来描述它。 LDA首先由 David M. Blei、吴恩达和迈克尔·I·乔丹于2003年提出,目前在文本挖掘领域包括文本主题识别、文本分类以及文本相似度计算方面都有应用。 자연어 처리에서 잠재 디리클레 할당(Latent Dirichlet allocation, LDA)은 주어진 문서에 대하여 각 문서에 어떤 주제들이 존재하는지를 서술하는 대한 확률적 토픽 모델 기법 중 하나이다. 미리 알고 있는 주제별 단어수 분포를 바탕으로, 주어진 문서에서 발견된 단어수 분포를 분석함으로써 해당 문서가 어떤 주제들을 함께 다루고 있을지를 예측할 수 있다. No processamento de linguagem natural, a alocação latente de Dirichlet (LDA) é um modelo estatístico generativo. Ele permite que conjuntos de observações sejam explicados por variáveis latentes que explicam por que algumas partes dos dados são semelhantes. Por exemplo, se as observações são palavras coletadas em documentos, ele postula que cada documento é uma mistura de um pequeno número de tópicos e que a presença de cada palavra é atribuível a um dos tópicos do documento. O LDA é um exemplo de modelo de tópicos e pertence às ferramentas principais do campo do aprendizado de máquinas e, em sentido mais amplo, às ferramentas de inteligência artificial. Latent Dirichlet allocation (LDA) ist ein von David Blei, Andrew Ng und Michael I. Jordan im Jahre 2003 vorgestelltes generatives Wahrscheinlichkeitsmodell für „Dokumente“. Das Modell ist identisch zu einem 2000 publizierten Modell zur Genanalyse von , und P. Donnelly. Dokumente sind in diesem Fall gruppierte, diskrete und ungeordnete Beobachtungen (im Folgenden „Wörter“ genannt). In den meisten Fällen werden Textdokumente verarbeitet, in denen Wörter gruppiert werden, wobei die Wortreihenfolge keine Rolle spielt. Es können aber auch z. B. Pixel aus Bildern verarbeitet werden.
owl:differentFrom
dbr:Linear_discriminant_analysis
rdfs:seeAlso
dbr:Dirichlet-multinomial_distribution
foaf:depiction
n25:Latent_Dirichlet_allocation.svg n25:Smoothed_LDA.png
dcterms:subject
dbc:Probabilistic_models dbc:Latent_variable_models dbc:Statistical_natural_language_processing
dbo:wikiPageID
4605351
dbo:wikiPageRevisionID
1109991465
dbo:wikiPageWikiLink
dbr:Variational_Bayes dbr:Latent_semantic_indexing dbr:MapReduce dbr:Matthew_Stephens_(statistician) dbr:Gamma-Poisson_distribution dbr:Collapsed_Gibbs_sampling dbr:STTM dbr:Computational_musicology dbr:Association_studies dbr:Peter_Donnelly dbr:David_Blei dbr:Dirichlet-multinomial_distribution dbr:Natural_language_processing dbr:Gensim dbr:Chinese_restaurant_process dbc:Probabilistic_models dbr:Bayesian_estimator dbr:Categorical_distribution dbr:Confounding dbr:Tf-idf dbr:Information_retrieval dbc:Latent_variable_models dbr:R_(programming_language) dbr:Pachinko_allocation n28:Latent_Dirichlet_allocation.svg dbr:Jonathan_K._Pritchard dbr:Generative_model dbr:Michael_I._Jordan dbr:Multinomial_distribution dbr:Reversible-jump_Markov_chain_Monte_Carlo dbr:NumPy dbr:Hadoop dbr:Independent_component_analysis dbr:Probabilistic_latent_semantic_analysis dbr:Plate_notation dbr:Gamma_function dbr:Spatial_latent_Dirichlet_allocation dbr:Gibbs_sampling dbr:Logistic_normal_distribution dbr:Stop_words dbr:LDA-dual_model dbc:Statistical_natural_language_processing dbr:Statistical_inference dbr:Population_genetics dbr:Expectation_Maximization dbr:Dirichlet_distribution dbr:Observable_variable dbr:Probabilistic_graphical_model dbr:Non-negative_matrix_factorization n28:Smoothed_LDA.png dbr:Variational_Bayesian_methods dbr:Topic_model dbr:K-means_clustering dbr:Machine_learning dbr:Andrew_Ng dbr:Apache_Spark dbr:Probabilistic_latent_semantic_indexing dbr:Infer.NET dbr:Hierarchical_Dirichlet_process dbr:Bayesian_network dbr:Expectation_propagation dbr:Latent_variable dbr:Posterior_distribution
dbo:wikiPageExternalLink
n8:coll_gibbs_lda.m n8:nips_example.m n9:jLDADMM n11:STTM). n14:latent-dirichlet-allocation.html n17:mllib-clustering.html%23latent-dirichlet-allocation-lda n18:index.php n20: n30:index.html n31:topics.html n35: n36:index.html n39: n42:Latent%20Dirichlet%20Allocation.aspx
owl:sameAs
dbpedia-fr:Allocation_de_Dirichlet_latente dbpedia-ro:Alocare_latentă_Dirichlet dbpedia-zh:隐含狄利克雷分布 dbpedia-es:Latent_Dirichlet_Allocation n16:2WwQu dbpedia-ko:잠재_디리클레_할당 dbpedia-fa:تخصیص_پنهان_دیریکله freebase:m.0cc726 yago-res:Latent_Dirichlet_allocation dbpedia-vi:Phân_bổ_Dirichlet_tiềm_ẩn dbpedia-ru:Латентное_размещение_Дирихле wikidata:Q269236 dbpedia-pt:Alocação_latente_de_Dirichlet dbpedia-tr:Latent_Dirichlet_allocation dbpedia-de:Latent_Dirichlet_Allocation dbpedia-ca:Assignació_Latent_de_Dirichlet
dbp:wikiPageUsesTemplate
dbt:See_also dbt:Distinguish dbt:Short_description dbt:Technical dbt:External_links dbt:Reflist dbt:Natural_Language_Processing
dbo:thumbnail
n25:Latent_Dirichlet_allocation.svg?width=300
dbo:abstract
Латентное размещение Дирихле (LDA, от англ. Latent Dirichlet allocation) — применяемая в машинном обучении и информационном поиске , позволяющая объяснять результаты наблюдений с помощью неявных групп, благодаря чему возможно выявление причин сходства некоторых частей данных. Например, если наблюдениями являются слова, собранные в документы, утверждается, что каждый документ представляет собой смесь небольшого количества тем и что появление каждого слова связано с одной из тем документа. LDA является одним из методов тематического моделирования и впервые был представлен в качестве графовой модели для обнаружения тематик Дэвидом Блеем, Эндрю Ыном и Майклом Джорданом в 2003 году. В LDA каждый документ может рассматриваться как набор различных тематик. Подобный подход схож с вероятностным латентно-семантическим анализом (pLSA) с той разницей, что в LDA предполагается, что распределение тематик имеет в качестве априори распределения Дирихле. На практике в результате получается более корректный набор тематик. К примеру, модель может иметь тематики классифицируемые как «относящиеся к кошкам» и «относящиеся к собакам», тематика обладает вероятностями генерировать различные слова, такие как «мяу», «молоко» или «котёнок», которые можно было бы классифицировать как «относящиеся к кошкам», а слова, не обладающие особой значимостью (к примеру, служебные слова), будут обладать примерно равной вероятностью в различных тематиках. Dans le domaine du traitement automatique des langues, l’allocation de Dirichlet latente (de l’anglais Latent Dirichlet Allocation) ou LDA est un modèle génératif probabiliste permettant d’expliquer des ensembles d’observations, par le moyen de groupes non observés, eux-mêmes définis par des similarités de données. En aprendizaje automático, la Asignación Latente de Dirichlet (ALD) o Latent Dirichlet Allocation (LDA) es un modelo generativo que permite que conjuntos de observaciones puedan ser explicados por grupos que explican porqué algunas partes de los datos son similares. Por ejemplo, si las observaciones son palabras en documentos, presupone que cada documento es una mezcla de un pequeño número de categorías (también denominados como tópicos) y la aparición de cada palabra en un documento se debe a una de las categorías a las que el documento pertenece. LDA es un ejemplo de y fue presentado como un modelo en grafo para descubrir categorías por David Blei, Andrew Ng y Michael Jordan en 2002.​ Latent Dirichlet allocation (LDA) ist ein von David Blei, Andrew Ng und Michael I. Jordan im Jahre 2003 vorgestelltes generatives Wahrscheinlichkeitsmodell für „Dokumente“. Das Modell ist identisch zu einem 2000 publizierten Modell zur Genanalyse von , und P. Donnelly. Dokumente sind in diesem Fall gruppierte, diskrete und ungeordnete Beobachtungen (im Folgenden „Wörter“ genannt). In den meisten Fällen werden Textdokumente verarbeitet, in denen Wörter gruppiert werden, wobei die Wortreihenfolge keine Rolle spielt. Es können aber auch z. B. Pixel aus Bildern verarbeitet werden. No processamento de linguagem natural, a alocação latente de Dirichlet (LDA) é um modelo estatístico generativo. Ele permite que conjuntos de observações sejam explicados por variáveis latentes que explicam por que algumas partes dos dados são semelhantes. Por exemplo, se as observações são palavras coletadas em documentos, ele postula que cada documento é uma mistura de um pequeno número de tópicos e que a presença de cada palavra é atribuível a um dos tópicos do documento. O LDA é um exemplo de modelo de tópicos e pertence às ferramentas principais do campo do aprendizado de máquinas e, em sentido mais amplo, às ferramentas de inteligência artificial. 隐含狄利克雷分布(英語:Latent Dirichlet allocation,简称LDA),是一种主题模型,它可以将文档集中每篇文档的主题按照概率分布的形式给出。同时它是一种无监督学习算法,在训练时不需要手工标注的训练集,需要的仅仅是文档集以及指定主题的数量k即可。此外LDA的另一个优点则是,对于每一个主题均可找出一些词语来描述它。 LDA首先由 David M. Blei、吴恩达和迈克尔·I·乔丹于2003年提出,目前在文本挖掘领域包括文本主题识别、文本分类以及文本相似度计算方面都有应用。 En el processament de llenguatge natural, l'Assignació Latent de Dirichlet (LDA, de l'anglès Latent Dirichlet Allocation) és un modelatge de temes que permet analitzar els temes dels que tracten diferents textos. Es considera que cada text és una barreja d'un nombre reduït de temes, i que la presència de cada paraula al text és atribuïble a un dels temes del document. In natural language processing, Latent Dirichlet Allocation (LDA) is a generative statistical model that explains a set of observations through unobserved groups, and each group explains why some parts of the data are similar. The LDA is an example of a topic model. In this, observations (e.g., words) are collected into documents, and each word's presence is attributable to one of the document's topics. Each document will contain a small number of topics. 자연어 처리에서 잠재 디리클레 할당(Latent Dirichlet allocation, LDA)은 주어진 문서에 대하여 각 문서에 어떤 주제들이 존재하는지를 서술하는 대한 확률적 토픽 모델 기법 중 하나이다. 미리 알고 있는 주제별 단어수 분포를 바탕으로, 주어진 문서에서 발견된 단어수 분포를 분석함으로써 해당 문서가 어떤 주제들을 함께 다루고 있을지를 예측할 수 있다.
gold:hypernym
dbr:Model
prov:wasDerivedFrom
wikipedia-en:Latent_Dirichlet_allocation?oldid=1109991465&ns=0
dbo:wikiPageLength
42672
foaf:isPrimaryTopicOf
wikipedia-en:Latent_Dirichlet_allocation