About: Information gain (decision tree)     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : owl:Thing, within Data Space : dbpedia.demo.openlinksw.com associated with source document(s)
QRcode icon
http://dbpedia.demo.openlinksw.com/describe/?url=http%3A%2F%2Fdbpedia.org%2Fresource%2FInformation_gain_%28decision_tree%29

In information theory and machine learning, information gain is a synonym for Kullback–Leibler divergence; the amount of information gained about a random variable or signal from observing another random variable. However, in the context of decision trees, the term is sometimes used synonymously with mutual information, which is the conditional expected value of the Kullback–Leibler divergence of the univariate probability distribution of one variable from the conditional distribution of this variable given the other one.

AttributesValues
rdfs:label
  • اكتساب المعلومات (شجرة القرار) (ar)
  • Information gain (decision tree) (en)
  • 정보 이득 (ko)
rdfs:comment
  • في نظرية المعلومات والتعلم الآلي، يعبر اكتساب المعلومات عن مقدار المعلومات المكتسبة حول متغير عشوائي أو إشارة معينة من وجهة نظر متغير عشوائي آخر. ويستخدم اكتساب المعلومات مع أشجار القرار في بعض الأحيان بشكل مترادف مع المعلومات المتبادلة. (ar)
  • 정보 이론과 머신 러닝에서 정보 이득은 쿨백-라이블러 발산(Kullback Leibler Divergence,KLD)의 동의어이다. 그러나 의사 결정 나무의 맥락에서 이 용어는 때때로 상호 정보와 동의어로 사용되기도 하는데, 이것은 상호의존정보와 동의어로 사용되기도 한다. 이 정보는 한 변수의 조건부 분포에서 다른 한 변수의 단일 변수 확률 분포에 대한 쿨백-라이블러 발산의 기댓값이다. 특히, 확률 변수 A가 값 A = a를 취하는 관찰로부터 얻어진 확률 변수 X의 정보 이득은 쿨백-라이블러 발산 으로 a가 주어진 x에 대한 로부터의 x에 대한 사전 확률 로 표현된다. 정보 이득의 기댓값은 X와 A의 상호의존정보 I(X; A)이다. 즉 무작위 변수 A의 상태를 관찰함으로써 얻어지는 X의 엔트로피 감소이다. 머신 러닝에서 이 개념은 X의 상태를 가장 빠르게 좁히기 위해 조사할 속성의 기본 시퀀스를 정의하는 데 사용할 수 있다. 이러한 시퀀스 (각 단계에서 이전 속성 조사의 결과에 따라 다름)를 의사 결정 트리 라고한다. 일반적으로 상호 정보가 높은 속성은 다른 속성보다 선호되어야 한다. (ko)
  • In information theory and machine learning, information gain is a synonym for Kullback–Leibler divergence; the amount of information gained about a random variable or signal from observing another random variable. However, in the context of decision trees, the term is sometimes used synonymously with mutual information, which is the conditional expected value of the Kullback–Leibler divergence of the univariate probability distribution of one variable from the conditional distribution of this variable given the other one. (en)
foaf:depiction
  • http://commons.wikimedia.org/wiki/Special:FilePath/A_simple_Decision_Tree.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/Entropy-illustration.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/Info_Gain_Root_Split_Example.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/Info_Gain_Splitting_the_Child_Node(s)_Example.png
  • http://commons.wikimedia.org/wiki/Special:FilePath/Testing_Info_Gain_Tree_Example.png
dcterms:subject
Wikipage page ID
Wikipage revision ID
Link from a Wikipage to another Wikipage
Link from a Wikipage to an external page
sameAs
dbp:wikiPageUsesTemplate
thumbnail
has abstract
  • في نظرية المعلومات والتعلم الآلي، يعبر اكتساب المعلومات عن مقدار المعلومات المكتسبة حول متغير عشوائي أو إشارة معينة من وجهة نظر متغير عشوائي آخر. ويستخدم اكتساب المعلومات مع أشجار القرار في بعض الأحيان بشكل مترادف مع المعلومات المتبادلة. (ar)
  • In information theory and machine learning, information gain is a synonym for Kullback–Leibler divergence; the amount of information gained about a random variable or signal from observing another random variable. However, in the context of decision trees, the term is sometimes used synonymously with mutual information, which is the conditional expected value of the Kullback–Leibler divergence of the univariate probability distribution of one variable from the conditional distribution of this variable given the other one. The information gain of a random variable X obtained from an observation of a random variable A taking value is defined the Kullback–Leibler divergence of the prior distribution for x from the posterior distribution for x given a. The expected value of the information gain is the mutual information of X and A – i.e. the reduction in the entropy of X achieved by learning the state of the random variable A. In machine learning, this concept can be used to define a preferred sequence of attributes to investigate to most rapidly narrow down the state of X. Such a sequence (which depends on the outcome of the investigation of previous attributes at each stage) is called a decision tree and applied in the area of machine learning known as decision tree learning. Usually an attribute with high mutual information should be preferred to other attributes. (en)
  • 정보 이론과 머신 러닝에서 정보 이득은 쿨백-라이블러 발산(Kullback Leibler Divergence,KLD)의 동의어이다. 그러나 의사 결정 나무의 맥락에서 이 용어는 때때로 상호 정보와 동의어로 사용되기도 하는데, 이것은 상호의존정보와 동의어로 사용되기도 한다. 이 정보는 한 변수의 조건부 분포에서 다른 한 변수의 단일 변수 확률 분포에 대한 쿨백-라이블러 발산의 기댓값이다. 특히, 확률 변수 A가 값 A = a를 취하는 관찰로부터 얻어진 확률 변수 X의 정보 이득은 쿨백-라이블러 발산 으로 a가 주어진 x에 대한 로부터의 x에 대한 사전 확률 로 표현된다. 정보 이득의 기댓값은 X와 A의 상호의존정보 I(X; A)이다. 즉 무작위 변수 A의 상태를 관찰함으로써 얻어지는 X의 엔트로피 감소이다. 머신 러닝에서 이 개념은 X의 상태를 가장 빠르게 좁히기 위해 조사할 속성의 기본 시퀀스를 정의하는 데 사용할 수 있다. 이러한 시퀀스 (각 단계에서 이전 속성 조사의 결과에 따라 다름)를 의사 결정 트리 라고한다. 일반적으로 상호 정보가 높은 속성은 다른 속성보다 선호되어야 한다. (ko)
prov:wasDerivedFrom
page length (characters) of wiki page
foaf:isPrimaryTopicOf
is Link from a Wikipage to another Wikipage of
is Wikipage redirect of
is foaf:primaryTopic of
Faceted Search & Find service v1.17_git139 as of Feb 29 2024


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 08.03.3330 as of Mar 19 2024, on Linux (x86_64-generic-linux-glibc212), Single-Server Edition (378 GB total memory, 50 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software