This HTML5 document contains 84 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbpedia-dehttp://de.dbpedia.org/resource/
dcthttp://purl.org/dc/terms/
yago-reshttp://yago-knowledge.org/resource/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
n21https://archive.today/20121216133431/http:/www3.interscience.wiley.com/cgi-bin/bookhome/
dbpedia-eshttp://es.dbpedia.org/resource/
n24https://global.dbpedia.org/id/
yagohttp://dbpedia.org/class/yago/
dbpedia-ruhttp://ru.dbpedia.org/resource/
dbthttp://dbpedia.org/resource/Template:
dbpedia-ukhttp://uk.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
freebasehttp://rdf.freebase.com/ns/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
n22http://bs.dbpedia.org/resource/
dbpedia-mkhttp://mk.dbpedia.org/resource/
dbpedia-zhhttp://zh.dbpedia.org/resource/
wikipedia-enhttp://en.wikipedia.org/wiki/
dbchttp://dbpedia.org/resource/Category:
dbphttp://dbpedia.org/property/
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
wikidatahttp://www.wikidata.org/entity/
dbrhttp://dbpedia.org/resource/
dbpedia-jahttp://ja.dbpedia.org/resource/

Statements

Subject Item
dbr:Entropy_rate
rdf:type
yago:Whole100003553 yago:PhysicalEntity100001930 yago:LivingThing100004258 yago:WikicatStatisticalModels yago:Organism100004475 yago:Model110324560 yago:YagoLegalActor yago:YagoLegalActorGeo yago:Person100007846 yago:Assistant109815790 yago:Worker109632518 yago:WikicatMarkovModels yago:Object100002684 yago:CausalAgent100007347
rdfs:label
Энтропийная скорость Ratio de entropía エントロピーレート 熵率 Ентропійна швидкість Entropy rate Entropierate
rdfs:comment
La ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa de crecimiento de la entropía de la secuencia con el crecimiento de n. La tasa de entropía de un proceso estocástico viene definida por la ecuación: siempre que dicho límite exista. Una cantidad relacionada con la ratio de entropía ( H(X) ) es: cuando dicho límite existe. H'(X) mide la entropía condicional de la última variable aleatoria en función de todas las anteriores. Para proceso estocásticos estacionarios se cumple H(X)=H'(X) Die Entropierate (englisch entropy rate) ermöglicht in der Informationstheorie unabhängig von der Länge einer Nachricht eine Messung der Entropie bezogen auf ein Zeichen. Formal lässt sie sich folgendermaßen definieren: . Hierbei ist die Anzahl der Zeichen der Nachricht bzw. die Anzahl der Zufallsvariablen. Die Entropierate ermöglicht einen Vergleich der Entropien von Nachrichten unterschiedlicher Länge. У математичній теорії ймовірності шви́дкість ентропі́ї або шви́дкість джерела́ інформа́ції (англ. entropy rate, source information rate) стохастичного процесу — це, неформально, часова густина усередненої інформації в стохастичному процесі. Для стохастичних процесів зі зліченним індексом швидкістю ентропії Η(X) є границя спільної ентропії n членів процесу Xk, поділена на n, при прямуванні n до нескінченності: коли ця границя існує. Альтернативною, пов'язаною величиною є 確率の数理理論において確率過程のエントロピーレート(英: entropy rate)または情報源レート(source information rate)とは、平たく言えば、確率過程における情報量の時間平均である。可算個の時間添字を持つ確率過程のエントロピーレート は、 ステップまでの の結合エントロピーを で割った量の、 が無限大に向かうときの極限と定義される(極限が存在するときに限る): 一方、関連する量に がある。強定常過程に対しては となる。エントロピーレートは確率過程の一般的性質として捉えることができ、これはと呼ばれる。エントロピーレートは確率過程の複雑性の推定にも使うことができる。また、言語の複雑性の特徴付け、ブラインド信号源分離、量化子器の最適化、データ圧縮アルゴリズムといった広範な対象に応用される。例えば、エントロピーレート最大化基準は機械学習における特徴選択に利用することができる。 In the mathematical theory of probability, the entropy rate or source information rate of a stochastic process is, informally, the time density of the average information in a stochastic process. For stochastic processes with a countable index, the entropy rate is the limit of the joint entropy of members of the process divided by , as tends to infinity: when the limit exists. An alternative, related quantity is: 在概率的数学理论中,非正式地说,一个随机过程的熵率或信源信息率是在一个随机过程的平均信息的时间密度。对于一个索引可数的随机过程,熵率 Η(X) 是 n 个 Xk 过程作为成员的联合熵,在 n 趋向无穷时的极限: 前提是该极限存在。另一种相关量为: 对于强平稳随机过程, 熵率可以被认为是随机信源的一般特性;这是渐近均分割性。 В математической теории вероятности энтропийная скорость случайного процесса является, неформально говоря, временно́й плотностью средней информации в стохастическом процессе. Для стохастических процессов со счётным индексом энтропийная скорость является пределом членов процесса , поделённым на , при стремлении к бесконечности: если предел существует. Альтернативно, связанной величиной является:
dct:subject
dbc:Temporal_rates dbc:Information_theory dbc:Entropy dbc:Markov_models
dbo:wikiPageID
11071463
dbo:wikiPageRevisionID
1051048994
dbo:wikiPageWikiLink
dbc:Temporal_rates dbr:Markov_information_source dbc:Information_theory dbr:Machine_learning dbr:Information_source_(mathematics) dbr:Maximal_Entropy_Random_Walk dbr:Independent_and_identically_distributed dbr:Limit_(mathematics) dbr:Asymptotic_equipartition_property dbc:Markov_models dbr:Stochastic_process dbr:Asymptotic_distribution dbr:Stationary_distribution dbr:Joint_entropy dbr:Infinity dbr:Feature_selection dbr:Entropy_(information_theory) dbr:Strongly_stationary dbr:Stochastic_matrix dbr:Markov_chain dbr:Countable dbr:Probability dbr:Aperiodic dbc:Entropy
dbo:wikiPageExternalLink
n21:110438582%3FCRETRY=1&SRETRY=0
owl:sameAs
freebase:m.02q_1wr dbpedia-es:Ratio_de_entropía yago-res:Entropy_rate wikidata:Q1345213 dbpedia-mk:Ентрописка_стапка dbpedia-ru:Энтропийная_скорость dbpedia-de:Entropierate n22:Stopa_entropije dbpedia-zh:熵率 n24:MfSL dbpedia-uk:Ентропійна_швидкість dbpedia-ja:エントロピーレート
dbp:wikiPageUsesTemplate
dbt:Reflist dbt:ISBN dbt:Information_theory
dbo:abstract
In the mathematical theory of probability, the entropy rate or source information rate of a stochastic process is, informally, the time density of the average information in a stochastic process. For stochastic processes with a countable index, the entropy rate is the limit of the joint entropy of members of the process divided by , as tends to infinity: when the limit exists. An alternative, related quantity is: For strongly stationary stochastic processes, . The entropy rate can be thought of as a general property of stochastic sources; this is the asymptotic equipartition property. The entropy rate may be used to estimate the complexity of stochastic processes. It is used in diverse applications ranging from characterizing the complexity of languages, blind source separation, through to optimizing quantizers and data compression algorithms. For example, a maximum entropy rate criterion may be used for feature selection in machine learning. 在概率的数学理论中,非正式地说,一个随机过程的熵率或信源信息率是在一个随机过程的平均信息的时间密度。对于一个索引可数的随机过程,熵率 Η(X) 是 n 个 Xk 过程作为成员的联合熵,在 n 趋向无穷时的极限: 前提是该极限存在。另一种相关量为: 对于强平稳随机过程, 熵率可以被认为是随机信源的一般特性;这是渐近均分割性。 Die Entropierate (englisch entropy rate) ermöglicht in der Informationstheorie unabhängig von der Länge einer Nachricht eine Messung der Entropie bezogen auf ein Zeichen. Formal lässt sie sich folgendermaßen definieren: . Hierbei ist die Anzahl der Zeichen der Nachricht bzw. die Anzahl der Zufallsvariablen. Die Entropierate ermöglicht einen Vergleich der Entropien von Nachrichten unterschiedlicher Länge. В математической теории вероятности энтропийная скорость случайного процесса является, неформально говоря, временно́й плотностью средней информации в стохастическом процессе. Для стохастических процессов со счётным индексом энтропийная скорость является пределом членов процесса , поделённым на , при стремлении к бесконечности: если предел существует. Альтернативно, связанной величиной является: Для сильно стационарных стохастических процессов . Энтропийную скорость можно рассматривать как общее свойство стохастических источников, то есть . Энтропийная скорость можно использовать для оценки сложности стохастических процессов. Он используется в различных приложениях от описания сложности языков, слепого разделения сигналов до оптимизации преобразователей и алгоритмов сжатия данных. Например, критерий максимальной энтропийной скорость может быть использован для отбора признаков в обучении машин. La ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa de crecimiento de la entropía de la secuencia con el crecimiento de n. La tasa de entropía de un proceso estocástico viene definida por la ecuación: siempre que dicho límite exista. Una cantidad relacionada con la ratio de entropía ( H(X) ) es: cuando dicho límite existe. H'(X) mide la entropía condicional de la última variable aleatoria en función de todas las anteriores. Para proceso estocásticos estacionarios se cumple H(X)=H'(X) У математичній теорії ймовірності шви́дкість ентропі́ї або шви́дкість джерела́ інформа́ції (англ. entropy rate, source information rate) стохастичного процесу — це, неформально, часова густина усередненої інформації в стохастичному процесі. Для стохастичних процесів зі зліченним індексом швидкістю ентропії Η(X) є границя спільної ентропії n членів процесу Xk, поділена на n, при прямуванні n до нескінченності: коли ця границя існує. Альтернативною, пов'язаною величиною є Для строго стаціонарних стохастичних процесів . Швидкість ентропії можна розглядати як загальну властивість стохастичних джерел; це є . 確率の数理理論において確率過程のエントロピーレート(英: entropy rate)または情報源レート(source information rate)とは、平たく言えば、確率過程における情報量の時間平均である。可算個の時間添字を持つ確率過程のエントロピーレート は、 ステップまでの の結合エントロピーを で割った量の、 が無限大に向かうときの極限と定義される(極限が存在するときに限る): 一方、関連する量に がある。強定常過程に対しては となる。エントロピーレートは確率過程の一般的性質として捉えることができ、これはと呼ばれる。エントロピーレートは確率過程の複雑性の推定にも使うことができる。また、言語の複雑性の特徴付け、ブラインド信号源分離、量化子器の最適化、データ圧縮アルゴリズムといった広範な対象に応用される。例えば、エントロピーレート最大化基準は機械学習における特徴選択に利用することができる。
prov:wasDerivedFrom
wikipedia-en:Entropy_rate?oldid=1051048994&ns=0
dbo:wikiPageLength
3165
foaf:isPrimaryTopicOf
wikipedia-en:Entropy_rate