This HTML5 document contains 193 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbpedia-dehttp://de.dbpedia.org/resource/
dctermshttp://purl.org/dc/terms/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
dbpedia-kohttp://ko.dbpedia.org/resource/
n27http://su.dbpedia.org/resource/
n15https://global.dbpedia.org/id/
dbpedia-hehttp://he.dbpedia.org/resource/
dbpedia-ruhttp://ru.dbpedia.org/resource/
dbthttp://dbpedia.org/resource/Template:
dbpedia-ukhttp://uk.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
freebasehttp://rdf.freebase.com/ns/
n29https://zenodo.org/record/
dbpedia-plhttp://pl.dbpedia.org/resource/
n32http://bn.dbpedia.org/resource/
dbpedia-fihttp://fi.dbpedia.org/resource/
dbpedia-fahttp://fa.dbpedia.org/resource/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
dbpedia-ithttp://it.dbpedia.org/resource/
dbpedia-frhttp://fr.dbpedia.org/resource/
wikipedia-enhttp://en.wikipedia.org/wiki/
dbpedia-zhhttp://zh.dbpedia.org/resource/
n17https://archive.org/details/
dbphttp://dbpedia.org/property/
dbchttp://dbpedia.org/resource/Category:
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
dbpedia-nlhttp://nl.dbpedia.org/resource/
goldhttp://purl.org/linguistics/gold/
wikidatahttp://www.wikidata.org/entity/
dbrhttp://dbpedia.org/resource/
dbpedia-jahttp://ja.dbpedia.org/resource/
n20http://d-nb.info/gnd/

Statements

Subject Item
dbr:Fisher_information
rdf:type
owl:Thing
rdfs:label
Informacja Fishera Fisherinformatie 피셔 정보 费希尔信息 Information de Fisher Fisher information Інформація за Фішером Информация Фишера Informazione di Fisher Fisher-Information フィッシャー情報量
rdfs:comment
数理统计学中,费希尔信息(英语:Fisher Information;有時稱作 information),或稱費雪訊息數,通常记作,是衡量观测所得的随机变量携带的关于未知母數的訊息量,其中的概率分布依赖于母數。费希尔信息由统计学家罗纳德·费希尔在弗朗西斯·伊西德罗·埃奇沃思工作的基础上提出,现常用于最大似然估计和中。 フィッシャー情報量(フィッシャーじょうほうりょう、英: Fisher information) は、統計学や情報理論で登場する量で、確率変数が母数に関して持つ「情報」の量を表す。統計学者のロナルド・フィッシャーに因んで名付けられた。 Информа́ция Фи́шера — математическое ожидание квадрата относительной скорости изменения условной плотности вероятности . Эта функция названа в честь описавшего её Рональда Фишера. Die Fisher-Information (benannt nach dem Statistiker Ronald Fisher) ist eine Kenngröße aus der mathematischen Statistik, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen in diesem Modell liefert.Die Fisher-Information spielt in der asymptotischen Theorie der Maximum-Likelihood-Schätzung eine wichtige Rolle und wird auch in der Bayes-Statistik bei der Berechnung von Priorverteilungen verwendet. Sie kann auch bei der Formulierung von Teststatistiken, wie beim Wald-Test verwendet werden. Informacja Fishera – miara ilości informacji o jednym lub wielu nieznanych parametrach jaką niesie obserwowalna związana z nimi zmienna losowa . Może być rozumiana jako średnia dokładność oszacowania, jaką daje obserwacja danych – tj. wartość oczekiwana brzegowej wiarygodności estymatora parametru względem obserwacji danych W przypadku jednego parametru i zmiennej ciągłej, oraz przy założeniu określonego statystycznego modelu ich wzajemnej zależności wyraża ją równanie: L'information de Fisher est une notion de statistique introduite par R.A. Fisher qui quantifie l'information relative à un paramètre contenue dans une distribution. Elle est définie comme l'espérance de l'information observée, ou encore comme la variance de la fonction de score. Dans le cas multi-paramétrique, on parle de matrice d'information de Fisher. 통계학에서 피셔 정보(영어: Fisher information)는 어떤 확률변수의 관측값으로부터, 확률변수의 분포의 매개변수에 대해 유추할 수 있는 정보의 양이다. In de wiskundige statistiek is de fisherinformatie van een familie kansdichtheden een grootheid die informatie geeft over de kwaliteit van parameterschattingen. De grootheid is genoemd naar de Britse statisticus Ronald Aylmer Fisher. In mathematical statistics, the Fisher information (sometimes simply called information) is a way of measuring the amount of information that an observable random variable X carries about an unknown parameter θ of a distribution that models X. Formally, it is the variance of the score, or the expected value of the observed information. The Fisher information matrix is used to calculate the covariance matrices associated with maximum-likelihood estimates. It can also be used in the formulation of test statistics, such as the Wald test. In statistica e teoria dell'informazione, l'informazione di Fisher è la varianza dello score (derivata logaritmica) associato a una data funzione di verosimiglianza. L'informazione di Fisher, che prende il nome dal celebre genetista e statistico Ronald Fisher, può essere interpretata come l'ammontare di informazione contenuta da una variabile casuale osservabile , concernente un parametro non osservabile , da cui dipende la distribuzione di probabilità di . dove denota la funzione di verosimiglianza. Una scrittura equivalente è: У математичній статистиці та теорії інформації інформацією за Фішером називається міра кількості інформації, що спостережувана випадкова змінна X несе про невідомий параметр θ, від якого залежить ймовірність X. Формально це дисперсія функції внеску вибірки. Ця функція названа на честь Рональда Фішера, що описав її.
rdfs:seeAlso
dbr:Regular_parametric_model dbr:Fisher_information_metric
dcterms:subject
dbc:Design_of_experiments dbc:Estimation_theory dbc:Information_theory
dbo:wikiPageID
598971
dbo:wikiPageRevisionID
1121357221
dbo:wikiPageWikiLink
dbr:Order_parameter dbr:Formation_matrix dbr:Posterior_distribution dbr:Euclidean_metric dbr:Quantum_Fisher_information dbr:Square_matrix dbr:Information_geometry dbr:Least_squares dbc:Design_of_experiments dbr:Sufficiency_(statistics) dbr:Artificial_neural_networks dbr:Column_vector dbr:Francis_Ysidro_Edgeworth dbr:Natural_logarithm dbr:Almost_everywhere dbr:Phase_transitions dbr:Wilks'_theorem dbr:Hessian_matrix dbr:Eigenvalue dbr:Multivariate_normal_distribution dbr:Probability_mass_function dbr:Variance dbr:Maximum-likelihood_estimation dbr:I.i.d. dbr:Moment_(mathematics) dbr:Isoperimetric_inequality dbr:Trace_(matrix) dbr:If_and_only_if dbr:Product_rule dbr:Statistical_theory dbr:Laplace dbr:Riemannian_metric dbr:Efficiency_(statistics) dbc:Estimation_theory dbr:Riemannian_manifold dbr:Invariant_theory dbr:Maximum_likelihood dbr:Support_(mathematics) dbr:Prior_distribution dbr:Self-information dbr:Information dbr:Statistical_Science dbr:Minimum_Fisher_information dbr:Continuously_differentiable dbr:Bayesian_statistics dbr:Transpose dbr:Cramér–Rao_bound dbr:Statistically_independent dbr:Brunn–Minkowski_theorem dbr:Jeffreys_prior dbr:Entropy_(information_theory) dbr:Relative_entropy dbr:Partial_order dbr:Chain_rule dbr:Normal_equations dbr:Likelihood_Principle dbr:Determinant dbr:Cauchy–Schwarz_inequality dbr:B._Roy_Frieden dbr:Mathematical_statistics dbr:Summary_statistics dbr:Maximum_likelihood_estimation dbr:Positive_semidefinite_matrix dbr:Estimator dbr:Random_variable dbr:Covariance_matrices dbr:Fubini–Study_metric dbr:Catastrophic_interference dbr:Machine_learning dbr:Shift-invariant_system dbr:Sufficient_statistic dbr:Observed_information dbr:Likelihood dbr:Exponential_families dbr:Functional_(mathematics) dbr:Jacobian_matrix dbr:Bernstein–von_Mises_theorem dbr:Differential_geometry dbr:Partial_derivative dbr:Parameter dbr:Statistical_independence dbr:Kullback–Leibler_divergence dbr:Wald_test dbr:Curvature dbr:Fisher_information_metric dbr:Bernoulli_trial dbr:Information_theory dbr:Mode_(statistics) dbr:Parameter_space dbr:Annals_of_Statistics dbr:Matrix_trace dbr:Journal_of_the_Royal_Statistical_Society dbr:Linear_model dbr:Statistical_model dbr:Mutual_information dbr:Probability_density_function dbr:Entropy_power_inequality dbr:Expected_value dbr:Nonlinear_regression dbr:Score_(statistics) dbr:Support_curve dbr:Minkowski–Steiner_formula dbr:Ronald_Fisher dbr:Asymptotic_distribution dbr:Covariance_matrix dbr:Unbiased_estimator dbr:Dimension dbr:Statistic dbr:Matrix_(mathematics) dbc:Information_theory dbr:Independent_and_identically_distributed_random_variables dbr:Ordered_vector_space dbr:Charles_Loewner dbr:F-divergence dbr:Optimal_design
dbo:wikiPageExternalLink
n17:historyofstatist00stig n29:1449468 n29:1449470
owl:sameAs
dbpedia-nl:Fisherinformatie freebase:m.02v1rt dbpedia-fa:اطلاع_فیشر dbpedia-fi:Fisher-informaatio dbpedia-he:האינפורמציה_של_פישר n15:RuPR dbpedia-pl:Informacja_Fishera dbpedia-ru:Информация_Фишера dbpedia-fr:Information_de_Fisher n20:7576378-3 dbpedia-zh:费希尔信息 dbpedia-de:Fisher-Information n27:Informasi_Fisher dbpedia-uk:Інформація_за_Фішером dbpedia-ko:피셔_정보 wikidata:Q1420659 n32:ফিশার_তথ্য dbpedia-it:Informazione_di_Fisher dbpedia-ja:フィッシャー情報量
dbp:wikiPageUsesTemplate
dbt:Short_description dbt:= dbt:Reflist dbt:Page_needed dbt:ISBN dbt:Cite_journal dbt:Cite_book dbt:Citation_needed dbt:Math dbt:Mvar dbt:See_also
dbo:abstract
In statistica e teoria dell'informazione, l'informazione di Fisher è la varianza dello score (derivata logaritmica) associato a una data funzione di verosimiglianza. L'informazione di Fisher, che prende il nome dal celebre genetista e statistico Ronald Fisher, può essere interpretata come l'ammontare di informazione contenuta da una variabile casuale osservabile , concernente un parametro non osservabile , da cui dipende la distribuzione di probabilità di . Denotando l'informazione di Fisher con , poiché il valore atteso dello score è nullo, la sua varianza è pari al suo momento del secondo ordine, così che: dove denota la funzione di verosimiglianza. Una scrittura equivalente è: ossia meno il valore atteso della derivata seconda della funzione di verosimiglianza rispetto a ; l'informazione di Fisher può dunque essere letta come una misura della curvatura della verosimiglianza in corrispondenza della stima di massima verosimiglianza per . Una verosimiglianza piatta, con una derivata seconda modesta, comporterà minore informazione, laddove una maggior curva apporterà una maggiore quantità di informazione. L'information de Fisher est une notion de statistique introduite par R.A. Fisher qui quantifie l'information relative à un paramètre contenue dans une distribution. Elle est définie comme l'espérance de l'information observée, ou encore comme la variance de la fonction de score. Dans le cas multi-paramétrique, on parle de matrice d'information de Fisher. 数理统计学中,费希尔信息(英语:Fisher Information;有時稱作 information),或稱費雪訊息數,通常记作,是衡量观测所得的随机变量携带的关于未知母數的訊息量,其中的概率分布依赖于母數。费希尔信息由统计学家罗纳德·费希尔在弗朗西斯·伊西德罗·埃奇沃思工作的基础上提出,现常用于最大似然估计和中。 У математичній статистиці та теорії інформації інформацією за Фішером називається міра кількості інформації, що спостережувана випадкова змінна X несе про невідомий параметр θ, від якого залежить ймовірність X. Формально це дисперсія функції внеску вибірки. Ця функція названа на честь Рональда Фішера, що описав її. Die Fisher-Information (benannt nach dem Statistiker Ronald Fisher) ist eine Kenngröße aus der mathematischen Statistik, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen in diesem Modell liefert.Die Fisher-Information spielt in der asymptotischen Theorie der Maximum-Likelihood-Schätzung eine wichtige Rolle und wird auch in der Bayes-Statistik bei der Berechnung von Priorverteilungen verwendet. Sie kann auch bei der Formulierung von Teststatistiken, wie beim Wald-Test verwendet werden. フィッシャー情報量(フィッシャーじょうほうりょう、英: Fisher information) は、統計学や情報理論で登場する量で、確率変数が母数に関して持つ「情報」の量を表す。統計学者のロナルド・フィッシャーに因んで名付けられた。 In de wiskundige statistiek is de fisherinformatie van een familie kansdichtheden een grootheid die informatie geeft over de kwaliteit van parameterschattingen. De grootheid is genoemd naar de Britse statisticus Ronald Aylmer Fisher. Информа́ция Фи́шера — математическое ожидание квадрата относительной скорости изменения условной плотности вероятности . Эта функция названа в честь описавшего её Рональда Фишера. Informacja Fishera – miara ilości informacji o jednym lub wielu nieznanych parametrach jaką niesie obserwowalna związana z nimi zmienna losowa . Może być rozumiana jako średnia dokładność oszacowania, jaką daje obserwacja danych – tj. wartość oczekiwana brzegowej wiarygodności estymatora parametru względem obserwacji danych W przypadku jednego parametru i zmiennej ciągłej, oraz przy założeniu określonego statystycznego modelu ich wzajemnej zależności wyraża ją równanie: Jest to więc druga pochodna, czyli pochodna gradientu funkcji prawdopodobieństwa, pozwalająca wyrazić szybkość jego zmian przy jej maksimum. Innymi słowy, informacja Fishera opisuje jak bardzo rozkład wiarygodności estymatora parametru względem obserwacji zmiennej losowej jest skupiony blisko maksimum, czyli jaką wariancją się cechuje. Dla porównania, entropia Shannona wyraża globalny średni przyrost informacji, jaką daje obserwacja danych, w estymatorze histogramowym przyjmując postać: Ronald Fisher opisał informację Fishera także jako wewnętrzną dokładność krzywej błędu (intrinsic accuracy of an error curve). W przypadku wielu parametrów jej wynik ma postać macierzy Hessego. Ma postaci zarówno dla zmiennych ciągłych, jak i dyskretnych. Miara ta występuje w wielu obszarach matematyki, statystyki i teorii informacji, w szczególności stanowi główną część nierówności Craméra-Rao. Zasada nieoznaczoności Heisenberga może być traktowana jako szczególny przypadek minimum Craméra-Rao, a oba wzory opierają się o nierówność Cauchy’ego-Schwarza. Entropię Shannona i informację Fishera, oraz inne miary informacji łączy tożsamość de Bruijna i dywergencja Kullbacka-Leiblera. 통계학에서 피셔 정보(영어: Fisher information)는 어떤 확률변수의 관측값으로부터, 확률변수의 분포의 매개변수에 대해 유추할 수 있는 정보의 양이다. In mathematical statistics, the Fisher information (sometimes simply called information) is a way of measuring the amount of information that an observable random variable X carries about an unknown parameter θ of a distribution that models X. Formally, it is the variance of the score, or the expected value of the observed information. In Bayesian statistics, the asymptotic distribution of the posterior mode depends on the Fisher information and not on the prior (according to the Bernstein–von Mises theorem, which was anticipated by Laplace for exponential families). The role of the Fisher information in the asymptotic theory of maximum-likelihood estimation was emphasized by the statistician Ronald Fisher (following some initial results by Francis Ysidro Edgeworth). The Fisher information is also used in the calculation of the Jeffreys prior, which is used in Bayesian statistics. The Fisher information matrix is used to calculate the covariance matrices associated with maximum-likelihood estimates. It can also be used in the formulation of test statistics, such as the Wald test. Statistical systems of a scientific nature (physical, biological, etc.) whose likelihood functions obey shift invariance have been shown to obey maximum Fisher information. The level of the maximum depends upon the nature of the system constraints.
gold:hypernym
dbr:Way
prov:wasDerivedFrom
wikipedia-en:Fisher_information?oldid=1121357221&ns=0
dbo:wikiPageLength
44496
foaf:isPrimaryTopicOf
wikipedia-en:Fisher_information