rdfs:comment
| - في الإحصاء، سميت مبرهنة غاوس-ماركوف هكذا نسبة إلى كارل فريدريش غاوس وآندريه ماركوف. تنص هاته المبرهنة على أنه في نموذج الانحدار الخطي حيث احتمال الأخطاء يساوي الصفر وحيث لا ترتبط ببعضها البعض وحيث تبايناتها متساوية، أحسن تقدير خطي في معاملاته، هو تقدير المربعات الدنيا الاعتيادية. (ar)
- Στη στατιστική και στην οικονομετρία, το θεώρημα Γκάους-Μάρκοφ αναφέρεται στην αποτελεσματικότητα του εκτιμητή ελαχίστων τετραγώνων του γραμμικού μοντέλου παλινδρόμησης. Η ονομασία του θεωρήματος οφείλεται στους μαθηματικούς Καρλ Φρίντριχ Γκάους και . Το θεώρημα διατυπώνει το εξής: Δεδομένων συγκεκριμένων υποθέσεων, ο εκτιμητής ελαχίστων τετραγώνων είναι αμερόληπτος και ο πιο αποτελεσματικός γραμμικός εκτιμητής των συντελεστών του μοντέλου γραμμικής παλινδρόμησης. (el)
- En statistiques, le théorème de Gauss–Markov, nommé ainsi d'après Carl Friedrich Gauss et Andrei Markov, énonce que dans un modèle linéaire dans lequel les erreurs ont une espérance nulle, sont non corrélées et dont les variances sont égales, le meilleur estimateur linéaire non biaisé des coefficients est l'estimateur des moindres carrés.Plus généralement, le meilleur estimateur linéaire non biaisé d'une combinaison linéaire des coefficients est son estimateur par les moindres carrés. On ne suppose pas que les erreurs possèdent une loi normale, ni qu'elles sont indépendantes (seulement non corrélées), ni qu'elles possèdent la même loi de probabilité. (fr)
- Il teorema di Gauss-Markov, così chiamato in onore dei matematici Carl Friedrich Gauss e Andrej Markov, è un teorema in statistica matematica che afferma che in un modello lineare in cui i disturbi hanno valore atteso nullo, sono incorrelati e omoschedastici, gli stimatori lineari corretti più efficienti sono gli stimatori ottenuti con il metodo dei minimi quadrati. (it)
- ガウス=マルコフの定理(ガウス=マルコフのていり)とは、あるパラメタを観測値の線形結合で推定するとき残差を最小にするように最小二乗法で求めた推定量が、最良線形不偏推定量になることを保証する定理である。カール・フリードリヒ・ガウスとアンドレイ・マルコフによって示された。 (ja)
- 통계학에서 가우스-마르코프 정리(영어: Gauss–Markov theorem, 또는 일부 저자는 가우스 정리라고 표기)는 선형 회귀 모형의 오차가 상관관계가 없고, 오차의 분산이 일정하며, 오차의 기대값이 0이며 설명변수가 외생변수일 때 보통 최소제곱 추정량(OLS)은 다른 선형 불편 추정량에 비하여 표본 분산이 가장 낮다고 명시한다. 오차항이 정규분포를 따를 필요는 없다. 이 정리는 비록 가우스의 작품이 마르코프의 작품보다 현저히 앞섰지만 칼 프리드리히 가우스와 안드레이 마르코프의 이름을 따서 명명되었다. 그러나 가우스가 독립성과 정규성을 가정하여 그 결과를 도출하는 동안 마르코프는 위에서 언급한 형식으로 가정들을 줄였다. 비구형 오류에 대한 추가 일반화는 알렉산더 에이트켄에 의해 이루어졌다. (ko)
- Twierdzenie Gaussa-Markowa – twierdzenie statystyki mówiące, że estymator najmniejszych kwadratów jest (o ile jest on stosowalny) najlepszym (tj. mającym najmniejszą wariancję) estymatorem spośród liniowych, nieobciążonych estymatorów liniowego modelu regresji. (pl)
- Gauss-Markov-teoremet innebär att av alla linjära väntevärdesriktiga estimatorer har Minstakvadratmetoden (OLS, givet homoskedasticitet) den minsta variansen. (sv)
- 高斯-馬可夫定理(英語:Gauss-Markov Theorem),在統計學中陳述的是在线性回归模型中,如果线性模型满足高斯马尔可夫假定,则回归系数的最佳线性无偏估计(BLUE, Best Linear unbiased estimator)就是普通最小二乘法估计。
* 这里最佳的意思是指相较于其他估计量有更小方差的估计量,同时把对估计量的寻找限制在所有可能的线性无偏估计量中。
* 值得注意的是这里不需要假定误差满足同分布或正态分布。
* 线性模型指对于参数是线性的,因此线性模型并非看起来那么有约束性,通过适当的对y与x做变换(如logy与x),可以得到y与x的非线性关系,但并未跳出线性模型的范畴。 (zh)
- El Teorema de Gauss-Màrkov, en estadística, formulat per Carl Friedrich Gauss i Andrei Màrkov, estableix que en un model lineal general (MLG) en el qual s'estableixin els següents supòsits:
* Correcta especificació: el MLG ha de ser una combinació lineal dels paràmetres (B) i no necessàriament de les variables: Y = XB+U
* Mostreig aleatori simple: la mostra d'observacions del vector (yi, x2i, x3i,..., xki) és una mostra aleatòria simple i, per tant, el vector (yi, X'i) és independent del vector (yi, X'j)
* Esperança condicionada de les pertorbacions nul·la: E (Ui/X'i) = 0
* Correcta identificació: la matriu de regressors (X) ha de tenir : rg (X) = K ≤ N
* Homoscedasticitat: Var (U/X) = S2I (ca)
- Gaussova–Markovova věta (někdy nazývaná i Gaussova věta) je tvrzení z matematické statistiky, které se týká regresní analýzy. Říká, že odhad metodou nejmenších čtverců (OLS) má nejnižší výběrový rozptyl (tj. je v tomto smyslu nejpřesnější) ze všech možných lineárních nestranných odhadů, pokud chyby v modelu lineární regrese jsou nekorelované, mají stejné rozptyly a nulovou střední hodnotu. Chyby nemusejí být normální, ani nemusejí být nezávislé a stejně rozdělené. Požadavek, aby byl odhad nestranný, nelze vypustit, protože existují vychýlené odhady s nižším rozptylem. Je to například (který navíc nepožaduje linearitu), odhady nebo jednoduše jakýkoli . (cs)
- In der Stochastik ist der Satz von Gauß-Markow (in der Literatur ist auch die englische Transkription Markov zu finden, also Satz von Gauß-Markov) bzw. Satz von Gauß ein mathematischer Satz über die Klasse der linearen erwartungstreuen Schätzfunktionen. Er stellt eine theoretische Rechtfertigung der Methode der kleinsten Quadrate dar und ist nach den Mathematikern Carl Friedrich Gauß und Andrei Andrejewitsch Markow benannt. Es wird in neuer Zeit vorgeschlagen, dass der Satz einfach Satz von Gauß heißen sollte, da die Zuschreibung zu Markow auf einem Irrtum beruht (siehe ). Der Satz besagt, dass in einem linearen Regressionsmodell, in dem die Störgrößen einen Erwartungswert von null und eine konstante Varianz haben sowie unkorreliert sind (Annahmen des klassischen linearen Regressionsmodell (de)
- En estadística, el Teorema de Gauss-Márkov, formulado por Carl Friedrich Gauss y Andréi Márkov, establece que en un modelo lineal general (MLG) en el que se establezcan los siguientes supuestos:
* Correcta especificación: el MLG ha de ser una combinación lineal de los parámetros y no necesariamente de las variables:
* Muestreo aleatorio simple: la muestra de observaciones del vector es una muestra aleatoria simple y, por lo tanto, el vector es independiente del vector
* Esperanza condicionada de las perturbaciones nula:
* Correcta identificación: la matriz de regresoras (X) ha de tener :
* Homocedasticidad: (es)
- In statistics, the Gauss–Markov theorem (or simply Gauss theorem for some authors) states that the ordinary least squares (OLS) estimator has the lowest sampling variance within the class of linear unbiased estimators, if the errors in the linear regression model are uncorrelated, have equal variances and expectation value of zero. The errors do not need to be normal, nor do they need to be independent and identically distributed (only uncorrelated with mean zero and homoscedastic with finite variance). The requirement that the estimator be unbiased cannot be dropped, since biased estimators exist with lower variance. See, for example, the James–Stein estimator (which also drops linearity), ridge regression, or simply any degenerate estimator. (en)
- Рассматривается модель парной регрессии, в которой наблюдения связаны с следующей зависимостью: . На основе выборочных наблюдений оценивается уравнение регрессии . Теорема Гаусса—Маркова гласит: Если данные обладают следующими свойствами: 1.
* Модель данных правильно специфицирована; 2.
* Все детерминированы и не все равны между собой; 3.
* Ошибки не носят систематического характера, то есть ; 4.
* Дисперсия ошибок одинакова и равна некоторой ; 5.
* Ошибки некоррелированы, то есть ; (ru)
- У статистиці, теорема Гаусса-Маркова (або просто теорема Гаусса для деяких акторів) стверджує, що у звичайному методі найменших квадратів (ЗМНК) оцінювач має найменшу дисперсію вибірки в межах класу від лінійних неупереджених оцінок, якщо помилки у лінійній регресійній моделі є некорильованими, мають рівні дисперсії та очікуване значення нуля. Помилки не повинні бути нормальними, вони також не повинні бути незалежними та однаково розподіленими (лише некорильованими із середнім нулем та гомосцедастичними з кінцевою дисперсією). Не можна відмовлятись від вимоги щодо неупередженості оцінювача, оскільки упереджені оцінювачі існують з меншою дисперсією. Дивіться, наприклад (який також знижує лінійність), регресійну регресію, або просто будь-який вироджений оцінювач. (uk)
|