rdfs:comment
| - In statistics, the likelihood principle is the proposition that, given a statistical model, all the evidence in a sample relevant to model parameters is contained in the likelihood function. A likelihood function arises from a probability density function considered as a function of its distributional parameterization argument. For example, consider a model which gives the probability density function of observable random variable as a function of a parameter Then for a specific value of the function is a likelihood function of it gives a measure of how "likely" any particular value of is, if we know that has the value The density function may be a density with respect to counting measure, i.e. a probability mass function. (en)
- У статистиці при́нцип правдоподі́бності (англ. likelihood principle) полягає в тім, що для заданої статистичної моделі все свідчення у вибірці, що має відношення до параметрів моделі, міститься у функції правдоподібності. (uk)
|
has abstract
| - In statistics, the likelihood principle is the proposition that, given a statistical model, all the evidence in a sample relevant to model parameters is contained in the likelihood function. A likelihood function arises from a probability density function considered as a function of its distributional parameterization argument. For example, consider a model which gives the probability density function of observable random variable as a function of a parameter Then for a specific value of the function is a likelihood function of it gives a measure of how "likely" any particular value of is, if we know that has the value The density function may be a density with respect to counting measure, i.e. a probability mass function. Two likelihood functions are equivalent if one is a scalar multiple of the other.The likelihood principle is this: All information from the data that is relevant to inferences about the value of the model parameters is in the equivalence class to which the likelihood function belongs. The strong likelihood principle applies this same criterion to cases such as sequential experiments where the sample of data that is available results from applying a stopping rule to the observations earlier in the experiment. (en)
- У статистиці при́нцип правдоподі́бності (англ. likelihood principle) полягає в тім, що для заданої статистичної моделі все свідчення у вибірці, що має відношення до параметрів моделі, міститься у функції правдоподібності. Функція правдоподібності виникає з функції густини ймовірності, яку розглядають як функцію від її аргументу розподілового параметризування. Наприклад, розгляньмо модель, яка дає функцію густини ймовірності ƒX(x | θ) спостережуваної випадкової змінної X як функцію від параметра θ. Тоді для конкретного значення x змінної X функція (θ | x) = ƒX(x | θ) є функцією правдоподібності θ: вона дає міру того, наскільки «правдоподібним» є певне значення θ, якщо ми знаємо, що X має значення x. Функція густини може бути густиною по відношенню до зліченної міри, тобто, функцією маси ймовірності. Дві функції правдоподібності є еквівале́нтними (англ. equivalent), якщо одна з них є добутком іншої на скаляр. При́нцип правдоподі́бності (англ. likelihood principle) полягає в наступному: вся інформація з даних, доречна для висновувань про значення параметрів моделі, міститься в класі еквівалентності, до якого належить функція правдоподібності. Си́льний при́нцип правдоподі́бності (англ. strong likelihood principle) застосовує той самий критерій до таких випадків, як послідовні експерименти, де вибірка даних є результатами, доступними від ранішого застосування до спостережень в експерименті правила зупину. (uk)
|