This HTML5 document contains 152 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dbpedia-dehttp://de.dbpedia.org/resource/
dcthttp://purl.org/dc/terms/
yago-reshttp://yago-knowledge.org/resource/
dbohttp://dbpedia.org/ontology/
n26http://dbpedia.org/resource/File:
foafhttp://xmlns.com/foaf/0.1/
dbpedia-eshttp://es.dbpedia.org/resource/
n28https://global.dbpedia.org/id/
dbpedia-hehttp://he.dbpedia.org/resource/
yagohttp://dbpedia.org/class/yago/
dbpedia-ruhttp://ru.dbpedia.org/resource/
dbthttp://dbpedia.org/resource/Template:
dbpedia-ukhttp://uk.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
freebasehttp://rdf.freebase.com/ns/
n13http://bn.dbpedia.org/resource/
dbpedia-cshttp://cs.dbpedia.org/resource/
n20http://commons.wikimedia.org/wiki/Special:FilePath/
dbpedia-fahttp://fa.dbpedia.org/resource/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
dbpedia-zhhttp://zh.dbpedia.org/resource/
wikipedia-enhttp://en.wikipedia.org/wiki/
dbchttp://dbpedia.org/resource/Category:
dbphttp://dbpedia.org/property/
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
wikidatahttp://www.wikidata.org/entity/
goldhttp://purl.org/linguistics/gold/
dbrhttp://dbpedia.org/resource/
dbpedia-jahttp://ja.dbpedia.org/resource/

Statements

Subject Item
dbr:Bellman_equation
rdf:type
yago:Communication100033020 yago:Statement106722453 yago:WikicatEquations yago:Abstraction100002137 dbo:Disease owl:Thing yago:Equation106669864 yago:Message106598915 yago:MathematicalStatement106732169
rdfs:label
Рівняння Беллмана Уравнение Беллмана 貝爾曼方程 Bellman equation Ecuación de Bellman Bellmanova rovnice ベルマン方程式 Optimalitätsprinzip von Bellman
rdfs:comment
Bellmanova rovnice pojmenovaná podle svého autora Richarda Bellmana, je nutná podmínka optimality matematických optimalizačních metod známých jako dynamické programování. Určuje „hodnotu“ rozhodovacího problému v určitém časovém okamžiku podle výplaty závislé na nějakých počátečních rozhodnutích a „hodnoty“ zbývajícího rozhodovacího problému, který vyplývá z těchto počátečních rozhodnutí. Tím se dynamický optimalizační problém rozloží na posloupnost jednodušších podproblémů, jak popisuje . ベルマン方程式(ベルマンほうていしき、英: Bellman equation)は、動的計画法(dynamic programming)として知られる数学的最適化において、最適性の必要条件を表す方程式であり、発見者のリチャード・ベルマンにちなんで命名された。動的計画方程式 (dynamic programming equation)とも呼ばれる。 ベルマン方程式は、決定問題(decision problem)において、ある時刻の初期選択と、それ以降の決定問題の価値との関係を記述する。これにより、動的な最適化問題を、ベルマンの最適性の原理が示す指針にしたがって、より単純な部分問題(subproblems)に分解するのである。 ベルマン方程式は最初、制御工学や他の応用数学上の問題に適用され、その後、経済理論(economic theory)における重要なツールとなった。しかしながら、動的計画法の基本概念はもともとジョン・フォン・ノイマンとオスカー・モルゲンシュテルンのゲーム理論と経済活動 やエイブラハム・ウォールドの 時系列解析(sequential analysis) の研究の中で次第に形作られてきたものである。 Уравнение Беллмана (также известное как уравнение динамического программирования), названное в честь Ричарда Эрнста Беллмана, является достаточным условием для оптимальности, ассоциируемой с математическим методом оптимизации, называемым динамическим программированием и базируется на Принципе оптимальности Беллмана. Уравнение Беллмана представляет собой дифференциальное уравнение в частных производных с начальными условиями, заданными для последнего момента времени (т. е. справа), для функции Беллмана, которая выражает минимальное значение критерия оптимизации, которое может быть достигнуто, при условии эволюции системы из текущего состояния в некоторое конечное. А это в свою очередь позволяет перейти от решения исходной многошаговой задачи оптимизации к последовательному решению нескольки La ecuación de Bellman, también conocida como la ecuación de programación dinámica, nombrada en honor de su descubridor, Richard Bellman, es una condición necesaria para la optimalidad asociada con el método de la optimización matemática conocida como programación dinámica. Se escribe el valor de un problema de decisión en un determinado punto en el tiempo en términos de la recompensa que dan algunas opciones iniciales y el valor del problema de decisión restante que resulta de esas opciones iniciales. Esto rompe un problema de optimización dinámica en subproblemas más simples, tal como el Principio de optimalidad de Bellman establece. Das Optimalitätsprinzip von Bellman ist ein grundlegendes Prinzip der Optimierung. Es ist nach Richard Bellman benannt und besagt, dass sich bei einigen Optimierungsproblemen jede Optimallösung aus optimalen Teillösungen zusammensetzt. Auf diesem Prinzip basieren Algorithmen der dynamischen Programmierung. Рівняння Беллмана, назване в честь Річарда Беллмана, це — необхідна умова для оптимальності, пов’язаної з методом математичної оптимізації, відомим як динамічне програмування. Рівняння записує “цінність” проблеми рішення в деякій точці часу з точки зору нагороди від деяких початкових рішень разом з “цінністю” залишкової проблеми рішення, що з’явилася на основі тих самих рішень. Це дозволяє розбити проблему динамічної оптимізації на послідовність менших задач, як говорить “принцип оптимальності” Беллмана. 「貝爾曼方程(Bellman Equation)」也被稱作「動態規劃方程(Dynamic Programming Equation)」,由理查·貝爾曼(Richard Bellman)發現。貝爾曼方程是動態規劃(Dynamic Programming)這種數學最佳化方法能夠達到最佳化的必要條件。此方程將「決策問題在特定時間點的值」以「來自初始選擇的報酬 及 由初始選擇衍生的決策問題的值」的形式表示。藉這個方式將動態最佳化問題變成較簡單的子問題,而這些子問題遵守由貝爾曼所提出的「最佳化原理」。 貝爾曼方程最早應用在工程領域的控制理論及其他應用數學領域,而後成為經濟學上的重要工具。 幾乎所有可以用最佳控制理論(Optimal Control Theory)解決的問題也可以透過分析合適的貝爾曼方程得到解決。然而,「貝爾曼方程」通常指離散時間(discrete-time)最佳化問題的動態規劃方程。處理連續時間(continuous-time)最佳化問題上,也有類似的偏微分方程,稱作漢彌爾頓-雅各比-貝爾曼方程(Hamilton–Jacobi–Bellman Equation, HJB Equation)。 A Bellman equation, named after Richard E. Bellman, is a necessary condition for optimality associated with the mathematical optimization method known as dynamic programming. It writes the "value" of a decision problem at a certain point in time in terms of the payoff from some initial choices and the "value" of the remaining decision problem that results from those initial choices. This breaks a dynamic optimization problem into a sequence of simpler subproblems, as Bellman's “principle of optimality" prescribes. The equation applies to algebraic structures with a total ordering; for algebraic structures with a partial ordering, the generic Bellman's equation can be used.
rdfs:seeAlso
dbr:Markov_decision_process
foaf:depiction
n20:Bellman_flow_chart.png
dct:subject
dbc:Dynamic_programming dbc:Equations dbc:Control_theory
dbo:wikiPageID
1236458
dbo:wikiPageRevisionID
1117650362
dbo:wikiPageWikiLink
dbr:Lars_Ljungqvist dbr:Industrial_organization dbr:Oskar_Morgenstern dbr:Backward_induction dbr:Principal–agent_problem dbr:Edward_Prescott dbr:Richard_Muth dbr:Discount_factor dbr:Autonomous_system_(mathematics) dbr:Loss_function dbr:Discrete_time dbr:Subgame_perfect_equilibrium dbr:Functional_equation dbc:Dynamic_programming dbr:Recursion dbr:Factor_of_production dbr:Markov_process dbr:Capital_budgeting dbr:Nancy_Stokey dbr:Sequence dbr:Method_of_undetermined_coefficients dbr:Hamilton–Jacobi–Bellman_equation dbr:Numerical_analysis dbc:Equations dbr:Thomas_Sargent dbr:State_variable dbr:Taxation dbr:Dimitri_Bertsekas dbr:Robert_E._Lucas dbr:Fiscal_policy dbr:Recursive_economics dbr:Game_theory dbr:Resource_extraction dbr:Search_theory dbr:Asset_pricing dbr:Transversality_(mathematics) dbr:Economic_growth dbr:Hamiltonian_(control_theory) dbr:Necessary_condition dbr:Theory_of_Games_and_Economic_Behavior dbr:Utility_function dbc:Control_theory dbr:Monetary_policy dbr:Discrete-time dbr:Richard_E._Bellman dbr:Envelope_theorem dbr:Edmund_S._Phelps dbr:Martin_Beckmann dbr:Economic_theory dbr:Artificial_neural_network dbr:Probability_measure dbr:Robert_Pindyck dbr:Markov_decision_process dbr:Merton's_portfolio_problem dbr:Avinash_Dixit dbr:John_Tsitsiklis dbr:Curse_of_dimensionality dbr:Optimization_(mathematics) dbr:Labor_economics dbr:Backwards_induction dbr:Optimal_substructure dbr:Control_variable_(programming) dbr:Control_theory n26:Bellman_flow_chart.png dbr:Closed-form_expression dbr:Optimal_control dbr:Robert_C._Merton dbr:Dynamic_programming dbr:Public_finance dbr:Measurable dbr:Utility dbr:Abraham_Wald dbr:Euler–Lagrange_equation dbr:Ex-post dbr:Investment dbr:ICAPM dbr:Difference_equation dbr:John_von_Neumann dbr:Differential_equation dbr:Sequential_analysis dbr:Multilayer_perceptron dbr:Partial_differential_equation
owl:sameAs
dbpedia-cs:Bellmanova_rovnice dbpedia-es:Ecuación_de_Bellman dbpedia-ja:ベルマン方程式 n13:বেলম্যান_সমীকরণ dbpedia-uk:Рівняння_Беллмана yago-res:Bellman_equation dbpedia-ru:Уравнение_Беллмана wikidata:Q1430750 dbpedia-he:משוואות_בלמן dbpedia-de:Optimalitätsprinzip_von_Bellman dbpedia-fa:معادله_بلمن freebase:m.04k_pc n28:RwgP dbpedia-zh:貝爾曼方程
dbp:wikiPageUsesTemplate
dbt:Clarify dbt:Short_description dbt:See_also dbt:More_footnotes dbt:Citation_needed dbt:Explain dbt:Reflist dbt:Annotated_link dbt:'
dbo:thumbnail
n20:Bellman_flow_chart.png?width=300
dbp:date
January 2020
dbp:reason
comment from reader: the last two sentences are too long and ambiguous/confusing
dbo:abstract
Bellmanova rovnice pojmenovaná podle svého autora Richarda Bellmana, je nutná podmínka optimality matematických optimalizačních metod známých jako dynamické programování. Určuje „hodnotu“ rozhodovacího problému v určitém časovém okamžiku podle výplaty závislé na nějakých počátečních rozhodnutích a „hodnoty“ zbývajícího rozhodovacího problému, který vyplývá z těchto počátečních rozhodnutí. Tím se dynamický optimalizační problém rozloží na posloupnost jednodušších podproblémů, jak popisuje . Bellmanova rovnice byla nejdříve aplikována na inženýrskou teorii řízení a různé obory užité matematiky, poté se stala důležitým nástrojem v ekonomické teorii; základní koncepty dynamického programování jsou však popsány již v pracích Johna von Neumanna a Oskara Morgensterna a Abrahama Walda. Téměř jakýkoli problém, který lze vyřešit pomocí může také být vyřešený analýzou určité Bellmanovy rovnice. Termín 'Bellmanova rovnice' se obvykle používá pro rovnici dynamického programování popisující optimalizační problém v . Analogickou roli pro optimalizační problémy ve spojitém čase hraje parciální diferenciální rovnice, která se obvykle nazývá . A Bellman equation, named after Richard E. Bellman, is a necessary condition for optimality associated with the mathematical optimization method known as dynamic programming. It writes the "value" of a decision problem at a certain point in time in terms of the payoff from some initial choices and the "value" of the remaining decision problem that results from those initial choices. This breaks a dynamic optimization problem into a sequence of simpler subproblems, as Bellman's “principle of optimality" prescribes. The equation applies to algebraic structures with a total ordering; for algebraic structures with a partial ordering, the generic Bellman's equation can be used. The Bellman equation was first applied to engineering control theory and to other topics in applied mathematics, and subsequently became an important tool in economic theory; though the basic concepts of dynamic programming are prefigured in John von Neumann and Oskar Morgenstern's Theory of Games and Economic Behavior and Abraham Wald's sequential analysis. The term 'Bellman equation' usually refers to the dynamic programming equation associated with discrete-time optimization problems. In continuous-time optimization problems, the analogous equation is a partial differential equation that is called the Hamilton–Jacobi–Bellman equation. In discrete time any multi-stage optimization problem can be solved by analyzing the appropriate Bellman equation. The appropriate Bellman equation can be found by introducing new state variables (state augmentation). However, the resulting augmented-state multi-stage optimization problem has a higher dimensional state space than the original multi-stage optimization problem - an issue that can potentially render the augmented problem intractable due to the “curse of dimensionality”. Alternatively, it has been shown that if the cost function of the multi-stage optimization problem satisfies a "backward separable" structure, then the appropriate Bellman equation can be found without state augmentation. ベルマン方程式(ベルマンほうていしき、英: Bellman equation)は、動的計画法(dynamic programming)として知られる数学的最適化において、最適性の必要条件を表す方程式であり、発見者のリチャード・ベルマンにちなんで命名された。動的計画方程式 (dynamic programming equation)とも呼ばれる。 ベルマン方程式は、決定問題(decision problem)において、ある時刻の初期選択と、それ以降の決定問題の価値との関係を記述する。これにより、動的な最適化問題を、ベルマンの最適性の原理が示す指針にしたがって、より単純な部分問題(subproblems)に分解するのである。 ベルマン方程式は最初、制御工学や他の応用数学上の問題に適用され、その後、経済理論(economic theory)における重要なツールとなった。しかしながら、動的計画法の基本概念はもともとジョン・フォン・ノイマンとオスカー・モルゲンシュテルンのゲーム理論と経済活動 やエイブラハム・ウォールドの 時系列解析(sequential analysis) の研究の中で次第に形作られてきたものである。 最適制御理論で解かれるほとんどの問題は、適切なベルマン方程式を用いて解くことができる。 ただし、一般に「ベルマン方程式」という用語は離散時間の最適化問題を解く際に用いられる動的計画法の方程式を指す。 連続時間の最適化問題を解く場合には、ベルマン方程式の連続時間形式である偏微分方程式を用い、これをハミルトン-ヤコビ-ベルマン方程式と呼ぶ。 La ecuación de Bellman, también conocida como la ecuación de programación dinámica, nombrada en honor de su descubridor, Richard Bellman, es una condición necesaria para la optimalidad asociada con el método de la optimización matemática conocida como programación dinámica. Se escribe el valor de un problema de decisión en un determinado punto en el tiempo en términos de la recompensa que dan algunas opciones iniciales y el valor del problema de decisión restante que resulta de esas opciones iniciales. Esto rompe un problema de optimización dinámica en subproblemas más simples, tal como el Principio de optimalidad de Bellman establece. La ecuación de Bellman se aplicó primero a la ingeniería en la teoría de control y otros temas de matemática aplicada y, posteriormente, se convirtió en una herramienta importante en la teoría económica. Casi cualquier problema que puede ser resuelto usando la teoría de control óptimo también se puede resolver mediante el análisis de la ecuación de Bellman apropiada. Sin embargo, el término "ecuación de Bellman" por lo general se refiere a la ecuación de programación dinámica asociada a tiempo discreto problemas de optimización. En los problemas de optimización en tiempo continuo, la ecuación análoga es una ecuación diferencial parcial que generalmente se llama la ecuación de Hamilton-Jacobi-Bellman. 「貝爾曼方程(Bellman Equation)」也被稱作「動態規劃方程(Dynamic Programming Equation)」,由理查·貝爾曼(Richard Bellman)發現。貝爾曼方程是動態規劃(Dynamic Programming)這種數學最佳化方法能夠達到最佳化的必要條件。此方程將「決策問題在特定時間點的值」以「來自初始選擇的報酬 及 由初始選擇衍生的決策問題的值」的形式表示。藉這個方式將動態最佳化問題變成較簡單的子問題,而這些子問題遵守由貝爾曼所提出的「最佳化原理」。 貝爾曼方程最早應用在工程領域的控制理論及其他應用數學領域,而後成為經濟學上的重要工具。 幾乎所有可以用最佳控制理論(Optimal Control Theory)解決的問題也可以透過分析合適的貝爾曼方程得到解決。然而,「貝爾曼方程」通常指離散時間(discrete-time)最佳化問題的動態規劃方程。處理連續時間(continuous-time)最佳化問題上,也有類似的偏微分方程,稱作漢彌爾頓-雅各比-貝爾曼方程(Hamilton–Jacobi–Bellman Equation, HJB Equation)。 Das Optimalitätsprinzip von Bellman ist ein grundlegendes Prinzip der Optimierung. Es ist nach Richard Bellman benannt und besagt, dass sich bei einigen Optimierungsproblemen jede Optimallösung aus optimalen Teillösungen zusammensetzt. Auf diesem Prinzip basieren Algorithmen der dynamischen Programmierung. Ein Beispiel ist die Berechnung eines kürzesten Weges in einem Graphen (z. B. einem Straßennetz). Ein kürzester Weg P zwischen den Knoten (Städten) A und B, der durch die Knoten X und Y führt, muss auch zwischen X und Y einen kürzesten Weg zwischen diesen beiden Knoten verwenden. Wäre das nicht der Fall, könnte P verkürzt werden, indem zwischen X und Y ein kürzerer Teilweg verwendet wird, und dann wäre P kein kürzester Weg zwischen A und B gewesen, im Widerspruch zur Annahme. Der Bellman-Ford-Algorithmus zur Berechnung kürzester Wege, der auf dynamischer Programmierung beruht, macht sich dieses Prinzip zunutze. Dargestellt werden solche Graphen in einem . Уравнение Беллмана (также известное как уравнение динамического программирования), названное в честь Ричарда Эрнста Беллмана, является достаточным условием для оптимальности, ассоциируемой с математическим методом оптимизации, называемым динамическим программированием и базируется на Принципе оптимальности Беллмана. Уравнение Беллмана представляет собой дифференциальное уравнение в частных производных с начальными условиями, заданными для последнего момента времени (т. е. справа), для функции Беллмана, которая выражает минимальное значение критерия оптимизации, которое может быть достигнуто, при условии эволюции системы из текущего состояния в некоторое конечное. А это в свою очередь позволяет перейти от решения исходной многошаговой задачи оптимизации к последовательному решению нескольких одношаговых задач оптимизации. Понятие Уравнения Беллмана и функции Беллмана применяется только для непрерывных систем. Для дискретных систем аналогом выступает так называемое основное рекуррентное соотношение, являющееся формальной основой метода динамического программирования и выражающее достаточное условие оптимальности, и функция будущих потерь. Формальные соотношения, выражающие достаточное условия оптимальности как для дискретных, так и для непрерывных систем могут быть записаны как для случая детерминированных, так и для случая стохастических динамических систем общего вида. Отличие заключается лишь в том, что для случая стохастических систем в правых частях этих выражений возникает условное математическое ожидание. Принцип оптимальности Беллмана (также известный как принцип динамического программирования), названный в честь Р. Беллмана, описывает действие математического метода оптимизации, называемого динамическим программированием. Он заключается в том, что на каждом шаге следует стремиться не к изолированной оптимизации функции , а выбирать оптимальное управление в предположении об оптимальности всех последующих шагов. Принцип оптимальности: оптимальная стратегия имеет свойство, что какими бы ни были начальное состояние и начальное решение, последующие решения должны составлять оптимальный курс действий по отношению к состоянию, полученному в результате первого решения. Иными словами, оптимальная стратегия зависит только от текущего состояния и цели, и не зависит от предыстории. Рівняння Беллмана, назване в честь Річарда Беллмана, це — необхідна умова для оптимальності, пов’язаної з методом математичної оптимізації, відомим як динамічне програмування. Рівняння записує “цінність” проблеми рішення в деякій точці часу з точки зору нагороди від деяких початкових рішень разом з “цінністю” залишкової проблеми рішення, що з’явилася на основі тих самих рішень. Це дозволяє розбити проблему динамічної оптимізації на послідовність менших задач, як говорить “принцип оптимальності” Беллмана. Рівняння Беллмана було вперше використано до інженерної теорії керування та до інших задач прикладної математики, таким чином ставши важливим інструментом у економіці, не дивлячись на те, що базові концепти динамічного програмування були представлені як Джоном фон Нейманом та Оскаром Морґенштерном у книзі “”, так і Абрахамом Вальдом у його дослідженнях послідовного аналізу. Поняття “рівняння Беллмана” зазвичай посилається на рівняння динамічного програмування, асоційоване з задачами оптимізації з . Якщо говорити про задачі оптимізації з неперервним часом, то аналогічне рівняння є диференціальним рівнянням з частинними похідними та називається рівнянням Гамільтона-Якобі-Беллмана. У дискретному часі будь-яка багатоетапна задача оптимізації може бути вирішена шляхом аналізу відповідного рівняння Беллмана. Таке рівняння може бути знайдено додаванням нових змінних стану (аугментація стану). Однак, слід зауважити, що отримана багатоетапна задача з аугментованим станом має більшу розмірність простору стану ніж оригінальна, що може призвести до недосяжності рішення ввиду “прокляття розмірності”. Альтернативно було показано, якщо функція багатоетапної задачі оптимізації відповідає “зворотно роздільній” структурі, то відповідне рівняння Беллмана може бути знайдено без аугментації стану.
gold:hypernym
dbr:Condition
prov:wasDerivedFrom
wikipedia-en:Bellman_equation?oldid=1117650362&ns=0
dbo:wikiPageLength
27489
foaf:isPrimaryTopicOf
wikipedia-en:Bellman_equation