Controle Otimo Minimax e a Equação de Hamilton-Jacobi-Bellman
Resumo
A equação de Hamilton-Jacobi-Bellman (HJB) é uma equação diferencial parcial fundamental para a teoria de controle ótimo. A solução da equação HJB é a “função valor” (ou “função de custo ótimo”), a qual dá o custo mínimo para um sistema dinâmico dado, com uma função de custo associada. A equação é um resultado da teoria de programação dinâmica, em que Richard Bellman foi pioneiro na década de 1950. [...]
Downloads
Não há dados estatísticos.