Controle Otimo Minimax e a Equação de Hamilton-Jacobi-Bellman
Resumen
A equação de Hamilton-Jacobi-Bellman (HJB) é uma equação diferencial parcial fundamental para a teoria de controle ótimo. A solução da equação HJB é a “função valor” (ou “função de custo ótimo”), a qual dá o custo mínimo para um sistema dinâmico dado, com uma função de custo associada. A equação é um resultado da teoria de programação dinâmica, em que Richard Bellman foi pioneiro na década de 1950. [...]
Descargas
Los datos de descargas todavía no están disponibles.
Descargas
Publicado
2018-02-14
Número
Sección
Resumos