Controle Otimo Minimax e a Equação de Hamilton-Jacobi-Bellman

Autores

  • Paola Geovanna Patzi Aquino
  • Geraldo Nunes Silva

Resumo

A equação de Hamilton-Jacobi-Bellman (HJB) é uma equação diferencial parcial fundamental para a teoria de controle ótimo. A solução da equação HJB é a “função valor” (ou “função de custo ótimo”), a qual dá o custo mínimo para um sistema dinâmico dado, com uma função de custo associada. A equação é um resultado da teoria de programação dinâmica, em que Richard Bellman foi pioneiro na década de 1950. [...]

Downloads

Não há dados estatísticos.

Downloads

Publicado

2018-02-14

Edição

Seção

Resumos