Controle Otimo Minimax e a Equação de Hamilton-Jacobi-Bellman

Autores/as

  • Paola Geovanna Patzi Aquino
  • Geraldo Nunes Silva

Resumen

A equação de Hamilton-Jacobi-Bellman (HJB) é uma equação diferencial parcial fundamental para a teoria de controle ótimo. A solução da equação HJB é a “função valor” (ou “função de custo ótimo”), a qual dá o custo mínimo para um sistema dinâmico dado, com uma função de custo associada. A equação é um resultado da teoria de programação dinâmica, em que Richard Bellman foi pioneiro na década de 1950. [...]

Descargas

Los datos de descargas todavía no están disponibles.

Publicado

2018-02-14

Número

Sección

Resumos