Controle Otimo Minimax e a Equação de Hamilton-Jacobi-Bellman

Authors

  • Paola Geovanna Patzi Aquino
  • Geraldo Nunes Silva

Abstract

A equação de Hamilton-Jacobi-Bellman (HJB) é uma equação diferencial parcial fundamental para a teoria de controle ótimo. A solução da equação HJB é a “função valor” (ou “função de custo ótimo”), a qual dá o custo mínimo para um sistema dinâmico dado, com uma função de custo associada. A equação é um resultado da teoria de programação dinâmica, em que Richard Bellman foi pioneiro na década de 1950. [...]

Downloads

Download data is not yet available.

Published

2018-02-14

Issue

Section

Resumos