Ekuacioni Hamilton-Jakobi-Belman

Nga Wikipedia, enciklopedia e lirë

Ekuacioni i Hamilton-Jakobi-Belmanit (HJB) është një ekuacion diferencial pjesor i cili luan rol thelbësor në teorinë e kontrollit optimal.

Zgjidhja e ekuacionit të HJB është një "funksion vlere", i cili jep koston optimale për një sistem dinamik të dhënë i cili përshkruhet nga një funksion kostoje. Problemet e variacionit klasik, për shembull, problemi i brakistokronës mund të zgjidhen gjithashtu duke përdorur këtë metodë.

Ekuacioni është rezultat i teorisë së programimit dinamik, një teori e formuar në 1950-ën nga puna pioniere e Ricard Bellman dhe bashkëpunëtorëve të tjerë.[1] Ekuacion korrespondues me kohe diskret zakonisht referohet si ekuacioni i Bellmanit. Në vazhdimësinë kohore, rezultati mund të shihet si një zgjerim i punës në fizikën klasike dhe ekuacionit të Hamilton-Jakobit nga Uilliam Rouan Hamilton dhe Karl Gustav Jakob Jakobi.

Referime[Redakto | Redakto nëpërmjet kodit]

  1. ^ R. E. Bellman. Dynamic Programming. Princeton, NJ, 1957.