Optimal kontroll |
---|
Optimal kontroll är uppgiften att designa ett system som tillhandahåller för ett givet kontrollobjekt eller process en kontrolllag eller en kontrollsekvens av åtgärder som ger maximalt eller minimum av en given uppsättning systemkvalitetskriterier [1] .
Det optimala styrproblemet inkluderar beräkningen av det optimala styrprogrammet och syntesen av det optimala styrsystemet. Optimala styrprogram beräknas som regel med numeriska metoder för att hitta extremumet för en funktionell eller lösa ett gränsvärdesproblem för ett system av differentialekvationer [2] . Ur en matematisk synvinkel är syntesen av optimala styrsystem ett icke-linjärt programmeringsproblem i funktionella rum [3] .
För att lösa problemet med att bestämma det optimala styrprogrammet konstrueras en matematisk modell av ett kontrollerat objekt eller en process som beskriver dess beteende över tid under påverkan av kontrollåtgärder och dess eget nuvarande tillstånd [4] .
Om den matematiska modellen för det kontrollerade objektet eller processen inte är känd i förväg, då för att bestämma den, är det nödvändigt att utföra proceduren för att identifiera det kontrollerade objektet eller processen [5]
Den matematiska modellen för det optimala kontrollproblemet innefattar: formuleringen av kontrollmålet, uttryckt genom kontrollkvalitetskriteriet; definition av differential- eller differensekvationer [6] som beskriver möjliga sätt att förflytta kontrollobjektet; definition av restriktioner för de resurser som används i form av ekvationer eller ojämlikheter [7] .
Alla optimala styrproblem kan betraktas som matematiska programmeringsproblem och kan lösas i denna form med numeriska metoder. [8] [9]
Med optimal hantering av hierarkiska flernivåsystem används till exempel stora kemiska industrier, metallurgiska och energikomplex, multifunktionella och flernivåsystem för optimal kontroll. Den matematiska modellen introducerar kriterier för ledningens kvalitet för varje ledningsnivå och för hela systemet som helhet, samt samordning av åtgärder mellan ledningsnivåer [10] [11] .
Om ett kontrollerat objekt eller en process är deterministisk, används differentialekvationer för att beskriva det. De vanligaste vanliga differentialekvationerna är av formen . I mer komplexa matematiska modeller (för system med distribuerade parametrar) används partiella differentialekvationer för att beskriva ett objekt . Om det kontrollerade objektet är stokastiskt, används stokastiska differentialekvationer för att beskriva det .
Teorin om differentialspel används för att lösa optimala kontrollproblem under förhållanden av konflikt eller osäkerhet . [12]
Om lösningen av det givna problemet med optimal kontroll inte kontinuerligt är beroende av de initiala data ( dåligt problem ), så löses ett sådant problem med speciella numeriska metoder. [13]
För att lösa optimala kontrollproblem med ofullständig initial information och vid förekomst av mätfel används maximum likelihood-metoden [14] .
Ett optimalt styrsystem som kan samla erfarenheter och förbättra sitt arbete utifrån detta kallas ett inlärningsoptimalt styrsystem [15] .
Det faktiska beteendet hos ett objekt eller system skiljer sig alltid från programmet på grund av felaktigheter i de initiala förhållandena, ofullständig information om externa störningar som verkar på objektet, felaktigheter i implementeringen av programstyrning etc. För att därför minimera avvikelsen av objektets beteende från det optimala, används vanligtvis ett automatiskt styrsystem . [16]
Ibland (till exempel vid hantering av komplexa objekt, såsom en masugn inom metallurgi eller vid analys av ekonomisk information), innehåller initiala data och kunskaper om det kontrollerade objektet vid inställning av det optimala styrproblemet osäker eller otydlig information som inte kan bearbetas av traditionella kvantitativa metoder. I sådana fall kan optimala kontrollalgoritmer baserade på den matematiska teorin för fuzzy sets ( fuzzy control ) användas. Begreppen och kunskapen som används omvandlas till en luddig form, luddiga regler för att sluta beslut bestäms, och sedan utförs den omvända transformationen av luddiga beslut till fysiska kontrollvariabler. [17] [11]
För optimal hantering av ekonomiska processer används metoder för ekonomisk cybernetik , spelteori , grafteori [18]
Mest utbrett i konstruktionen av styrsystem för deterministiska objekt med klumpade parametrar som beskrivs av vanliga differentialekvationer, används följande metoder: variationskalkyl , Pontryagins maximumprincip och Bellmans dynamiska programmering [1] .
Optimalt kontrollproblemVi formulerar det optimala kontrollproblemet:
här — tillståndsvektor — kontroll, — initiala och sista ögonblick.
Det optimala kontrollproblemet är att hitta tillståndet och kontrollfunktionerna för tid , vilket minimerar det funktionella.
VariationskalkylBetrakta detta optimala kontrollproblem som ett Lagrangeproblem av variationskalkylen [19] . För att hitta de nödvändiga förutsättningarna för ett extremum tillämpar vi Euler-Lagrange-satsen [19] . Lagrange-funktionen har formen: , var finns randvillkoren. Lagrangian har formen: , där , , är n-dimensionella vektorer av Lagrange-multiplikatorer .
De nödvändiga förutsättningarna för ett extremum, enligt denna sats, är:
De nödvändiga förutsättningarna (3-5) ligger till grund för att bestämma de optimala banorna. Efter att ha skrivit dessa ekvationer får vi ett tvåpunktsgränsproblem, där en del av randvillkoren sätts vid det inledande ögonblicket och resten i det sista ögonblicket. Metoder för att lösa sådana problem diskuteras i detalj i boken [20]
Pontryagins maximiprincipBehovet i princip av Pontryagin-maximum uppstår när det inte är någonstans i det tillåtna området för kontrollvariabeln det är omöjligt att uppfylla det nödvändiga villkoret (3), nämligen .
I detta fall ersätts villkor (3) med villkor (6):
(6)I det här fallet, enligt Pontryagin-maximumprincipen, är värdet för den optimala kontrollen lika med värdet på kontrollen vid en av ändarna av det tillåtna området. Pontryagin-ekvationerna skrivs med hjälp av Hamilton-funktionen , definierad av relationen . Det följer av ekvationerna att Hamilton-funktionen är relaterad till Lagrange-funktionen enligt följande: . Genom att ersätta från den sista ekvationen i ekvationerna (3–5), får vi de nödvändiga villkoren uttryckta i termer av Hamilton-funktionen:
Nödvändiga villkor skrivna i denna form kallas Pontryagins ekvationer. Pontryagin-maximumprincipen analyseras mer i detalj i boken [19] .
ExempelLåt det krävas för att lösa problemet med att minimera det funktionella:
, var , , .Hamilton-funktionen har i detta fall formen:
.Från villkor 9) och 10) finner vi att:
, .Vi får:
.Maximum för denna funktion med avseende på , , nås vid , där
Efter villkor, . Betyder att:
Från får vi . Från kontinuitetsvillkoret vid punkten finner vi konstanten .
På det här sättet:
Det kan verifieras att den hittade och utgör den optimala lösningen på detta problem [21]
I tillämpliga fallMaximiprincipen är särskilt viktig i styrsystem med maximal hastighet och minimal energiförbrukning, där man använder relästyrningar som tar extrema snarare än mellanliggande värden i det tillåtna styrintervallet.
HistorikFör utvecklingen av teorin om optimal kontroll tilldelades L. S. Pontryagin och hans medarbetare V. G. Boltyansky , R. V. Gamkrelidze och E. F. Mishchenko Leninpriset 1962 .
Dynamisk programmeringsmetodDen dynamiska programmeringsmetoden bygger på Bellmans optimalitetsprincip, som är formulerad så här: den optimala styrstrategin har egenskapen att oavsett initialtillstånd och styrning i början av processen så ska efterföljande styrningar utgöra den optimala styrstrategin m.b.t. det tillstånd som erhålls efter det inledande skedet av processen [ 22] . Den dynamiska programmeringsmetoden beskrivs mer i detalj i boken [23]
Tillräckliga optimalitetsvillkorTillräckliga villkor för optimaliteten hos kontrollerade processer erhölls 1962 av V. F. Krotov , på grundval av dem konstruerades iterativa beräkningsmetoder för successiva förbättringar, vilket gjorde det möjligt att hitta ett globalt optimum i kontrollproblem [24] [25] [26] .
I uppgifter för optimal kontroll av sådana föremål som en kontinuerlig uppvärmningsugn, en värmeväxlare , en beläggningsinstallation, en torkenhet, en kemisk reaktor , en blandningsseparationsanläggning, en masugn eller öppen härd , ett koksugnsbatteri, en valsning kvarn , en induktionsvärmeugn etc. den kontrollerade processen beskrivs av partiella differentialekvationer, integralekvationer och integrodifferentialekvationer.
Teorin om optimal kontroll i detta fall har utvecklats endast för vissa typer av dessa ekvationer: elliptiska, paraboliska och hyperboliska typer.
I vissa enkla fall är det möjligt att få en analog av Pontryagin-maximumprincipen. [27] [28]
Om lösningarna av ekvationssystem har instabiliteter, diskontinuitetspunkter, bifurkationspunkter, multipla lösningar, så används ett antal speciella metoder för att erhålla dem [29] .
Optimalt kontrollproblemFör att formulera maximiprincipen för system med fördelade parametrar introduceras Hamilton-funktionen: , där hjälpfunktionerna ska uppfylla ekvationerna och randvillkoren för , för , .
Om är den optimala kontrollen och är de funktioner som erhållits under den optimala kontrollen som uppfyller ekvationerna , då når funktionen , betraktad som en funktion av argumentet , ett maximum i regionen vid , det vill säga för nästan alla punkter , likheten |
Om systemet är ett linjärt system av formen , då satsen
För optimal styrning i det linjära fallet är det nödvändigt och tillräckligt att maximiprincipen är uppfylld. |
Se beviset för dessa två satser i boken [28] .
I detta fall beskrivs det kontrollerade objektet eller processen av linjära stokastiska differentialekvationer . I detta fall utförs lösningen av det optimala kontrollproblemet på basis av Riccati-ekvationen [30] .
Ordböcker och uppslagsverk | |
---|---|
I bibliografiska kataloger |