Optimal kontroll

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 21 september 2020; kontroller kräver 3 redigeringar .
Optimal kontroll

Optimal kontroll  är uppgiften att designa ett system som tillhandahåller för ett givet kontrollobjekt eller process en kontrolllag eller en kontrollsekvens av åtgärder som ger maximalt eller minimum av en given uppsättning systemkvalitetskriterier [1] .

Definition

Det optimala styrproblemet inkluderar beräkningen av det optimala styrprogrammet och syntesen av det optimala styrsystemet. Optimala styrprogram beräknas som regel med numeriska metoder för att hitta extremumet för en funktionell eller lösa ett gränsvärdesproblem för ett system av differentialekvationer [2] . Ur en matematisk synvinkel är syntesen av optimala styrsystem ett icke-linjärt programmeringsproblem i funktionella rum [3] .

För att lösa problemet med att bestämma det optimala styrprogrammet konstrueras en matematisk modell av ett kontrollerat objekt eller en process som beskriver dess beteende över tid under påverkan av kontrollåtgärder och dess eget nuvarande tillstånd [4] .

Om den matematiska modellen för det kontrollerade objektet eller processen inte är känd i förväg, då för att bestämma den, är det nödvändigt att utföra proceduren för att identifiera det kontrollerade objektet eller processen [5]

Den matematiska modellen för det optimala kontrollproblemet innefattar: formuleringen av kontrollmålet, uttryckt genom kontrollkvalitetskriteriet; definition av differential- eller differensekvationer [6] som beskriver möjliga sätt att förflytta kontrollobjektet; definition av restriktioner för de resurser som används i form av ekvationer eller ojämlikheter [7] .

Alla optimala styrproblem kan betraktas som matematiska programmeringsproblem och kan lösas i denna form med numeriska metoder. [8] [9]

Med optimal hantering av hierarkiska flernivåsystem används till exempel stora kemiska industrier, metallurgiska och energikomplex, multifunktionella och flernivåsystem för optimal kontroll. Den matematiska modellen introducerar kriterier för ledningens kvalitet för varje ledningsnivå och för hela systemet som helhet, samt samordning av åtgärder mellan ledningsnivåer [10] [11] .

Om ett kontrollerat objekt eller en process är deterministisk, används differentialekvationer för att beskriva det. De vanligaste vanliga differentialekvationerna är av formen . I mer komplexa matematiska modeller (för system med distribuerade parametrar) används partiella differentialekvationer för att beskriva ett objekt . Om det kontrollerade objektet är stokastiskt, används stokastiska differentialekvationer för att beskriva det .

Teorin om differentialspel används för att lösa optimala kontrollproblem under förhållanden av konflikt eller osäkerhet . [12]

Om lösningen av det givna problemet med optimal kontroll inte kontinuerligt är beroende av de initiala data ( dåligt problem ), så löses ett sådant problem med speciella numeriska metoder. [13]

För att lösa optimala kontrollproblem med ofullständig initial information och vid förekomst av mätfel används maximum likelihood-metoden [14] .

Ett optimalt styrsystem som kan samla erfarenheter och förbättra sitt arbete utifrån detta kallas ett inlärningsoptimalt styrsystem [15] .

Det faktiska beteendet hos ett objekt eller system skiljer sig alltid från programmet på grund av felaktigheter i de initiala förhållandena, ofullständig information om externa störningar som verkar på objektet, felaktigheter i implementeringen av programstyrning etc. För att därför minimera avvikelsen av objektets beteende från det optimala, används vanligtvis ett automatiskt styrsystem . [16]

Ibland (till exempel vid hantering av komplexa objekt, såsom en masugn inom metallurgi eller vid analys av ekonomisk information), innehåller initiala data och kunskaper om det kontrollerade objektet vid inställning av det optimala styrproblemet osäker eller otydlig information som inte kan bearbetas av traditionella kvantitativa metoder. I sådana fall kan optimala kontrollalgoritmer baserade på den matematiska teorin för fuzzy sets ( fuzzy control ) användas. Begreppen och kunskapen som används omvandlas till en luddig form, luddiga regler för att sluta beslut bestäms, och sedan utförs den omvända transformationen av luddiga beslut till fysiska kontrollvariabler. [17] [11]

För optimal hantering av ekonomiska processer används metoder för ekonomisk cybernetik , spelteori , grafteori [18]

Optimal kontroll av deterministiska system

Klumpade system

Mest utbrett i konstruktionen av styrsystem för deterministiska objekt med klumpade parametrar som beskrivs av vanliga differentialekvationer, används följande metoder: variationskalkyl , Pontryagins maximumprincip och Bellmans dynamiska programmering [1] .

Optimalt kontrollproblem

Vi formulerar det optimala kontrollproblemet:

  • Tillståndsekvationer: (1).
  • Randvillkor , (2).
  • Minimerad funktion: .

här  — tillståndsvektor  — kontroll,  — initiala och sista ögonblick.

Det optimala kontrollproblemet är att hitta tillståndet och kontrollfunktionerna för tid , vilket minimerar det funktionella.

Variationskalkyl

Betrakta detta optimala kontrollproblem som ett Lagrangeproblem av variationskalkylen [19] . För att hitta de nödvändiga förutsättningarna för ett extremum tillämpar vi Euler-Lagrange-satsen [19] . Lagrange-funktionen har formen: , var  finns randvillkoren. Lagrangian har formen: , där , ,  är n-dimensionella vektorer av Lagrange-multiplikatorer .

De nödvändiga förutsättningarna för ett extremum, enligt denna sats, är:

  • stationaritet i u: , (3)
  • stationaritet i x, Euler ekvation: (4)
  • transversalitet i x: , (5)

De nödvändiga förutsättningarna (3-5) ligger till grund för att bestämma de optimala banorna. Efter att ha skrivit dessa ekvationer får vi ett tvåpunktsgränsproblem, där en del av randvillkoren sätts vid det inledande ögonblicket och resten i det sista ögonblicket. Metoder för att lösa sådana problem diskuteras i detalj i boken [20]

Pontryagins maximiprincip

Behovet i princip av Pontryagin-maximum uppstår när det inte är någonstans i det tillåtna området för kontrollvariabeln det är omöjligt att uppfylla det nödvändiga villkoret (3), nämligen .

I detta fall ersätts villkor (3) med villkor (6):

(6)

I det här fallet, enligt Pontryagin-maximumprincipen, är värdet för den optimala kontrollen lika med värdet på kontrollen vid en av ändarna av det tillåtna området. Pontryagin-ekvationerna skrivs med hjälp av Hamilton-funktionen , definierad av relationen . Det följer av ekvationerna att Hamilton-funktionen är relaterad till Lagrange-funktionen enligt följande: . Genom att ersätta från den sista ekvationen i ekvationerna (3–5), får vi de nödvändiga villkoren uttryckta i termer av Hamilton-funktionen:

  • kontrollekvation för u: , (7)
  • tillståndsekvation: , (8)
  • adjoint ekvation: , (9)
  • transversalitet i x: , (10)

Nödvändiga villkor skrivna i denna form kallas Pontryagins ekvationer. Pontryagin-maximumprincipen analyseras mer i detalj i boken [19] .

Exempel

Låt det krävas för att lösa problemet med att minimera det funktionella:

, var , , .

Hamilton-funktionen har i detta fall formen:

.

Från villkor 9) och 10) finner vi att:

, .

Vi får:

.

Maximum för denna funktion med avseende på , , nås vid , där

Efter villkor, . Betyder att:

Från får vi . Från kontinuitetsvillkoret vid punkten finner vi konstanten .

På det här sättet:

Det kan verifieras att den hittade och utgör den optimala lösningen på detta problem [21]

I tillämpliga fall

Maximiprincipen är särskilt viktig i styrsystem med maximal hastighet och minimal energiförbrukning, där man använder relästyrningar som tar extrema snarare än mellanliggande värden i det tillåtna styrintervallet.

Historik

För utvecklingen av teorin om optimal kontroll tilldelades L. S. Pontryagin och hans medarbetare V. G. Boltyansky , R. V. Gamkrelidze och E. F. Mishchenko Leninpriset 1962 .

Dynamisk programmeringsmetod

Den dynamiska programmeringsmetoden bygger på Bellmans optimalitetsprincip, som är formulerad så här: den optimala styrstrategin har egenskapen att oavsett initialtillstånd och styrning i början av processen så ska efterföljande styrningar utgöra den optimala styrstrategin m.b.t. det tillstånd som erhålls efter det inledande skedet av processen [ 22] . Den dynamiska programmeringsmetoden beskrivs mer i detalj i boken [23]

Tillräckliga optimalitetsvillkor

Tillräckliga villkor för optimaliteten hos kontrollerade processer erhölls 1962 av V. F. Krotov , på grundval av dem konstruerades iterativa beräkningsmetoder för successiva förbättringar, vilket gjorde det möjligt att hitta ett globalt optimum i kontrollproblem [24] [25] [26] .

Optimal kontroll av system med distribuerade parametrar

I uppgifter för optimal kontroll av sådana föremål som en kontinuerlig uppvärmningsugn, en värmeväxlare , en beläggningsinstallation, en torkenhet, en kemisk reaktor , en blandningsseparationsanläggning, en masugn eller öppen härd , ett koksugnsbatteri, en valsning kvarn , en induktionsvärmeugn etc. den kontrollerade processen beskrivs av partiella differentialekvationer, integralekvationer och integrodifferentialekvationer.

Teorin om optimal kontroll i detta fall har utvecklats endast för vissa typer av dessa ekvationer: elliptiska, paraboliska och hyperboliska typer.

I vissa enkla fall är det möjligt att få en analog av Pontryagin-maximumprincipen. [27] [28]

Om lösningarna av ekvationssystem har instabiliteter, diskontinuitetspunkter, bifurkationspunkter, multipla lösningar, så används ett antal speciella metoder för att erhålla dem [29] .

Optimalt kontrollproblem
  • Hanterad process scoped
  • Ekvationer som beskriver den kontrollerade processen: , där  —  är dimensionsvektorn som beskriver den kontrollerade processen,  —  är dimensionsvektorn för vektorns derivator med avseende på koordinaten ,  —  är dimensionsvektorn för vektorns derivator med avseende på coordinate ,  —  är dimensionskontrollvektorn.
  • Gränsvillkor för en kontrollerad process:
  • Uppgiften för den optimala kontrollen är att hitta en sådan kontroll för vilken lösningen som är tillåten av ekvationerna leder till maximalt av det funktionella .
Maximiprincipen för system med distribuerade parametrar

För att formulera maximiprincipen för system med fördelade parametrar introduceras Hamilton-funktionen: , där hjälpfunktionerna ska uppfylla ekvationerna och randvillkoren för , för , .

Om är den optimala kontrollen och är de funktioner som erhållits under den optimala kontrollen som uppfyller ekvationerna , då når funktionen , betraktad som en funktion av argumentet , ett maximum i regionen vid , det vill säga för nästan alla punkter , likheten

Om systemet är ett linjärt system av formen , då satsen

För optimal styrning i det linjära fallet är det nödvändigt och tillräckligt att maximiprincipen är uppfylld.

Se beviset för dessa två satser i boken [28] .

Optimal kontroll av linjära stokastiska system

I detta fall beskrivs det kontrollerade objektet eller processen av linjära stokastiska differentialekvationer . I detta fall utförs lösningen av det optimala kontrollproblemet på basis av Riccati-ekvationen [30] .

Optimalt kontrollproblem

  • Systemet beskrivs av linjära stokastiska differentialekvationer , där  är en -dimensionell tillståndsvektor,  är en -dimensionell kontrollvektor,  är en -dimensionell vektor av observerade variabler,  är oberoende wienerprocesser med nollmedelvärden och givna inkrementkovarianser,  är matriser.
  • Det är nödvändigt att hitta den optimala kontrollen som minimerar den matematiska förväntan på förlustfunktionen .

Se även

Anteckningar

  1. 1 2 Samoylenko V.I., Puzyrev V.A., Grubrin I.V. "Technical Cybernetics", lärobok. ersättning, M., MAI förlag , 1994, 280 sid. ill., ISBN 5-7035-0489-9 , kap. 4 "Optimala styrsystem för dynamiska objekt och processer", sid. 63-113;
  2. Moiseev, 1975 , sid. 114.
  3. Moiseev, 1975 , sid. 316.
  4. Rastrigin L. A. Denna slumpmässiga, slumpmässiga, slumpmässiga värld. - M., Young Guard, 1969. - S. 47 - 50
  5. Rastrigin L. A. , Madzharov N. E. Introduktion till identifiering av kontrollobjekt. - M . : Energi, 1977. - 216 sid.
  6. Moiseev, 1975 , sid. 79-89.
  7. Korshunov Yu. M. "Mathematical Foundations of Cybernetics", lärobok. ersättning för högskolor, 2:a uppl., reviderad. och add., M., "Energy", 1980, 424 s., ill., BBK 32.81 6F0.1, kap. 5 "Struktur och matematisk beskrivning av optimala kontrollproblem", sid. 202;
  8. Tobacco, 1975 , sid. arton.
  9. Moiseev, 1975 , sid. 304-368.
  10. Mesarovich M., Mako D., Tkahara I. Teori om hierarkiska flernivåsystem - M., Mir, 1973. - sid. 344
  11. 1 2 Moiseev, 1975 , sid. 465-520.
  12. Krasovsky N. N., Subbotin A. I. Positionella differentialspel. - M., Nauka, 1974. - sid. 24
  13. Vasiliev F. P. Metoder för att lösa extrema problem. — M.: Nauka, 1981. — S. 159.
  14. Moiseev, 1975 , sid. 351-368.
  15. Tsypkin Ya. Z. Fundamentals of theory of learning systems. - M .: Nauka, 1970. - S. 252.
  16. Alexandrov A. G. Optimala och adaptiva system. - M .: Högre skola, 1989. - 263 sid. ISBN 5-06-000037-0
  17. Metoder för robust, neurosuddig och adaptiv kontroll: Lärobok / Ed. N.D. Egupova, red. 2nd, ster., M., Bauman Moscow State Technical University, 2002, 744 s., ISBN 5-7038-2030-8 , circ. 2000 exemplar, del 2 "Fuzzy control"
  18. Teplov L. Vad man ska räkna: Populära essäer om ekonomisk cybernetik. - M., Moskovsky-arbetare, 1970. - 317 sid.
  19. 1 2 3 E. M. Galeev, V. M. Tikhomirov "Optimering: teori, exempel, uppgifter", M., Editorial URSS, 2000, 320 s., ISBN 5-8360-0041-7 , kap. 3 "Beräkning av variationer", s. 6 "The Lagrange Problem", sid. 173-181;
  20. "Numeriska metoder i teorin om optimala system", Moiseev N. N. , "Nauka", 1971, 424 sidor med illustrationer, kap. 2 "Numeriska metoder för att beräkna optimala program med de nödvändiga villkoren för ett extremum", s. 80 - 155;
  21. Barbaumov V. E., Ermakov V. I., Kriventsova N. N. Handbok i matematik för ekonomer. - M., Higher School, 1987. - sid. 243
  22. Bellmann R. "Dynamisk programmering", IL, M., 1960;
  23. "Numeriska metoder i teorin om optimala system", Moiseev N. N. , "Nauka", 1971, 424 sidor med illustrationer, kap. 3 "Direkta metoder för optimal kontrollteori", s. 156-265;
  24. Voronov A. A. Teori om automatisk kontroll. T. 1. - M .: Högre skola, 1986, s. 294-304.
  25. Vasiliev F. P. Numeriska metoder för att lösa extrema problem. - M .: Nauka, 1988, s. 522-530.
  26. Krotov V. F. Metoder för att lösa variationsproblem baserade på tillräckliga förutsättningar för ett absolut minimum. I—IV // Automation och telemekanik, 1962, bd 23, nr 12, s. 1571—1583; 1963, vol 24, nr 5, sid 581-598; 1963, vol 24, nr 7, sid 826-843; 1965, bd 26, nr 1, s. 24-41.
  27. J.-L. Lions Optimal kontroll av system som beskrivs av partiella differentialekvationer, Moscow, Mir, 1972, 412 s.
  28. 1 2 Butkovsky A. G. Teori om optimal styrning av system med distribuerade parametrar, M., Nauka, 1965
  29. J.-L. Lions kontroll över singulära distribuerade system, Moscow, Mir, 1987, 367 s.
  30. K. Yu. Ostrem Introduktion till stokastisk kontrollteori, M., Mir, 1973

Litteratur

  • Rastrigin L. A. Moderna principer för att hantera komplexa objekt. — M.: Sov. radio, 1980. - 232 s., BBC 32.815, skjutbana. 12000 exemplar
  • Alekseev V. M., Tikhomirov V. M. , Fomin S. V. Optimal kontroll. - M .: Nauka, 1979, UDC 519.6, - 223 s., skjutbana. 24000 exemplar
  • Volgin LN Optimal diskret styrning av dynamiska system. - M. : Nauka, 1986. - 240 sid.
  • Tabak D., Kuo B. Optimal kontroll och matematisk programmering. — M .: Nauka, 1975. — 279 sid.
  • Moiseev NN Element i teorin om optimala system. — M .: Nauka, 1975. — 526 sid.
  • Galeev E. M. , Tikhomirov V. M. En kort kurs i teorin om extrema problem. - M. : MGU, 1989. - 204 sid. - ISBN 5-211-00313-6 .
  • Krotov VF, Gurman VI Metoder och problem för optimal kontroll. — M .: Nauka, 1973.
  • Pontryagin L. S., Boltyansky V. G., Gamkrelidze R. V., Mishchenko E. F. Matematisk teori om optimala processer. — M .: Nauka, 1976.
  • Boltyansky VG Optimal kontroll av diskreta system. — M .: Nauka, 1973.
  • Butkovskiy AG Teori om optimal styrning av system med distribuerade parametrar. — M .: Nauka, 1965.
  • Butkovsky A.G. Styrmetoder för system med distribuerade parametrar. — M .: Nauka, 1975.
  • Budak BM, Vasiliev FP Ungefärliga metoder för att lösa optimala kontrollproblem. - M .: MGU, 1969.
  • Oleinikov V. A., Zotov N. S., Prishvin A. M. Grunderna för optimal och extrem kontroll. - M . : Högre skola, 1969. - 296 sid.
  • Degtyarev GL, Sirazetdinov TK Teoretiska grunder för optimal kontroll av elastiska rymdfarkoster. - M . : Mashinostroenie, 1986. - 216 sid.
  • Lerner A. Ya. , Rozenman E. A. Optimal kontroll. - M . : Energi, 1970. - 360 sid.
  • Gurman V. I. , Tikhomirov V. N., Kirillova F. M. Optimal kontroll. - M . : Kunskap, 1978. - 144 sid.
  • Boltyansky VG Matematiska metoder för optimal kontroll. — M .: Nauka, 1969. — 408 sid.
  • Young L. Föreläsningar om variationskalkyl och teorin om optimal kontroll. — M .: Mir, 1974. — 488 sid.
  • Makarov I. M. , Lokhin V. M. Manko S. V. Artificiell intelligens och intelligenta kontrollsystem. — M .: Nauka , 2006. — 333 sid. - 1000 exemplar.  — ISBN 5-02-033782-X .
  • Donchev A. System för optimal kontroll. Störningar, approximationer och känslighetsanalys. — M .: Mir, 1987. — 156 sid. - 6700 exemplar.
  • V. A. Ivanov, A. S. Jusjtjenko. Teori om diskreta automatiska styrsystem . - M .: Moscow State Technical University uppkallad efter N. E. Bauman , 2015. - 352 s. — ISBN 978-5-7038-4178-5 .
  • Kuzin L. T. Fundamentals of Cybernetics. - M . : Energi, 1973. - 504 sid. — 30 ​​000 exemplar.
  • Fursikov A. V. Optimal kontroll av distribuerade system. Teori och tillämpningar. - Novosibirsk: Nauchnaya kniga, 1999. - 352 s. - 1000 exemplar.  - ISBN 5-88119-017-3 .
  • Lions JL Hantering av singular distribuerade system. - Moskva: Nauka, 1987. - 368 s. - 3600 exemplar.
  • Khazen EM Metoder för optimala statistiska lösningar och optimala kontrollproblem. - Moskva: Sovjetisk radio, 1968. - 256 sid. — 12 000 exemplar.
  • Leitman J. Introduktion till teorin om optimal kontroll. - Moskva: Nauka, 1968. - 190 sid. - 14 000 exemplar.
  • Saridis J. Självorganiserande stokastiska styrsystem. - Moskva: Nauka, 1980. - 400 sid. - 4000 exemplar.
  • A. A. AGRACHEV och Yu. L. Sachkov Geometrisk kontrollteori . - Moskva: FIZMATLIT, 2004. - 391 s. — ISBN 5-9221-0532-9 .

Länkar