Numeriska metoder

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 14 januari 2022; kontroller kräver 2 redigeringar .

Numeriska (beräkningsmetoder) metoder  - metoder för att lösa matematiska problem i numerisk form [1] .

Representation av både initialdata i problemet och dess lösning - i form av ett tal eller en uppsättning siffror .

Många numeriska metoder ingår i de matematiska programbiblioteken [2] . I systemet för utbildning är ingenjörer av tekniska specialiteter en viktig komponent.

Grunderna för beräkningsmetoder är:

Metod

Alla problem med beräkningsmatematik löses i följande sekvens [3] :

  1. Det ursprungliga matematiska problemet ersätts av ett annat problem - en beräkningsalgoritm. Huvudkraven för beräkningsalgoritmen är: hög noggrannhet , stabilitet och ekonomi. När man byter till en diskret modell uppstår ett approximationsfel och vid implementering av beräkningar uppstår ett avrundningsfel , därför utförs en analys av felen och stabiliteten hos beräkningsalgoritmen för verkliga beräkningsalgoritmer [2] . I modern vetenskap, för att lösa problem med tillämpad matematik , formuleras en matematisk modell i termer av integral- och differentialekvationer av funktioner i ett kontinuerligt argument . Övergången från ett kontinuum till en diskret matematisk modell utförs genom att ersätta funktioner i ett kontinuerligt argument med funktioner av ett diskret argument . I de resulterande finita differensekvationerna representeras integralen och derivatan av en finit summa respektive ett differensförhållande [2] . Den resulterande modellen är ett system av algebraiska ekvationer , för vars lösning en beräkningsalgoritm kompileras med en viss noggrannhet , som implementeras på datorer [2] [4] . När man löser stora system är det nödvändigt att beräkna matrisernas egenvärden och vektorer för att reducera icke-linjära ekvationssystem till linjära. För vissa problem ( neuralfysik , plasmafysik , ekonomi ) bygger modellen direkt på ett statistiskt urval eller på stora föremål. Dessutom konstrueras oregelbundna system för vilka numeriska metoder kombineras med grafteori . En separat klass representeras av illa ställda problem [2] .
  2. Beräkningsalgoritmen innehåller parametern , som inte finns i det ursprungliga problemet;
  3. Genom att välja denna parameter kan man uppnå någon närhet av lösningen av det andra problemet till lösningen av det första. Olika numeriska lösningar har utvecklats för många viktiga problemklasser. Enligt diskretiseringsmetoden delas numeriska metoder in i projektionsmetoder och finita differensmetoder, enligt lösningsmetoden - i direkta och iterativa. I finita differensmetoder är uppgiften att bestämma värdena för en funktion på en diskret uppsättning punkter, medan i projektionsmetoder representeras en funktion av en linjär kombination av element. I detta fall kan en diskret funktion också betraktas som en linjär kombination av polynom. Direktlösningsmetoder har svag stabilitet, medan iterativa metoder är mer stabila och ger snabb konvergens [2] .
  4. Den oprecisa implementeringen av algoritmen, orsakad av avrundning i beräkningar, förändrar inte dess egenskaper nämnvärt. Man måste komma ihåg att datorn endast utför fyra grundläggande aritmetiska operationer [5] . Noggrannheten för lösningen i detta fall bör vara något högre än den förväntade noggrannheten för ett fysiskt experiment [6] . Vid fastställandet av kriterierna och förutsättningarna för felets tillväxt togs inte hänsyn till avrundningsfelet under lång tid. Behovet av garanterade uppskattningar av riktigheten i verkliga beräkningar ledde till uppkomsten av intervallanalys . En optimal algoritm är en algoritm med ett minimalt fel eller med ett minsta antal operationer för ett givet fel. Samtidigt utvecklas teorin om parallella beräkningsalgoritmer [2] .

Matematisk apparat

Symboliskt skrivs problemet med att söka efter en okänd kvantitet som . För att söka i beräkningsmatematik används en eller flera substitutioner av utrymmen där kvantiteterna , , eller funktionerna är definierade för att göra beräkningar mer bekväma. Det resulterande nya problemet bör ha en lösning nära lösningen av det ursprungliga problemet. Till exempel, när man beräknar integralen , kan en kontinuerlig funktion på ett segment alltid ersättas med ett polynom , för vilket integralen lätt kan bestämmas; eller ersätt integralen med en ändlig summa och lös det resulterande problemet. För att utföra en sådan ersättning är det nödvändigt att hitta en ändlig uppsättning element som närmar sig huvudutrymmet väl. Det sista villkoret medför begränsningar för det metriska utrymmet . Den huvudsakliga begränsningen är närvaron av ett -nät, från vilket utrymmet är kompakt i sig och separerbart . Denna begränsning är dock inte obligatorisk. Moderna metoder för funktionsanalys gör det möjligt att välja metriska utrymmen som är mest lämpade för problemets förutsättningar [7] .

Vid användning av numeriska metoder uppstår flera typer av fel. När ett nummer närmar sig ett annat uppstår ett avrundningsfel, felet som är förknippat med felaktiga initiala data kallas dödligt, dessutom, på grund av att det ursprungliga problemet ersätts med ett ungefärligt, finns det ett fel i metoden. Det totala felet i detta fall är summan av metodens fel och beräkningsfelet, med andra ord, istället för ekvationen löses ekvationen , vars noggrannhet bestäms av formeln [8]

För att bestämma storleken på felet används begreppen absolut och relativ fel , samt det begränsande absoluta och relativa felet, medan felteorin bestämmer förändringen i storleken av fel under olika aritmetiska operationer [9] . Tillsammans med metoder för att noggrant bedöma fel, som ett resultat av vilka marginalvärdena för fel bestäms, används statistiska metoder för att bestämma möjligheten att uppnå individuella fel [10] och även ta hänsyn till de matematiska egenskaperna hos slumpmässiga fel förknippas med avvikelse från de angivna experimentella förhållandena, när flera mätresultat fysisk kvantitet bestäms av dess ungefärliga värde [11] .

Grundläggande sätt att approximera funktioner

Interpolation

För att få värdet på funktionen som ges av värdetabellen byggs en ungefärlig funktion på argumentets mellanvärden , som vid givna punkter , som kallas interpolationsnoder, tar värdena och vid andra punkter tillhör funktionens domän. Oftast är en ungefärlig funktion konstruerad som ett algebraiskt polynom som inkluderar de första elementen i ett linjärt oberoende system. I praktiken, som element i ett linjärt oberoende system, en sekvens av potenser : , trigonometriska funktioner : , exponentialfunktioner : [12] .

För att konstruera en interpolerande funktion i detta fall är det nödvändigt att lösa ett ekvationssystem med okända. Vissa villkor ställs på den resulterande matrisen i systemet: matrisens rangordning måste vara lika med , och  — för att garantera villkoret för linjärt oberoende ,  — så att lösningen av problemet är entydig, matrisens bestämningsfaktor  — så att det finns en lösning och dessutom unik [13] . Konstruktionen av Lagrange-interpolationspolynomet är den grundläggande metoden för att lösa sådana problem, mycket resurskrävande och svår att expandera [14] .

Nästa steg är att introducera konceptet med en delad skillnad av -: e ordningen baserat på förhållandet mellan skillnaden i värdet av en funktion vid angränsande noder och avståndet mellan noder, som i kraft av sin definition har ett tal av användbara egenskaper, i synnerhet de delade ordningsskillnaderna från ett gradpolynom har en grad , det vill säga ordningsskillnaderna är konstanta , medan skillnader av högre ordning är [15] . Delade skillnader gör att man kan skriva om Lagrange-interpolationspolynomet i en form som är mer bekväm för beräkningar. Den nya formeln kallas Newtons interpolationspolynom [16] , vid lika intervall är formeln kraftigt förenklad [17] . Med hjälp av de uppdelade skillnaderna konstrueras interpolationsformlerna för Gauss , Stirling , Bessel , Everett [18] . I det allmänna fallet minskar först de uppdelade skillnaderna med ökande ordning, och börjar sedan växa igen, med andra ord är det ingen mening att använda skillnader av hög ordning i beräkningar [19] . Detta väcker frågan om konvergensen av interpolationsprocessen, för vilken olika metoder för matematisk analys är inblandade [20] .

Enhetliga uppskattningar

När du löser praktiska problem är det nödvändigt att upprepade gånger beräkna värdena för en given funktion, vilket i det allmänna fallet är en resurskrävande operation. Det finns ett behov av att hitta funktionen för den bästa enhetliga approximationen [21] . För approximation bildar funktioner i ett linjärt normerat utrymme ett delrum av dimensionen för alla möjliga linjära kombinationer för vilka normen är definierad och dess infimum existerar . Elementet där denna kant nås kallas elementet för bästa approximation, eller projektion [22] . Det kan bevisas att det i ett delrum alltid finns ett element med den bästa approximationen [23] , och under villkoret av strikt normalisering av rummet är ett sådant element unikt [24] . I utrymmet av kontinuerliga funktioner med normen

det finns också ett element av bästa approximation [25] , men villkoret för dess unikhet är närvaron av högst distinkta nollor av det generaliserade polynomet på intervallet ( Chebyshev polynomials ) [26] .

Funktionsteorin är tillämplig på ett system av maktfunktioner, eftersom det är ett Chebyshev-system på vilket intervall som helst [27] . Enligt Weierstrass-satsen tenderar skillnaden mellan projektionen och den givna funktionen till noll när dimensionen av delrummet ( ) ökar [28] . Ordningen för denna approximation beror på funktionens strukturella egenskaper, den kan bestämmas med hjälp av Bernstein-polynom [29] . Systemet av trigonometriska funktioner har också egenskaperna hos Chebyshev-systemet på intervallet , för det tenderar också skillnaden mellan projektionen och den givna funktionen till noll [30] .

Trots den visade förekomsten av det bästa approximationspolynomet finns det inga sätt att konstruera det exakt. Istället används flera metoder för att approximera konstruktionen av polynom med den bästa enhetliga approximationen [31] .

RMS-uppskattningar

I många fall är kravet på enhetlig approximation överflödigt och funktionernas "integrerade" närhet är tillräcklig, dessutom har värdena för approximativa funktioner erhållna från experiment slumpmässiga fel, och det är inte tillrådligt att kräva sammanträffandet av approximerande och approximerande funktioner om de senare innehåller felaktigheter. Metoden för approximation av rot-medelkvadrat tar följande värde som ett mått på närhet

vilket gör det möjligt att överge interpoleringen av integranden och kravet på kontinuitet, och bara behålla kraven på kvadratisk integrerbarhet [32] .

Numerisk differentiering och integration

En ekvation av formen , definierad på ett funktionsutrymme, kan innehålla operatorer för differentiering och integration , för vilka det är omöjligt att hitta en exakt lösning. Metoder för numerisk differentiering och integration är baserade på interpolation [33] .

Derivatan av huvudfunktionen anses vara ungefär lika med derivatan av den interpolerande funktionen, medan derivatan av den återstående termen av interpolationsformeln kan vara stor, särskilt för högre ordningens derivator [34] . De numeriska differentieringsformlerna är till stor del baserade på den direkta differentieringen av interpolationsformlerna för Newton [35] , Gauss, Stirling och Bessel [36] , byggda på fördelade skillnader, men det finns också skillnadslösa formler. I synnerhet när för den numeriska differentialen Lagrange-formeln för lika intervall används direkt [37] , metoden för obestämda koefficienter och andra [38] .

När det gäller integration indikerar själva definitionen av integralen möjligheten att ersätta den med en integral summa , men denna teknik har långsam konvergens och är till liten nytta. Integralen för huvudfunktionen anses vara ungefär lika med integralen för den interpolerande funktionen, och i framtiden används interpolationsformler med flera noder [39] . Användningen av Lagrange-interpolationspolynomet för lika intervall som en integrand leder till Newton-Cotes formler [40] och dess speciella fall, trapetsformeln när integrandkurvan ersätts av ett korda och integralen är lika med arean av trapetsen och Simpsons formel när integrandkurvan ersätts av en parabel som går genom tre punkter [41] . Genom att överge kravet på lika intervall, med hjälp av Lagrange-interpolationspolynomet, kan man få mer exakta formler för numerisk integration, i synnerhet Gaussformlerna [42] , Hermiteformlerna [43] , Markovformlerna [44] , Chebyshevformlerna [45 ] . Kvadraturprocesser byggda på Gauss-interpolationsformlerna konvergerar alltid, medan Newton-Cotes-formlerna inte har dessa egenskaper i det allmänna fallet [46] .

Det finns andra sätt för numerisk integration, det främsta är användningen av Eulers formler , där en förändring av variabler och efterföljande integration med delar leder till en formel för numerisk integration med trapets och en korrigeringsterm, till vilken förändringen av variabler och integrering av delar tillämpas på nytt. I det allmänna fallet använder Euler-formeln tal och Bernoulli-polynom som koefficienter [47] . Frågan om att tillämpa en eller annan metod för numerisk integration beror på sådana faktorer som beräkningsverktyg, den erforderliga noggrannheten och metoden för att specificera integranden. För manuella beräkningar rekommenderas det att använda formler som innehåller skillnader, medan för automatiska beräkningar - icke-differensformler, speciellt Gauss-formler [48] .

För den ungefärliga beräkningen av flera integraler används formlerna för numerisk integration av enstaka integraler upprepade gånger, medan beroende på funktionernas egenskaper kan olika formler användas för olika integraler. När du använder denna metod är det nödvändigt att beräkna integranden vid ett stort antal punkter, så det är lämpligt att använda Gauss och Chebyshev-formlerna, som är mer exakta [49] . Ett annat sätt är att ersätta integranden med ett interpolationspolynom i två eller flera variabler [50] . Lyusternik och Ditkin föreslog att man skulle använda Maclaurin-formlerna för den ungefärliga beräkningen av multipelintegralen [51] . Samtidigt, när multipliciteten av integralen ökar, ökar antalet punkter för vilka det är nödvändigt att känna till integrandens värden för att använda metoder baserade på interpolation kraftigt. För att beräkna multipla integraler används oftare probabilistiska Monte Carlo-metoder , medan behovet av att erhålla lika möjliga sekvenser skapar ytterligare fel som är svåra att uppskatta [52] .

Lösa system av linjära algebraiska ekvationer

Det finns två grupper av metoder för att lösa system med linjära algebraiska ekvationer: exakta metoder tillåter, med användning av ett ändligt antal operationer, att erhålla exakta värden på okända och inkluderar transformation av systemet till en enkel form och lösning av en förenklat system; successiva approximationsmetoder baserade på initiala approximationer gör det möjligt att erhålla "förbättrade" approximativa värden, för vilka "förbättrings"-operationen bör upprepas sekventiellt; Monte Carlo-metoder tillåter, baserat på den matematiska förväntan av slumpvariabler , att få en lösning på systemet [53] .

Elimineringsmetoden som är känd från algebras skolkurs gör det möjligt att reducera systemets matris till en diagonal eller triangulär form [54] . Det Gaussiska elimineringsschemat med valet av huvudelementet, vilket är nödvändigt för att minska beräkningsfelet, inkluderar ett framåtdrag (selv elimineringsprocessen) och ett omvänt drag (lösning av ett system med en triangulär matris) [55] . Dess kompakta version används för att bestämma den inversa matrisen, vilket kan vara användbart om bara den högra sidan ändras i systemet av linjära ekvationer [56] och för att beräkna determinanterna [57] . Jordan-schemat gör det möjligt att underlätta det omvända draget [58] , och i schemat utan ett omvänt drag, som är baserat på transformationen av den cellulära matrisen , krävs inte den senare [59] . Matrissymmetrivillkoret tillåter oss att göra ett antal förenklingar och använda kvadratrotsmetoden, där systemmatrisen representeras som produkten av den nedre triangulära matrisen av matrisen transponerad i förhållande till den, där elementen i triangulära matriser bestäms av formler genom produkterna av elementen i den ursprungliga matrisen (i avsaknad av tillståndet för positiva bestämda matriser kan vissa formler innehålla imaginära element), och systemet löses sedan i två steg genom lösningen av hjälpmedel system byggda på triangulära matriser [60] . Det finns också en ortogonaliseringsmetod baserad på egenskaperna hos skalärprodukten [61] , konjugatgradientmetoden, där en hjälpfunktion konstrueras som bildar en familj av ellipsoider med ett gemensamt centrum och för vilka det är nödvändigt att hitta en vektor för vilket det tar minimivärdet [62] . För matriser av hög ordning används cellpartitioneringsmetoden, när problemet reduceras till att lösa problem för matriser av lägre ordning [63] .

Vid successiva approximationer används den återkommande formeln

där  är en funktion som beror på systemmatrisen, den högra sidan, approximationstalet och tidigare approximationer , där  är den initiala vektorn. I detta fall anses metoden vara av första ordningen om funktionen endast beror på den sista av de tidigare approximationerna. I det här fallet kan formeln skrivas som , där . För beräkningarnas bekvämlighet är det önskvärt att använda en diagonal eller triangulär matris , som är bekväm att invertera. Beroende på valet av denna matris kallas metoderna för fullstegs respektive enstegs [64] . Linjära fullstegsmetoder inkluderar enkel iteration [65] , Richardsons metod [66] ; till linjära enstegsmetoder - Seidelmetoden [67] , relaxationsmetoden [68] ; till olinjära metoder - metoden för brantaste nedstigning [69] .

Lösning av algebraiska ekvationer av högre grader och transcendentala ekvationer

Lösningen av en algebraisk ekvation , där funktionen av ett reellt eller komplext argument är på vänster sida, ligger i det komplexa planet [70] . För att bestämma det är det först och främst nödvändigt att innesluta varje rot i ett tillräckligt litet område, det vill säga att separera det, för vilket grafiska metoder ofta används [71] . För verkliga rötter används också den generaliserade Descartes-regeln, Sturms sats [72] , Fouriermetoden [73] . Kvadratrotmetoden, eller Lobachevsky-metoden [74] har fått bred tillämpning . I sin grundformulering gäller det reella rötter [75] som ligger långt ifrån varandra, men det finns generaliseringar till både komplexa [76] och reella lika eller nära rötter [77] .

Iterativa metoder för att lösa algebraiska ekvationer delas in i stationära, när en funktion är associerad med en annan funktion med samma rötter, oberoende av iterationstalet [78] , och icke-stationära, när funktionen kan bero på iterationsnumret. De enklaste stationära iterativa metoderna inkluderar sekantmetoden (eller den linjära interpolationsmetoden) och tangentmetoden (eller Newtons metod), som är första och andra ordningens metoder. Kombinationen av dessa metoder, där successiva approximationer ligger på motsatta sidor av roten, gör att man kan uppnå snabbare konvergens [79] . Chebyshevs metod, baserad på expansionen av den inversa funktionen med Taylor-formeln, gör det möjligt att konstruera högre ordningens metoder med mycket snabb konvergens [80] . Det finns också en metod baserad på Koenigs sats [81] och Aitkens metod [82] . För att bevisa konvergensen av iterativa metoder används principen för komprimerade mappningar [83] .

Se även

Anteckningar

  1. Mucha V.S.  Beräkningsmetoder och datoralgebra: lärobok-metod. ersättning. — 2:a uppl., rättad. och ytterligare - Minsk: BGUIR, 2010. - 148 s.: silt, ISBN 978-985-488-522-3 , UDC 519.6 (075.8), BBK 22.19ya73, M92
  2. 1 2 3 4 5 6 7 Encyclopedia of Cybernetics / Glushkov V. M., Amosov N. M., Artemenko I. A. - Kiev, 1974. - T. 2. - S. 530-532.
  3. Dyachenko V. F. Grundläggande begrepp för beräkningsmatematik. - M., Nauka, 1972. - Upplaga 45 000 exemplar. - s. 10
  4. Kalitkin, 1978 , sid. 3.
  5. Berezin, Zhidkov, vol. 1, 1962 , sid. 33.
  6. Kalitkin, 1978 , sid. 2.
  7. Berezin, Zhidkov, vol. 1, 1962 , sid. 13-16.
  8. Berezin, Zhidkov, vol. 1, 1962 , sid. 57-58.
  9. Berezin, Zhidkov, vol. 1, 1962 , sid. 53.
  10. Berezin, Zhidkov, vol. 1, 1962 , sid. 63.
  11. Berezin, Zhidkov, vol. 1, 1962 , sid. 65.
  12. Berezin, Zhidkov, vol. 1, 1962 , sid. 77-79.
  13. Berezin, Zhidkov, vol. 1, 1962 , sid. 79-80.
  14. Berezin, Zhidkov, vol. 1, 1962 , sid. 84-87.
  15. Berezin, Zhidkov, vol. 1, 1962 , sid. 102-106.
  16. Berezin, Zhidkov, vol. 1, 1962 , sid. 106-109.
  17. Berezin, Zhidkov, vol. 1, 1962 , sid. 112.
  18. Berezin, Zhidkov, vol. 1, 1962 , sid. 125-135.
  19. Berezin, Zhidkov, vol. 1, 1962 , sid. 111-112.
  20. Berezin, Zhidkov, vol. 1, 1962 , sid. 149-150.
  21. Berezin, Zhidkov, vol. 1, 1962 , sid. 331-333.
  22. Berezin, Zhidkov, vol. 1, 1962 , sid. 333-334.
  23. Berezin, Zhidkov, vol. 1, 1962 , sid. 334-336.
  24. Berezin, Zhidkov, vol. 1, 1962 , sid. 336-337.
  25. Berezin, Zhidkov, vol. 1, 1962 , sid. 337.
  26. Berezin, Zhidkov, vol. 1, 1962 , sid. 337-342.
  27. Berezin, Zhidkov, vol. 1, 1962 , sid. 347-348.
  28. Berezin, Zhidkov, vol. 1, 1962 , sid. 349-352.
  29. Berezin, Zhidkov, vol. 1, 1962 , sid. 352-355.
  30. Berezin, Zhidkov, vol. 1, 1962 , sid. 355-357.
  31. Berezin, Zhidkov, vol. 1, 1962 , sid. 364-365.
  32. Berezin, Zhidkov, vol. 1, 1962 , sid. 386-387.
  33. Berezin, Zhidkov, vol. 1, 1962 , sid. 217.
  34. Berezin, Zhidkov, vol. 1, 1962 , sid. 217-220.
  35. Berezin, Zhidkov, vol. 1, 1962 , sid. 220-226.
  36. Berezin, Zhidkov, vol. 1, 1962 , sid. 226-228.
  37. Berezin, Zhidkov, vol. 1, 1962 , sid. 230-234.
  38. Berezin, Zhidkov, vol. 1, 1962 , sid. 234-236.
  39. Berezin, Zhidkov, vol. 1, 1962 , sid. 237-240.
  40. Berezin, Zhidkov, vol. 1, 1962 , sid. 240-243.
  41. Berezin, Zhidkov, vol. 1, 1962 , sid. 243-254.
  42. Berezin, Zhidkov, vol. 1, 1962 , sid. 254-258.
  43. Berezin, Zhidkov, vol. 1, 1962 , sid. 264-266.
  44. Berezin, Zhidkov, vol. 1, 1962 , sid. 266-269.
  45. Berezin, Zhidkov, vol. 1, 1962 , sid. 269-276.
  46. Berezin, Zhidkov, vol. 1, 1962 , sid. 279-284.
  47. Berezin, Zhidkov, vol. 1, 1962 , sid. 289-297.
  48. Berezin, Zhidkov, vol. 1, 1962 , sid. 305-306.
  49. Berezin, Zhidkov, vol. 1, 1962 , sid. 315-318.
  50. Berezin, Zhidkov, vol. 1, 1962 , sid. 318-320.
  51. Berezin, Zhidkov, vol. 1, 1962 , sid. 320-324.
  52. Berezin, Zhidkov, vol. 1, 1962 , sid. 324-325.
  53. Berezin, Zhidkov, vol. 2, 1959 , sid. 9-10.
  54. Berezin, Zhidkov, vol. 2, 1959 , sid. tio.
  55. Berezin, Zhidkov, vol. 2, 1959 , sid. 10-13.
  56. Berezin, Zhidkov, vol. 2, 1959 , sid. 17-18.
  57. Berezin, Zhidkov, vol. 2, 1959 , sid. 18-19.
  58. Berezin, Zhidkov, vol. 2, 1959 , sid. 19-20.
  59. Berezin, Zhidkov, vol. 2, 1959 , sid. 20-23.
  60. Berezin, Zhidkov, vol. 2, 1959 , sid. 23-25.
  61. Berezin, Zhidkov, vol. 2, 1959 , sid. 25-30.
  62. Berezin, Zhidkov, vol. 2, 1959 , sid. 30-31.
  63. Berezin, Zhidkov, vol. 2, 1959 , sid. 41.
  64. Berezin, Zhidkov, vol. 2, 1959 , sid. 54-56.
  65. Berezin, Zhidkov, vol. 2, 1959 , sid. 56-59.
  66. Berezin, Zhidkov, vol. 2, 1959 , sid. 59-61.
  67. Berezin, Zhidkov, vol. 2, 1959 , sid. 61-62.
  68. Berezin, Zhidkov, vol. 2, 1959 , sid. 66-67.
  69. Berezin, Zhidkov, vol. 2, 1959 , sid. 67-73.
  70. Berezin, Zhidkov, vol. 2, 1959 , sid. 76.
  71. Berezin, Zhidkov, vol. 2, 1959 , sid. 76-79.
  72. Berezin, Zhidkov, vol. 2, 1959 , sid. 83-88.
  73. Berezin, Zhidkov, vol. 2, 1959 , sid. 88-94.
  74. Berezin, Zhidkov, vol. 2, 1959 , sid. 103.
  75. Berezin, Zhidkov, vol. 2, 1959 , sid. 103-107.
  76. Berezin, Zhidkov, vol. 2, 1959 , sid. 107-114.
  77. Berezin, Zhidkov, vol. 2, 1959 , sid. 115.
  78. Berezin, Zhidkov, vol. 2, 1959 , sid. 128-129.
  79. Berezin, Zhidkov, vol. 2, 1959 , sid. 135-140.
  80. Berezin, Zhidkov, vol. 2, 1959 , sid. 140-143.
  81. Berezin, Zhidkov, vol. 2, 1959 , sid. 143-146.
  82. Berezin, Zhidkov, vol. 2, 1959 , sid. 146-148.
  83. Berezin, Zhidkov, vol. 2, 1959 , sid. 129-134.

Litteratur

Länkar