Experimentplanering

Den aktuella versionen av sidan har ännu inte granskats av erfarna bidragsgivare och kan skilja sig väsentligt från versionen som granskades den 16 februari 2022; kontroller kräver 8 redigeringar .

Experimentell design ( eng.  experimental design techniques ) är en procedur för att välja antalet experiment och villkoren för deras genomförande, nödvändiga för att lösa problemet med erforderlig noggrannhet. [1] Huvudmålet med experimentplanering är att uppnå maximal mätnoggrannhet med ett minimum av experiment och att upprätthålla den statistiska tillförlitligheten av resultaten.

Experimentplanering används i sökandet efter optimala förhållanden, konstruktion av interpolationsformler, val av signifikanta faktorer, utvärdering och förfining av konstanterna för teoretiska modeller, etc.

Historik

Experimentell design uppstod under första hälften av 1900-talet från behovet av att eliminera eller åtminstone minska bias i jordbruksforskning genom att randomisera experimentella förhållanden. Planeringsproceduren visade sig inte bara vara inriktad på att minska variansen av de uppskattade parametrarna, utan också på randomisering med avseende på samtidiga, spontant förändrade och okontrollerade variabler. Som ett resultat lyckades vi bli av med biasen i skattningarna.

Sedan 1918 började R. Fisher sin serie arbeten vid Rochemsted agrobiological station ( eng. ) i England. 1935 kom hans monografi "Design of Experiments", som gav namn åt hela riktningen. År 1942 granskade A. Kishen utformningen av experimentet med latinska kuber, som var en vidareutveckling av teorin om latinska kvadrater . Sedan publicerade R. Fischer oberoende information om ortogonala hyper-grekisk-latinska kuber och hyperkuber. Kort därefter, 1946, övervägde R. Rao deras kombinatoriska egenskaper. H. Manns (1947-1950) verk ägnas åt vidareutvecklingen av teorin om latinska rutor.

Den första djupgående matematiska studien av flödesschemat gjordes av R. Bowes ( Eng. ) 1939. Inledningsvis utvecklades teorin om balanserade ofullständiga blockplaner (BIB-scheman). Sedan generaliserade R. Bose, K. Ner och R. Rao dessa planer och utvecklade teorin om delvis balanserade ofullständiga blockplaner (PBIB-scheman). Sedan dess har mycket uppmärksamhet ägnats studiet av flödesscheman, både av experimentella planerare ( F. Yeats , G. Cox, V. Cochran ( engelska ), W. Federer, K. Gulden, O. Kempthorn och andra), och och från specialister inom kombinatorisk analys (R. Bose, F. Shimamoto, V. Klatsworthy, S. Srikhande ( engelska ), A. Hoffman, och andra).

R. Fishers forskning markerar början på det första steget i utvecklingen av experimentplaneringsmetoder. Fisher utvecklade faktorplaneringsmetoden. Yeats föreslog ett enkelt beräkningsschema för denna metod. Faktorplanering har blivit utbredd. En egenskap hos ett faktorexperiment är behovet av att sätta upp ett stort antal experiment på en gång.

1945 introducerade D. Finney fraktionerade repliker från ett faktorexperiment. Detta gjorde det möjligt att minska antalet experiment och öppnade för tekniska planeringsansökningar. En annan möjlighet att minska det erforderliga antalet experiment visades 1946 av R. Plakett och D. Berman, som introducerade rika factorial designs.

G. Hotelling föreslog 1941 att man skulle hitta ett extremum från experimentella data med hjälp av kraftutvidgningar och en gradient. Nästa viktiga steg var införandet av principen om sekventiell stegvis experimentering. Denna princip, uttryckt 1947 av M. Friedman och L. Savage , gjorde det möjligt att utvidga den experimentella definitionen av extremum - iterationen.

För att bygga en modern teori om experimentplanering saknades en länk - formaliseringen av studieobjektet. Denna länk dök upp 1947, efter att N. Wiener skapat teorin om cybernetik . Det cybernetiska konceptet "black box" spelar en viktig roll i planeringen.

År 1951 började de amerikanska forskarna J. Box och C. Wilsons arbete ett nytt skede i utvecklingen av experimentplanering. Den formulerade och förde till praktiska rekommendationer idén om en konsekvent experimentell bestämning av de optimala villkoren för att genomföra processer med hjälp av uppskattning av koefficienterna för kraftutvidgningen med minsta kvadratmetoden , rör sig längs en gradient och hitta ett interpolationspolynom i regionen av yttersta delen av svarsfunktionen (nästan stationär region).

Åren 1954-1955. J. Box och sedan P. Yule visade att utformningen av ett experiment kan användas i studien av fysikaliska och kemiska processer, om en eller flera möjliga hypoteser anges a priori . Riktningen utvecklades i verk av N. P. Klepikov, S. N. Sokolov och V. V. Fedorov i kärnfysik .

Det tredje steget i utvecklingen av teorin om experimentell design började 1957, när Box tillämpade sin metod på industrin. Denna metod kom att kallas " evolutionär planering ". 1958 föreslog G. Scheffe ( eng. ) en ny metod för att utforma ett experiment för att studera fysikalisk-kemiska sammansättningsdiagram - en egenskap som kallas " simplex gitter ".

Utvecklingen av teorin om experimentell planering i Sovjetunionen återspeglas i verk av VV Nalimov , Yu. P. Adler , Yu. V. Granovsky , EV Markova och VB Tikhomirov .

Stadier för att planera ett experiment

Experimentplaneringsmetoder gör det möjligt att minimera antalet nödvändiga tester, fastställa en rationell procedur och villkor för att bedriva forskning, beroende på deras typ och den erforderliga noggrannheten av resultaten. Om antalet tester av någon anledning redan är begränsat, ger metoderna en uppskattning av noggrannheten med vilken resultaten kommer att erhållas i detta fall. Metoderna tar hänsyn till den slumpmässiga karaktären av spridningen av egenskaperna hos de testade föremålen och egenskaperna hos den använda utrustningen. De är baserade på metoderna för sannolikhetsteorin och matematisk statistik .

Att planera ett experiment innefattar ett antal steg.

  1. Fastställande av syftet med experimentet (bestämma egenskaper, egenskaper, etc.) och dess typ (definitivt, kontroll, jämförande, forskning).
  2. Förtydligande av villkoren för försöket (tillgänglig eller tillgänglig utrustning, arbetsvillkor, ekonomiska resurser, antal och bemanning av anställda etc.). Val av typ av test (normalt, accelererat, reducerat i laboratorieförhållanden, på montern , fältet , i full skala eller i drift).
  3. Val av in- och utgångsparametrar . Indataparametrar (faktorer) kan vara deterministiska, det vill säga registrerade och kontrollerade (beroende på observatören), och slumpmässiga, det vill säga registrerade, men ohanterade. Tillsammans med dem kan tillståndet för objektet som studeras påverkas av oregistrerade och okontrollerade parametrar som introducerar ett systematiskt eller slumpmässigt fel i mätresultaten. Dessa är fel i mätutrustning , förändringar i egenskaperna hos föremålet som studeras under experimentet, till exempel på grund av åldrande av materialet eller dess slitage, exponering för personal, etc.
  4. Val av matematisk modell , med hjälp av vilken experimentella data kommer att presenteras;
  5. Fastställande av den erforderliga noggrannheten för mätresultaten (utdataparametrar), områden med möjlig förändring av ingångsparametrar, förtydligande av typerna av påverkan. Typen av prover eller föremål som studeras väljs, med hänsyn till graden av deras överensstämmelse med den verkliga produkten när det gäller skick, enhet, form, storlek och andra egenskaper. Syftet med graden av noggrannhet påverkas av villkoren för tillverkning och drift av objektet, vars skapande kommer att använda dessa experimentella data. Tillverkningsförhållanden, dvs tillverkningsmöjligheter, begränsar den högsta realistiskt möjliga noggrannheten. Driftsförhållandena, det vill säga villkoren för att säkerställa objektets normala funktion, bestämmer minimikraven för noggrannhet. För ett antal fall (med ett litet antal faktorer och en känd lag för deras fördelning) är det möjligt att beräkna i förväg det minsta erforderliga antalet tester, vilket gör det möjligt att erhålla resultat med erforderlig noggrannhet.
  6. Valet av optimalitetskriteriet, planen för experimentet, definitionen av metoden för dataanalys; genomföra ett experiment  - antalet och ordningen på tester, metoden för att samla in, lagra och dokumentera data. Testordningen är viktig om ingångsparametrarna (faktorerna) i studien av samma objekt under ett experiment har olika värden. Till exempel, när man testar för utmattning med en stegvis förändring av belastningsnivån, beror uthållighetsgränsen på belastningssekvensen, eftersom skadeackumulering fortskrider annorlunda, och följaktligen blir det ett annat värde på uthållighetsgränsen. I vissa fall, när systematiska parametrar är svåra att ta hänsyn till och kontrollera, omvandlas de till slumpmässiga , vilket specifikt ger en slumpmässig testordning (randomisering av experimentet). Detta gör det möjligt att tillämpa metoderna i den matematiska teorin om statistik för analys av resultaten. Testordningen är också viktig i processen för utforskande forskning: beroende på den valda sekvensen av åtgärder i det experimentella sökandet efter det optimala förhållandet mellan parametrarna för ett objekt eller någon process, kan fler eller färre experiment krävas. Dessa experimentella problem liknar matematiska problem med numeriskt sökande efter optimala lösningar. De mest välutvecklade metoderna är endimensionella sökningar (enfaktors enkriterieproblem), såsom Fibonaccimetoden, gyllene snittmetoden .
  7. Kontrollera de statistiska förutsättningarna för de erhållna uppgifterna, bygga en matematisk modell av beteendet hos de studerade egenskaperna Behovet av bearbetning beror på det faktum att en selektiv analys av individuella data, ur kontakt med resten av resultaten, eller deras felaktig behandling kan inte bara minska värdet av praktiska rekommendationer, utan också leda till felaktiga slutsatser . Bearbetning av resultaten inkluderar: bestämning av konfidensintervallet för medelvärdet och variansen (eller standardavvikelsen) av värdena för utgångsparametrarna (experimentella data) för en given statistisk tillförlitlighet; kontrollera frånvaron av felaktiga värden (avvikande värden), för att utesluta tvivelaktiga resultat från ytterligare analys. Den utförs för att uppfylla ett av de speciella kriterierna, vars val beror på fördelningslagen för den slumpmässiga variabeln och typen av extremvärde; kontroll av att försöksuppgifterna överensstämmer med den tidigare införda distributionslagen. Beroende på detta bekräftas den valda experimentplanen och metoderna för att bearbeta resultaten, och valet av den matematiska modellen specificeras. Modellbyggande utförs i de fall där kvantitativa egenskaper för inbördes relaterade in- och utdataparametrar som studeras bör erhållas. Dessa är approximationsproblem, det vill säga valet av ett matematiskt beroende som bäst passar experimentdata. För dessa ändamål används regressionsmodeller , som är baserade på expansionen av den önskade funktionen i en serie med bibehållande av en (linjärt beroende, regressionslinje) eller flera (icke-linjära beroenden) expansionsmedlemmar (Fourier, Taylor-serien) . En av metoderna för att anpassa regressionslinjen är den flitigt använda minsta kvadratmetoden. För att bedöma graden av inbördes samband mellan faktorer eller utdataparametrar utförs en korrelationsanalys av testresultat. Som ett mått på sammankopplingen används korrelationskoefficienten: för oberoende eller icke-linjärt beroende slumpvariabler är den lika med eller nära noll, och dess närhet till enhet indikerar den fullständiga sammankopplingen av variablerna och närvaron av ett linjärt samband mellan dem. Vid bearbetning eller användning av experimentella data presenterade i tabellform finns det ett behov av att erhålla mellanvärden. För detta används metoderna för linjär och icke-linjär (polynom) interpolation (bestämning av mellanvärden) och extrapolering (bestämning av värden som ligger utanför intervallet för dataändring).
  8. Förklaring av erhållna resultat och formulering av rekommendationer. Reduktion av arbetsintensitet och minskning av testtid uppnås genom att använda automatiserade experimentkomplex. Ett sådant komplex inkluderar testbänkar med automatisk inställning av lägen (låter dig simulera verkliga driftslägen), bearbetar automatiskt resultaten, utför statistisk analys och dokumenterar forskningen. Men ingenjörens ansvar i dessa studier är också stort: ​​tydligt definierade testmål och ett korrekt fattat beslut gör att du exakt kan hitta produktens svaga punkt, minska kostnaderna för finjustering och iteration av designprocessen.

Se även

Anteckningar

  1. Introduktion till experimentdesign. Tambov State Technical University. . Hämtad 14 maj 2022. Arkiverad från originalet 26 februari 2020.

Litteratur