Peter Lorenz English smaller fonts Simulation und Animation
At Work

5.5. Modellexperimente und Resultatanalyse

In fast allen bisher vorgestellten Modellbeispielen ist die Simulation nur einmal ausgeführt worden. Das ist in der Praxis der Simulation eher unüblich. Man organisiert in der Regel Serien von Experimenten. Deren Resultate unterscheiden sich voneinander, Im vorliegenden Abschnitt wird zuerst darauf eingegangen, wie man mit Hilfe von GPSS-Anweisungen Serien von Simulationsläufen und -experimenten organisieren kann. Anschließend wird auf die Klassifikation von Simulationsexperimenten und auf die Auswertung ihrer Resultate eingegangen. In der Praxis der Simulation wird oft relativ viel Zeit für Modellentwicklung und -programmierung verbraucht, aber der Planung von Experimenten und der Analyse der Resultate zu wenig Aufmerksamkeit geschenkt. Wenn es stochastische Einflüsse in einem Modell gibt, darf man sich auf keinen Fall auf einen einzigen Lauf beschränken, dessen Länge, die Laufzeit, vielleicht ebenfalls willkürlich festgelegt wurde. Auf diese Weise kann man kein Resultat gewinnen, das auf die Realität übertragbar ist.

Simulationläufe und SimulationsexperimenteTop Line

Simulationslauf
heißt die einmalige Durchrechnung eines Modells vom definierten Beginn der simulierten Zeit bis zu ihrem Ende oder bis eine Abbruchbedingung erfüllt ist. In GPSS ist ein Simulationslauf durch die einmalige Ausführung der Steueranweisung START gekennzeichnet, welche die Blockverarbeitung oder Blockausführung startet.
Simulationsexperiment
ist eine Folge von Ausführungen oder Replikationen eines Simulationslaufes. Wenn man vor der Ausführung jedes Laufes den gleiche Ausgangszustand herzustellt, die Zeit auf Null zurücksetzt und alle Modellparameter unverändert lässt, aber unterschiedliche Zufallszahlenfolgen benutzt, erhält man eine Folge unabhängiger Replikationen.
Simulationsstudien
stützen sich auf Simulationsexperimente mit verschiedenen Sätzen von Experimentierdaten. Darüber hinaus umfassen sie die Auswertung der Resultate und ihre Präsentation.

Anweisungen zur Steuerung ExperimentenTop Line

Zur Steuerung von Experimenten dienen die GPSS/H-Steueranweisungen START, RESET, CLEAR und RMULT.

Einführungsbeispiel

Zur Einführung in die Problematik dient wiederum das Beispiel des Single Servers aus 4.1. In einem ersten Ansatz sollen nacheinander drei Startanweisungen ausgeführt werden. Was geschieht, wenn man drei START-Anweisungen mit gleichem Startzählerwert hintereinander schreibt?

Wenn man dieses Programm ausführt und die Resultate betrachtet, erkennt man schnell, was auf diese Weise erreicht worden ist: Nach dem Durchlauf der ersten 100 Transaktionen erfolgt die Standardausgabe in der aus Abschnitt 4.1. bekannten Form. Anschließend wird die Simulation fortgesetzt und man findet die nächste Standardausgabe. Sie protokolliert den Systemzustand, nachdem die 200. Transaktion den TERMINATE-Block betreten und den Startzähler erneut auf Null reduziert hat. Das wiederholt sich ein drittes Mal.
Auf diese Weise erhält man also nicht die eventuell gewünschten Wiederholungen eines Laufes und hat keine Möglichkeit, Resultate von drei Läufen zu vergleichen.

Die wiederholte Ausführung unmittelbar hintereinander liegender START-Anweisungen bewirkt die wiederholte Erzeugung der Standardausgabe und die Fortsetzung des gestarteten Simulationslaufes. Das erfolgt zu den Zeitpunkten, zu denen der Startzähler (Termination Counter TC) einer START-Anweisung Null oder kleiner wird. Auf diese Weise erzeugt man Zwischenausgaben, welche die bis zum jeweiligen Zeitpunkt gesammelten Statistiken enthalten. Die Simulation wird beim gleichen Modellzustand wieder aufgenommen, bei dem der vorangegangene Abbruch erfolgt war.

Übersicht

Bereits im Abschnitt 4.2. sind Anweisungen zur Steuerung von Modellexperimenten kurz erklärt worden. Bezüglich einer ausführlichen Erklärung ist auf den hier vorliegenden Abschnitt 5.5 verwiesen worden. Hier zunächst eine Übersicht:
START bestimmt den Anfangswert des Startzählers TG und startet die Blockverarbeitung.
RESET setzt die Relativzeit C1 auf Null und lässt die Absolutzeit AC1unverändert
CLEAR setzt Relativ- und Absolutzeit C1, AC1 auf Null zurück
RMULT legt Anfangspositionen für die Zufallszahlengeneratoren fest.

Diese drei Anweisungen zur Steuerung von Experimenten mit einem Simulationsmodell sollen nun genauer erklärt werden.

START

START
ist eine Steueranweisung mit folgendem Funktionsspektrum:
  1. Bestimmung des Anfangswertes für den Startzähler,
  2. Erzeugung oder Unterdrückung der Standardausgabe,
  3. Bestimmung von Zwischenausgaben und
  4. Erzeugung oder Unterdrückung der Ausgabe von Xact-Ketten
  5. .
Die Operanden von START entsprechen diesen vier Funktionen:
OperandInhaltErklärung
Axpr Anfangswert des Startzählers
B leer oder NP Wenn NP (No Print) angegeben ist, wird die Standardsausgabe unterdrückt. Sonst wird sie erzeugt.
C snapcnt Anfangswert eines Zwischenzählers, der gleichzeitig und um den gleichen Wert wie der Startzähler dekrementiert wird. Wenn dessen Wert Null erreicht oder unterschreitet, wird eine Standardausgabe erzeugt und der Wert wieder auf den Anfangswert zurückgesetzt.
D 1 oder leer Wenn 1 angegeben ist, wird die Standardausgabe um die Ausgabe aller Xact-Ketten ergänzt.
Nun wird es möglich, die drei START-Anweisungen aus dem Einführungsbeispiel durch eine einzige zu ersetzen. Bitte setzen Sie die Anweisung
START 300,,100
an die Stelle der drei aufeinander folgenden START-Anweisungen und vergleichen Sie die Ergebnisse. Es sollte Übereinstimmung herauskommen!

RESET

RESET
ist eine Anweisung, mit der alle zuvor gesammelten Statistiken für Einrichtungen, Speicher, Warteschlangen, Nutzerketten und Tabellen auf Null zurückgesetzt werden können. Sie wird meist benutzt, um Statistiken während einer Anlaufphase zu annullieren, so dass sich die anschließend zu sammelnden statistischen Daten auf einen Zeitabschnitt mit schon laufendem Prozess und stabilem Prozesszustand (Steady State) beziehen.
RESET hat das Format

RESET exception, ...
Durch exception können Modellelemente spezifiziert werden, die vom Zurücksetzen oder Löschen auszuschließen sind. Folgende Operationen werden durch RESET ausgelöst:
  1. Die Relative Zeit (C1) wird auf Null zurückgesetzt, während die absolute Zeit weiterläuft.
  2. Alle Blockzähler werden auf Null zurückgesetzt..
  3. Statistiken zur Nutzung von Einrichtungen (Anzahl der Eintritte, Nutzungsdauerintegral) werden gelöscht.
  4. Statistiken zur Nutzung von Speichern werden gelöscht.
  5. Warteschlangestatistiken (Zeitintegral, Eintrittszähler, maximaler Inhalt) werden gelöscht.
  6. Nutzerkettenstatistiken werden gelöscht.
  7. Tabelleneinträge werden annulliert.
MnemonicModellelementklasse
FEinrichtung
SSpeicher
QWarteschlange
CHNutzerkette
TBTabelle
Unbeeinflusst bleiben Zufallszahlenfolgen und Werte aller Skalare, Matrizen und Ampervariablen. Existierende Transaktionen verbleiben im Modell.
Wenn man Operanden angibt, können damit Modellelemente selektiert werden, die vom Rücksetzen auszuschließen sind. Dazu werden die Symbole aus der rechts stehenden Tabelle benutzt. Die folgenden Beispiele zeigen, wie man Modellelemente vom Nullsetzen ausschließt.
RESET F(JOE),Q(SALON)
schließt die Einrichtung JOE und die Warteschlange SALON vom RESET aus.
RESET Q(MARKET),S1-S3
schließt die Warteschlange MARKET und die Speicher mit den Nummern 1 bis 3 vom RESET aus.

CLEAR

CLEAR
ist eine Anweisung, mit der alle Statistiken gelöscht und alle Transaktionen aus einem Modell entfernt werden. Sie wird meist benutzt, wenn man eine Serie von Simulationsläufen mit verschiedenen Zufallszahlen oder verschiedenen Eingangsdaten starten will. CLEAR hat das Format:

CLEAR exception, ...
Folgende Operationen werden durch die CLEAR-Anweisung ausgeführt:
  1. Die Absolute und die Relative Uhr werden auf Null zurückgesetzt.,
  2. Alle Transaktionen werden aus dem Modell entfernt.
  3. Die gesamte Blockstatistik wird gelöscht.
  4. Alle Statistiken über Einrichtungen, Speicher, Warteschlangen, Nutzerketten sowie Tabellen werden gelöscht.
  5. Alle Gruppen werden geleert und alle Schalter zurückgesetzt. Die Werte von Skalaren und Matrixelementen werden Null gesetzt.
Zufallszahlenströme bleiben unberührt. Um sie zurückzusetzen, muß RMULT benutzt werden. Alle Ampervariablen bleiben unberührt.
Wenn man Operanden angibt, können damit Modellelemente (Tabellen, Skalare oder Matrizen) selektiert werden, die vom Rücksetzen auszuschließen sind. Das sei an folgendem Beispiel erklärt:
CLEAR XH1,TB(WTIME),ML2-ML5
schließt ein Skalar, eine Tabelle und vier Matrizen vom Löschen aus.

RMULT

RMULT
ist eine Anweisung, mit der man einen Startindex für die Erzeugung von Zufallszahlenauswählen kann. Die Anweisung wird im Abschnitt 3.8. erklärt.

Stochastische Modelldaten

Aus einer abstrakten Sicht kann man ein Modell als eine Funktion betrachten, die Eingangsdaten X in Resultatdaten Y transformiert. Wenn die Eingangsdaten Zufallsgrößen (stochastische Variablen) sind, so sind die Resultatdaten ebenfalls zufallsabhängig.

Jeder Simulationslauf eines stochastischen Modells benutzt Folgen von Realisierungen der zufälligen Eingangsgrößen X, die man kurz als Zufallszahlenfolgen mit den Verteilungen der Eingangsdaten bezeichnet.

Im Beispiel von Joe's Barbershop sind das Folgen zufälliger Zwischenankunftszeiten X11, X12, ... der Kunden und Folgen zufälliger Werte X21, X22, ... der Bedienungsdauer. Als Resultatgrößen entstehen Folgen von Aufenthaltsdauern Y21, Y22, ... der Kunden und eine Durchschnittsauslastung Y1(t) für Joe.

Während die Eingangsgrößen in diesem Beispiel als Folgen unabhängiger Zufallsgrößen betrachtet werden können, trifft das auf die Resultatgrößen nicht mehr zu:
Die Auslastung kann man zu jedem beliebigen Zeitpunkt eines Simulationslaufes erfragen und notieren. So ist die Auslastung Komponente eines zufälligen Prozesses.
Auch die Folge der Aufenthaltdauern ist keine Folge von Realisierungen unabhängiger Zufallsgrößen: Wenn eine Warteschlange entsteht, ergeben sich Folgen längerer Aufenthaltsdauern. Eine Unabhängigkeit der Realisierungen dieser Zufallsgrößen untereinander ist also nicht gegeben.

Obwohl es wenig Sinn macht und aus der Sicht der Mathematischen Statistik nicht gerechtfertigt ist, beobachtete Werte abhängiger Zufallsgrößen in Häufigkeitstafeln zu erfassen, geschieht das praktisch ziemlich oft.


Im oben stehenden Modell sollen Zwischenankunftszeiten als Folge unabhängiger Realisierungen einer Zufallsgröße mit den Aufenthaltsdauern von Kunden im Salon, also abhängigen Zufallszahlen, anhand graphischer Darstellungen miteinander verglichen werden.

Man erkennt beim Vergleich beider Graphiken den Unterschied zwischen der Unregelmäßigkeit unabhängiger Realisierungen im oberen Bild und der zusammenhängenden Ausprägung kurzer und langer Aufenthaltsdauern im unteren Bild.

Terminierende und nicht terminierende SimulationsexperimenteTop Line

Simulationsmodelle kann man als mehrdimensionale stochastische Prozesse betrachten. Schon der Single-Server als eines der einfachsten Modelle besitzt eine relativ große Anzahl von Attributen, die man als Komponenten eines Prozesses auffassen kann. Im Joe's Barbershop, unserem Single-Server, kann man

  1. die Anzahl eingetroffener Kunden (0, 1, 2,...),
  2. die Anzahl wartender Kunden (0, 1, 2,...),
  3. die Anzahl gerade behandelter Kunden (0, 1),
  4. die Anzahl der Kunden im Salon (0, 1, 2,...),
  5. die Anzahl fertig frisierter Kunden (0, 1, 2,...),
  6. die Summe der Wartezeiten und,
  7. die Summe der Bedienzeiten

als Komponenten eines zufälligen Prozesses X(t) betrachten, die zu jedem Wert t der simulierten Zeit (C1) einen aktuellen Wert besitzen. Diese Werte sind während eines Simulationslaufes ständig verfügbar.

Neben diesen primären Komponenten gibt es sekundäre, abgeleitete Attribute oder Prozesskomponenten. Dazu kann man z. B.

zählen. Alle diese Prozesskomponenten lassen sich durch Verlaufsgraphen veranschaulichen. Zwei Läufe mit unterschiedlichen Zufallszahlen ergeben unterschiedliche Realisierungen des stochastischen Prozesses und seiner Komponenten.

Das kann man leicht in einem Modell veranschaulichen, das ausgewählte Prozesskomponenten als Graphen protokolliert. Im oben benutzen Modell wird eine Warteschlange eingeführt. Zwei Graphen zeigen den Verlauf ausgewählter Größen für drei Replikationen.


png Wenn man nun ein Proof-Layout mit geeigneten Plots gestaltet, kann man ausgewählte Resultate der drei Simulationsläufe als Diagramme erzeugen. Man findet sie im rechts stehenden Bild. Die Diagramme lassen sich in folgender Weise kommentieren:
Im Hinblick auf die Resultatanalyse kann man Simulationsexperimente in folgender Weise klassifizieren:
Terminierende oder transiente Simulationsexperimente
werden zur Zeit Null unter festliegenden Anfangsbedingungen gestartet und enden nach dem Eintritt eines zu spezifizierenden Ereignisses E zu einer Zeit t(E) .
Nichtterminierende oder Steady-State-Simulationsexperimente
beginnen erst nach einer Anlaufphase mit der Sammlung von Resultatdaten, beziehen sich auf einen stabilen Prozesszustand und auf ohne bekanntes Ende laufende Prozesse.

Punkt- und IntervallschätzungenTop Line

Zwischen der statistischen Analyse realer und simulierter Systeme gibt es keinen prinzipiellen Unterschied. Aus praktischer Sicht besteht ein Unterschied darin, dass man für eine simuliertes System auf relativ einfache Weise beliebige Daten gewinnen kann, während Messungen an realen Systemen immer mit Aufwand und oft mit Komplikationen verbunden sind.

Basisaufgaben der Mathematischen Statistik bestehen

  1. in der Schätzung unbekannter Parameter eines untersuchten Systems,
  2. in dem Vergleich zweier Objekte hinsichtlich nachweisbarer Unterschiede und
  3. in der Quantifizierung von Beziehungen zwischen Komponenten eines untersuchten Systems.

Im folgenden werden zunächst Methoden zur Schätzung von Parametern wie Erwartungswert und Varianz von Zufallsgrößen betrachtet. Sie werden oft auch als Punktschätzungen bezeichnet. Eine verwandte Aufgabe besteht in der Schätzung eines Intervalls, in dem gesuchte Punkte mit vorgegebener Wahrscheinlichkeit liegen.

Ein relativ einfacher Fall liegt vor, wenn das Experiment aus n Replikationen eines terminierenden Simulationslaufes besteht.

Die hier einzuführenden Methoden sollen an Hand eines Modellbeispiels verfolgt und erläutert werden. Als Beispiel dient ein Single-Server Modell, mit dem ein terminierendes Experimentausgeführt werden soll: Joe's Barbershop werde wie im Einführungsbeispiel aus Kapitel 4.1. mit leerem Modell gestartet und beendet, sobald der 100. Kunde den Salon verläßt. Geschätzt werden sollen Erwartungswerte der zu diesem Ereignis auftretenden Zufallsgrößen Wenn man n Replikationen mit jeweils verschiedenen Zufallszahlenfolgen ausführt, erhält man n Realisierungen der beiden Zufallsgrößen A und D.

Aus wahrscheinlichkeitstheoretischer Sicht hat man n unabhängige, identisch verteilte Zufallsgrößen

A1 bis An

und

D1 bis Dn

.

Beide Resultatgrößen sollen nun mit einem übereinstimmenden Verfahren analysiert werden. In allgemeingültigen Beschreibungen von Verfahren der Resultatanalyse wird Y als Bezeichnung eines beliebigen Resultates genommen. So steht im folgenden Y und repräsentiert dabei A und D aus dem vorigen Beispiel.

Um eine unbekannte Zufallsgröße Y zu analysieren, beginnt man in der Regel, ihren Erwartungswert und ihre Varianz zu schätzen. Daraus kann man ein Konfidenzintervall ableiten, in dem ihre Wertemit vorgegebener Wahrscheinlichkeit liegen. Schließlich kann man, ausreichend viele Resultatwerte, also ein großes n vorausgesetzt, Hypothesen über die Verteilungsfunktion der unbekannten Zufallsgröße Y ableiten.

Wenn

Y1...Yn

eine Folge unabhängiger, identisch wie Y verteilter Zufallsgrößen bezeichnet, so ist

Yquer

eine Schätzfunktion für den Erwartungswert E(Y) von Y.

Die Varianz schätzt man nach der Formel

Varianz.

Nach dem zentralen Grenzwertsatz der Wahrscheinlichkeitstheorie gilt für große n

.

Dabei ist

ein so genannter kritischer Punkt der Standardnormalverteilung, den man aus geeigneten Tabellen entnehmen kann. Es bezeichnet den Wert des Arguments, für den die Funktion

Normal Distribution

den Wert 1-alpha annimmt.

Die folgende Tabelle gibt eine Übersicht über Funktionswerte, die man für statistische Tests oft benutzt:

Kritische Werte der Normalverteilung
x 1.6451.962.5763.0
Normal Distribution 0.950.9750.9950.99865
Nun sollen diese Methoden angewandt werden, um Erwartungswerte und Varianzen der Resultatgrößen A und D zu ermitteln. Dazu werden Serien von 10, 100 und 1000 Läufen mit dem oben schon benutzten Barbershop-Modell ausgeführt.In jedem Lauf wird ein Wert, eine Realisierung jeder dieser beiden Zufallsgrößen, berechnet und in den Matrizen ML(AJOE) und ML(DCUSTOM) gespeichert.

Um die Anzahl der Läufe zu modifizieren, braucht man nur im obigen Textfeld den Wert der Variablen &NRUNS, der hier mit 10 voreingestellt ist, zu verändern. Es wird sich herausstellen, dass 10 Versuche zu wenig sind, um die obige Methode zur Bestimmung von Konfidenzintervallen anzuwenden. Für Leser dieses Textes, die keinen Online-Zugang zum Internet und zudem Server besitzen, auf dem das GPSS läuft, sollen die Resultate für 100 Läufe in derfolgenden Tafel wiedergegeben werden:

FLOATING POINT MATRIX SAVEVALUE     AJOE
  ROW/COL           1           2           3           4           5           6           7           8           9          10
    1        850.7320    808.5289    798.4188    804.4006    806.2189    808.1300    826.8709    806.9245    811.9303    832.2624
    2        806.5212    813.1130    835.7543    828.3701    834.3365    809.6655    853.9986    828.0739    842.3812    790.4710
    3        835.7115    812.1619    821.6167    833.1504    816.4021    826.3576    839.9780    839.8148    845.7137    840.4548
    4        822.4589    829.1832    809.5782    815.7672    831.6279    853.5558    837.8099    878.1384    804.5592    831.1131
    5        801.5235    824.1461    829.0789    832.1514    824.1553    821.4033    848.8203    831.7899    843.9431    803.9014
    6        846.1749    816.4187    842.2235    823.3070    843.7938    843.7771    826.2715    820.0088    805.6234    808.0576
    7        813.0221    827.8979    849.7436    826.1019    812.9938    844.2291    857.1245    797.6218    875.3036    812.2437
    8        845.3922    813.9997    859.0721    814.0807    825.1184    816.3626    840.2202    791.6181    802.5403    801.5731
    9        850.2543    854.4249    831.3041    852.9452    845.6347    862.5381    815.7024    817.8882    814.6034    830.5933
   10        832.1348    822.6684    827.6435    849.3893    824.6895    821.4257    802.2283    807.2253    813.8789    820.5154
  ...

FLOATING POINT MATRIX SAVEVALUE    DCUST

  ROW/COL           1           2           3           4           5           6           7           8           9          10
    1         16.7286     16.2387     15.7254     15.7593     16.2046     16.2388     16.1817     16.3421     16.3440     16.3762
    2         15.9567     16.1372     16.5138     16.4388     16.3147     15.8847     18.1496     16.2315     16.5506     16.0489
    3         16.8498     16.1090     16.3188     16.7702     16.0356     16.1711     16.6967     16.6402     16.6133     17.0228
    4         16.4339     16.0774     16.1105     16.4490     16.7614     16.4371     16.4497     18.0849     15.8452     16.8585
    5         15.8051     16.8296     16.0545     16.2284     16.3044     16.5573     16.9326     17.1610     17.0602     15.8245
    6         17.0543     16.1901     16.4920     16.0546     16.2625     16.1424     16.1905     15.9244     16.0347     16.1952
    7         16.0584     16.7344     16.6601     16.2619     15.7172     16.4036     17.1638     15.8850     17.2917     16.4520
    8         16.5342     15.8522     16.6589     16.4221     16.6692     16.5006     16.1186     15.8253     16.2576     15.8620
    9         17.8220     16.8847     16.7683     16.9898     16.5804     16.5419     16.2316     16.0910     16.2420     15.8804
   10         16.4188     16.2816     16.4859     16.5980     16.5119     16.2834     15.9870     16.1316     16.0454     16.2480
  ... 

Um die oben eingeführten Schätzfunktionen an diesem Beispiel zu demonstrieren, sind Mittelwert und Standardabweichung (Quadratwurzel aus der Varianz) zu berechnen. Dazu kann man

Zuvor sollen die beiden Tabellen einer kurzen Betrachtung unterworfen werden:

  1. A, die mittlere Auslastung von JOE schwankt in den 100 Läufen mit je 100 Kunden zwischen 790.4710 und 878.138 Promille.
  2. D, die mittlere Aufenthaltsdauer eines Kunden, liegt in diesen 100 Läufen zwischen 15.7172 und 18.1496 Zeiteinheiten.
Nun wird das obige Programm um einige Zeilen ergänzt, mit denen die benötigten Mittelwerte und Standardabweichungen berechnet werden. Diese Anweisungen werden am Ende des letzten Laufs ausgeführt; die ersten neuen Anweisungen sind durch ***new markiert.

Wieder soll ein Ausschnitt der Resultate, die man bei der Ausführung erhält, hier in kleinen Tabellen wiedergegeben werden:

Häufigkeitstafeln nach 10 Läufen
TABLE    ANJOE

ENTRIES IN TABLE   MEAN ARGUMENT   STANDARD DEVIATION   SUM OF ARGUMENTS
         10.0000        815.4417              16.1308          8154.4174   NON-WEIGHTED

       UPPER    OBSERVED     PERCENT  CUMULATIVE  CUMULATIVE    MULTIPLE   DEVIATION
       LIMIT   FREQUENCY    OF TOTAL  PERCENTAGE   REMAINDER     OF MEAN   FROM MEAN
        ...
    800.0000      1.0000     10.0000       10.00       90.00      0.9811     -0.9573
    810.0000      5.0000     50.0000       60.00       40.00      0.9933     -0.3374
    820.0000      1.0000     10.0000       70.00       30.00      1.0056      0.2826
    830.0000      1.0000     10.0000       80.00       20.00      1.0179      0.9025
    840.0000      1.0000     10.0000       90.00       10.00      1.0301      1.5224
        ...
    860.0000      1.0000     10.0000      100.00        0.00      1.0546      2.7623
.
TABLE   DNCUST

ENTRIES IN TABLE   MEAN ARGUMENT   STANDARD DEVIATION   SUM OF ARGUMENTS
         10.0000         16.2139               0.2929           162.1393   NON-WEIGHTED

       UPPER    OBSERVED     PERCENT  CUMULATIVE  CUMULATIVE    MULTIPLE   DEVIATION
       LIMIT   FREQUENCY    OF TOTAL  PERCENTAGE   REMAINDER     OF MEAN   FROM MEAN
        ...
     15.8000      2.0000     20.0000       20.00       80.00      0.9745     -1.4130
        ...
     16.2000      1.0000     10.0000       30.00       70.00      0.9991     -0.0476
     16.4000      6.0000     60.0000       90.00       10.00      1.0115      0.6352
        ...
     16.8000      1.0000     10.0000      100.00        0.00      1.0361      2.0006


Häufigkeitstafeln nach 100 Läufen
TABLE    ANJOE

ENTRIES IN TABLE   MEAN ARGUMENT   STANDARD DEVIATION   SUM OF ARGUMENTS
        100.0000        826.8277              18.1991         82682.7726   NON-WEIGHTED

       UPPER    OBSERVED     PERCENT  CUMULATIVE  CUMULATIVE    MULTIPLE   DEVIATION
       LIMIT   FREQUENCY    OF TOTAL  PERCENTAGE   REMAINDER     OF MEAN   FROM MEAN
        ...
    800.0000      4.0000      4.0000        4.00       96.00      0.9676     -1.4741
    810.0000     17.0000     17.0000       21.00       79.00      0.9796     -0.9246
    820.0000     16.0000     16.0000       37.00       63.00      0.9917     -0.3752
    830.0000     22.0000     22.0000       59.00       41.00      1.0038      0.1743
    840.0000     15.0000     15.0000       74.00       26.00      1.0159      0.7238
    850.0000     15.0000     15.0000       89.00       11.00      1.0280      1.2733
    860.0000      8.0000      8.0000       97.00        3.00      1.0401      1.8227
    870.0000      1.0000      1.0000       98.00        2.00      1.0522      2.3722
    880.0000      2.0000      2.0000      100.00        0.00      1.0643      2.9217
.
TABLE   DNCUST

ENTRIES IN TABLE   MEAN ARGUMENT   STANDARD DEVIATION   SUM OF ARGUMENTS
        100.0000         16.4075               0.4558          1640.7516   NON-WEIGHTED

       UPPER    OBSERVED     PERCENT  CUMULATIVE  CUMULATIVE    MULTIPLE   DEVIATION
       LIMIT   FREQUENCY    OF TOTAL  PERCENTAGE   REMAINDER     OF MEAN   FROM MEAN
        ...
     15.8000      3.0000      3.0000        3.00       97.00      0.9630     -1.3329
     16.0000     12.0000     12.0000       15.00       85.00      0.9752     -0.8941
     16.2000     20.0000     20.0000       35.00       65.00      0.9874     -0.4553
     16.4000     19.0000     19.0000       54.00       46.00      0.9995     -0.0165
     16.6000     20.0000     20.0000       74.00       26.00      1.0117      0.4223
     16.8000     11.0000     11.0000       85.00       15.00      1.0239      0.8611
     17.0000      6.0000      6.0000       91.00        9.00      1.0361      1.2999
     17.2000      5.0000      5.0000       96.00        4.00      1.0483      1.7387
     17.4000      1.0000      1.0000       97.00        3.00      1.0605      2.1775
        ...
     18.0000      1.0000      1.0000       98.00        2.00      1.0971      3.4939
     18.2000      2.0000      2.0000      100.00        0.00      1.1092      3.9327



Die Resultate von 10, 100 und 1000 Läufen in Bezug auf die zu untersuchenden Zufallsgrößen A und D werden nun in folgender Tabelle zusammengefasst:

Mittelwerte und Standardabweichungen für A und D
10 Läufe100 Läufe 1000 Läufe
ZufallsgrößeMittelwert St.-Abw.Mittelwert St.-Abw.MittelwertSt.-Abw.
A815.441716.1308 826.827718.1991825.411217.6915
D16.21390.2929 16.40750.455816.36430.4200

Damit hat man für jede der beiden Resultatgrößen A und D Schätzungen für der Erwartungswert und die Varianz gefunden. Sie hängen von den benutzten Zufallszahlen ab.

Wie kann man nun Konfidenzintervalle für die Erwartungswerte finden? Gegeben sei die Irrtumswahrscheinlichkeit alpha=0.05. Dann hat man 1.96 als kritischen Punkt der Standardnormalverteilung. Die Grenzen der Konfidenzintervalle findet man mit Hilfe einiger zusätzlicher Zeilen im GPSS-Programm. Sie sind durch ***new markiert.


Die komplette Resultatliste kann hier abgerufen werden

Konfidenzintervalle für Erwartungswerte von A
10 Läufe100 Läufe 1000 Läufe
Mittelwert815.4417826.8277 825.4112
Streuung16.130818.1991 17.6915
Halbes Konfidenzintervall9.9980 3.56701.0965
Untere Intervallgrenze805.4437 823.2607824.3147
Obere Intervallgrenze825.439 830.3947826.5077
Konfidenzintervalle für Erwartungswerte von D
10 Läufe100 Läufe 1000 Läufe
Mittelwert16.2139 16.407516.3643
Streuung0.29290.4558 0.4200
Halbes Konfidenzintervall0.1816 0.08930.0260
Untere Intervallgrenze16.0324 16.318216.3382
Obere Intervallgrenze16.3955 16.496916.3903

Offensichtlich gibt es hier Ungereimtheiten, die man nicht achtlos als Zufälligkeit abtun sollte: Die für 10 Läufe ermittelten Konfidenzintervalle umschließen nicht die kleinen, für 100 Läufe berechneten Konfidenzintervalle. Hier liegt ein methodischer Fehler vor: Offensichtlich ist die Anzahl von 10 Versuchen zu klein, um eine Grundlage für die Anwendung der hier benutzten Methode zur Konfidenzintervallberechnung zu bieten.

Vergleich alternativer SystemkonfigurationenTop Line

KontrollfragenTop Line

  1. Erläutern Sie die Begriffe Simulationslauf und Experiment!
  2. Welche Anweisungen dienen der Steuerung von Experimenten?
  3. Welche Funktionen hat die START-Anweisung?
  4. Wie kann man erreichen, dass eine Liste aller Xacts ausgegeben wird?
  5. Wie erzeugt man Zwischenausgaben?
  6. Wozu dient die RESET-Anweisung?
  7. Welche Klassen von Modellelementen werden von RESET betroffen?
  8. Kann man einzelne Modellelemente vor der Wirkung von RESET bewahren
  9. Welche Modellelementklassen bleiben von RESET unberührt?
  10. In welchen Teilfunktionen stimmen RESET und CLEAR überein?
  11. Welche Komponenten eines Modells werden von CLEAR nicht verändert?
  12. Nennen Sie Beispiele unabhängiger und abhängiger Zufallsgrößen in einem Modell!
  13. Wie kann man Modelle im Hinblick auf die Resultatanalyse klassifizieren?
  14. Was versteht man unter einem terminierenden Simulationsexperiment?
  15. Nennen Sie Beispiele für terminierende und nicht terminierende Simulationsexperimente!
  16. Welche Anweisung benutzt man, um in einem GPSS-Modell eine Anlaufphase auszublenden?
SAHome previous next up Englishsmaller fonts Top Line
Last Modified Tue 06-26-12 13:01 GMT Valid CSS!

Comments please to:pelosim@yahoo.com