Zusammenfassung
Unabhängig von komplexitätstheoretischen Überlegungen lassen sich Schwierigkeiten hinsichtlich der Konstruktion und Implementation „adäquater“1 Lösungsverfahren für das Standardproblem im wesentlichen auf zwei Faktoren zurückführen. Einerseits ist dies die Berücksichtigung der Ganzzahligkeitsrestriktion, andererseits die ggf. kaum handhabbare Modellgröße. Gilmore und Gomory formulieren dies, dargestellt am Beispiel einer Verwendung der klassischen Modellierung, wie folgt:
“There are two factors contributing to making this formulation of the cutting stock problem impractical. First is the size of n, which can be enormous ... Second is the restriction to integers.”2
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Die Konstruktion komplexitätstheoretisch effizienter Algorithmen ist aufgrund der Charakterisierung des Standardproblems als NP-schweres Problem wohl nicht realisierbar. (Vgl. in diesem Zusammenhang bzw. zur „P=NP-Frage“ der Komplexitätstheorie Garey/Johnson (1979), S. 32ff. oder Bachem (1980), S. 827ff.) Dementsprechend sind primär solche Lösungsverfahren von Interesse, die in bezug auf die formulierten Beurteilungskriterien das individuelle Anspruchsniveau erfüllen, und daher die Bezeichnung „adäquat” rechtfertigen.
Bekanntlich entspricht der mittels Problemrelaxation erhaltene Iru-Bound bereits „fast immer“ dem optimalen ganzzahligen Zielwert.
Vgl. Kapitel 5 dieser Arbeit.
Zur Abgrenzung explizit vollständiger Ansätze von implizit vollständigen Ansätzen vgl. auch WÄScher (1989), 5.184.
Vgl. Vance U.A. (1994), S. 112.
Der Zielwert \(\left( {\sum\nolimits_{i = 1}^m {{d_i}{l_i}} } \right)/L\) definiert gleichzeitig eine triviale untere Schranke für den optimalen, ganzzahligen Zielwert der Probleminstanz 1D¡ªCSPI (L, m,1,d).
Zur Eigenschaft der Dominanz vgl. Kapitel 2.2.1 dieser Arbeit.
Vgl. Terno U.A. (1987), S.59f.
Vgl. Gilmore/Gomory (1963), S.873.
Unverständlich ist in diesem Zusammenhang, wieso n P 100000 für das Problem Gil63–1 als äußerst ungenaue Abschätzung trotzdem immer wieder angeführt wird, so z.B. bei Thaler (1991), S. 84.
Gilmore/Gomory (1963), S.865.
Vgl. Haessler (1975), S.491 bzw. WÄScher/Gau (1993), S.12.
Vgl. WAscHer/Gau (1993).
The set R. of relevant residual lengths can be determined by a simple algorithm.“ (Dyckhoff (1981), S.1096).
Vgl. Stadtler (1984), S. HÍÌ. und Stadtler (1988), S.105f.
Hinsichtlich der Darstellung eines einfachen Algorithmus zur Berechnung der Permutationslängen vgl. Stadtler (1988), S. 110.
Vgl. Dyckhoff (1981), S.1095. Der Terminus „Auftragsregel“ geht allerdings zurück auf Stadtler, der diese Regel als „cut rule” bezeichnet, vgl. Stadtler (1988), S. 105.
Es sei angemerkt, daß die Begriffe Redundanz der „one-cut“ Variablen ÿ(,,,p) und Redundanz des „one-cut” Schnittmusters (a, ß) im weiteren synonym verwendet werden.
Die Bedingung y >,0 wäre insofern gleichwertig, als sie lediglich die Redundanz und Vernachlässigung des jeweils anderen „one-cut“ Schnittmusters ausdrückt.
Vgl. S Tadtler (1988), S. 105.
Im Gegensatz dazu lassen sich mit der ursprünglichen, restriktiveren Formulierung der Auftragsregel Redundanzen bzgl. der „one-cut“ Variablen des Beispielproblems überhaupt nicht erkennen.
Insbesondere könnte man die Länge ß durch ggf. weitere Zerlegung der Residuallänge des Musters (a, r(a-ß)) erhalten, so daß die Eliminierung der Variablen p) die Menge zulässiger Lösungen eines speziellen Problems nicht einschränkt.
Vgl. Stadtler (1988), S.106, der diese Regel als „cut rule“ bezeichnet.
Man beachte die Analogie in der Argumentation im Zusammenhang mit der Motivation der Auftrags-und Schnittregel.
Dieses Ergebnis läßt allerdings unberücksichtigt, daß ggf. auch Reduktionsregeln im Zusammenhang mit der klassischen Modellierung eingesetzt werden könn(t)en.
Ein Problem mit r(L) E L läßt sich durch entsprechende Modifikation jeweils auf ein äquivalentes Problem mit r(L) L zurückführen.
Vgl. auch Dyckhoff (1981), S.1100 mit einer bis auf den Term „+1“ identischen Abschätzung.
Vgl. Dyckhoff (1981), S.1100.
Vgl. Gau/WÄScher (1995), S.577, Tabelle 3.
Eine entsprechende Abbruchbedingung terminiert die Berechnung ansonsten vorzeitig.
Der Deskriptor d ist lediglich von Bedeutung für die Struktur der „rechten Seite“ des linearen Programms, sowohl bei Verwendung des One-Cut Ansatzes als auch bei Verwendung des klassischen Ansatzes, und kann daher im weiteren vernachlässigt werden.
Man beachte, daß eine derartige Aussage implizit bereits in der Abschätzung (4.12) der Anzahl der Restriktionen zum Ausdruck kommt.
Eine maximale Anzahl von Restriktionen ergibt sich genau dann, wenn die kleinste Nachfragelänge den Wert „1“ hat, d.h. min{)31/3 E,C} = 1, unabhängig vom Wert der anderen Nachfragelängen.
Vgl. hierzu auch die Argumentation im Zusammenhang mit dem Einfluß der Reduktionsregeln auf die Anzahl der Restriktionen.
Vgl. z.B. Problem Nr. 3 mit einer Reduktion von 219928 auf 219251 Variablen, was einer prozentualen Reduktion von 0, 003% entspricht.
Wegen L = 10000 erhält man als obere Schranke 250 000 für m. = 25, 500 000 für m = 50 und 750 000 für m = 75.
In einem Beitrag aus dem Jahr 1993 äußert sich Greenberg diesbezüglich wie folgt:,,A great deal of research and development activity in large-scale linear programming (LP) has been devoted to solve problems faster. (¡) Even microcomputers can handle thousands of equations and variables, and supercomputers have been used for problems with millions of variables!“ (Greenberg (1993), S.56).
Vgl. auch den Modellgrößenvergleich bei WÄScher (1989), S. 176ff. Für die Anzahl der Variablen bei Verwendung des One-Cut Ansatzes wird dort als größter Wert 6314 bzw. für die Anzahl der Variablen 952 ausgewiesen, bei Verwendung des klassischen Ansatzes 2363 bzw. 24.
Vgl. Gilmore/Gomory (1961), S. 849ff. bzw. Gilmore/Gomory (1963), S. 863ff.
Hinsichtlich eines Überblicks weiterer möglicher Anwendungsbereiche vgl. z.B. Golden (1976), Haessler (1980), Hinxman (1980) oder Farley (1988).
Vgl. ChvÂTal (1983), S. 97ff. und S.195ff.
Zur Äquivalenz der Formulierung des relaxierten Problems mit „>¡± oder „_“ Restriktionen vgl. die Ausführungen in Kapitel 2.6 dieser Arbeit.
Man beachte, daß wegen (n ¡ª m) n die Anzahl der in AN enthaltenen Schnittmuster ebenfalls „astronomische“ Größenordnungen erreicht, sofern dies für n gilt.
Wählt man seed = 1961 für die notwendige Initialisierung des Generators, handelt es sich speziell um das 891 te, mit einer derartigen Parametereinstellung bestimmte Problem.
Man beachte, daß die mit einer derartigen Initialisierung bestimmten Schnittmuster nicht notwendigerweise dominierend sind. Bezüglich einer detaillierteren Beschreibung und Diskussion alternativer Möglichkeiten der Initialisierung vgl. Kapitel 4.2.3.2 dieser Arbeit.
Das Vorgehen zur Bestimmung einer optimalen Lösung des betrachteten Rucksackproblems, vgl. Kapitel 4.2.3.3 dieser Arbeit, wird hier nicht erörtert. Vielmehr wird im weiteren die Verfügbarkeit eines entsprechenden Algorithmus für das Rucksackproblem jeweils vorausgesetzt.
Die untere Dreiecksmatrix L sei dabei o.B.d.A. derart gewählt, daß für die Hauptdiagonalelemente 1;; = 1 gilt (i = 1,¡, m). Zur Durchführung und Implementation einer LU-Dekomposition vgl. z.B. Press U.A. (1992), S. 34ff., wobei der Verfasser sich im folgenden auf eben diese Quelle bezieht.
Zur Darstellung von Verfahren und Ansätzen dieses Anspruchs vgl. Chvatal (1983), S. 405ff. oder auch Gill U.A. (1991) sowie die dort angegebene Literatur.
Vgl. Dantzig/Orchard-Hays (1954).
Eine Kenntnis der Basisinversen der vorherigen Iteration wird dabei jeweils vorausgesetzt, entweder explizit oder implizit über das Produkt von Eta-Matrizen (Eta-Faktorisierung), vgl. ChvnTal (1983), S. 105ff.
Man beachte, daß die Basisinverse der zur Initialisierung verwendeten Diagonalmatrix ABait) wiederum Diagonalmatrix ist, wobei die Diagonalelemente jeweils Kehrwert der Diagonalelemente von Air) sind.
Die Einheitsvektoren e.1 definieren Schnittmuster, da unabhägig von der speziellen Wahl der Inputparameter ~i“ e;j 1; = < L gilt. Die mit Einheitsvektoren korrespondierenden Schnittmuster sind allerdings nicht notwendigerweise dominierend.
Falls eine exakte Erfüllung der Nachfragequantitäten (Bedarfe) unterstellt wird, ist es sogar der schlechtest mögliche Zielwert.
Vgl. Gilmore/Gomory (1961), S. 853f., WÄScher (1989), S. 209 oder Farley (1988), S. 117f.
Insbesondere ist der erhaltene Zielwert nie schlechter (größer) als der mit AB = I erhaltene.
Aufgrund der Diagonalstruktur von A ergibt sich unmittelbar die geforderte lineare Unabhängigkeit der Spalten bzw. wegen \(\sum\nolimits_{i = 1}^m {{\lambda _{ij}}{l_i}} \) = [L/1, J 1,< L die Gültigkeit der Schnittmusterrestriktion für alle Spalten a.i (j = 1,¡, m) der Initialisierungsmatrix A.
Das Kriterium „Güte des Initialzielwertes“ ergibt sich als Konsequenz der Annahme einer positiven Korrelation bzgl. der Abweichung dieses Zielwertes von dem der optimalen Lösung und dem zur Bestimmung einer optimalen Lösung noch erforderlichen Berechnungsaufwand: „If the initial value of the objective function is close to the optimum value, then the number of simplex iterations required to reach the optimum is likely to be small.” (ChvÂTal (1983), S.207).
Man könnte in diesem Zusammenhang auch von einer (schwachen) Dominanz gegenüber der Initialisierung mit AB = A sprechen.
Zur Berechnung einer Ausgangslösung in der dargestellten Form vgl. Chvatal (1983), S. 207f.
Die Möglichkeit der „Transformation“ in eine reguläre, untere Dreiecksmatrix ist trivial, so daß auf einen expliziten Beweis an dieser Stelle verzichtet wird.
Zur Bezeichnung „Rpe-Technik“ bzw. in der Literatur alternativ verwendeter Terminologien vgl. WÄScher (1989), S. 216.
Grundsätzlich wird bei Rpe-Techniken ein Anspruchsniveau festgelegt, um „gute“ Schnittmuster hinsichtlich des Verschnitts auszuwählen. Im vorliegenden Fall lautet das Anspruchsniveau daher vereinfachend, nur Muster mit minimalem Verschnitt als „gut” zu bezeichnen.
Daß die Dimension der Rucksackprobleme, i.e. die Mächtigkeit der Menge R., in jeder Iteration um eins reduziert wird, sollte allerdings berücksichtigt werden, obwohl dies die Aussage hinsichtlich der Relation des Rechenaufwands nur geringfügig relativiert.
Vgl. SImcHI¡ªLEvi (1994), S. 580f. und Baker (1985), S.49ff. bzw. als Referenzquelle zur „worst-case“ Analyse von Bin-Packing Heuristiken Johnson U.A. (1974). Hinsichtlich einer Übertragbarkeit der Ergebnisse auf das relaxierte Standardproblem vgl. Chvatal (1983), S. 208.
Die Eigenschaft xo Pt » 1 ist für Probleminstanzen 1D¡ªCspi mit d i » 1 für i = 1,¡, m auch tatsächlich ohne wesentliche Einschränkung erfüllt.
Der Verschnitt des mit Rpe-Initialisierung zuletzt bestimmten Schnittmusters des vorangegangenen Beispiels, i.e. a.4 = (4, 0, 0, 0)t, ist mit y4 = 76 schlechter als alle mit Ffd-Initialisierung bestimmten Schnittmuster desselben Beispiels.
Vgl. Kapitel 4.2.1.1 dieser Arbeit und den dargestellten Zusammenhang zwischen spaltenerzeugendem Verfahren und revidiertem Simplexalgorithmus.
Hinxman (1980), S. 11.
Vgl. z.B. die Monographie von Martello/Toth (1990) sowie die dort angegebene Literatur oder auch neuere Arbeiten wie die von Pisinger (1995) oder die in einem Sonderheft der Zeitschrift Infor (Volume 32, No. 3) des Jahres 1994 enthaltenen Beiträge zum Thema Rucksackprobleme. Das Infor-Sonderheft liefert darüber hinaus einen Überblick zum State-of-the-Art von Rucksack-und verwandten Problemen.
Zur komplexitätstheoretischen Einordnung des Rucksackproblems vgl. z.B. Garey/Johnson (1979), 5.247; für das unbeschränkte Rucksackproblem Martello/Toth (1990), S.92 bzw. die dort angegebene Arbeit von Lueker (1975).
Hinsichtlich einer Definition und Abgrenzung unbeschränkter Rucksackprobleme von solchen anderer Eigenschaften vgl. Kapitel 2.4 dieser Arbeit.
Algorithmen für das unbeschränkte Rucksackproblem auf Grundlage dynamischer Programmierung findet man z.B. in den Arbeiten von Garfinkel/Nemhauser (1972), Greenberg/Feldman (1980), Greenberg (1985) oder Greenberg (1986).
Martello/Toth (1990), S. 96.
Vgl. Martello/Toth (1990), S.100.
Vgl. Gilmore/Gomory (1963), S.866f.
Interpretiert man die Größen ÿi, li als Gewinn bzw. Gewicht der einzupackenden Gegenstände i, liegt einer absteigenden Ordnung der Quotienten ÿi/li (i = 1,¡, m) die Gegenstände mit größerem „Gewinn pro Gewichtseinheit“ gegenüber solchen mit kleinerem „Gewinn pro Gewichtseinheit” a priori als besonders vorteilhaft für eine Mitnahme im Rucksack anzusehen.
Gilmore, Gomory bezeichnen ein solches Vorgehen als „extension“, vgl. Gilmore/Gomory (1963), S.867.
Die Darstellung des Branch-and-Bound Ansatzes zur Lösung unbeschränkter Rucksackprobleme erfolgt in Anlehnung an CxvÂTal (1983), S. 206.
Daß Komponenten des Lösungsvektors, die mit nicht-positiven Koeffizienten 9i korrespondieren, von vornherein vernachlässigt werden können (ÿ; < 0. a; = 0), ist trivial und sei hier lediglich der Vollständigkeit halber erwähnt.
Die Äquivalenz der Probleme resultiert aus der Invarianz der Lösungsmenge hinsichtlich einer Multiplikation der Zielgleichung mit einer Konstanten, im vorliegenden Fall mit dem Hauptnenner 594. Letzteres erfolgte allerdings einzig aus darstellungstechnischen Gründen, da für eine Anwendung des dargestellten Branch-and-Bound Ansatzes die Ganzzahligkeit der Koeffizienten nicht vorausgesetzt zu werden braucht.
Für die Berücksichtigung eines als „identical prices“ bezeichneten Dominanzkriteriums vgl. Gil- More/Gomory (1963), S. 868f.
Hinsichtlich einer detaillierteren Darstellung von Mtu2 verweist der Verfasser auf Martello/Toth (1990), S. 91ff.
Vgl. Kapitel 4.2.1.2 dieser Arbeit.
Für Aussagen, die das „worst-case“ Verhalten der Greedy-Heuristik betreffen vgl. z.B. Magazine (1975).
Eine derartige Aussage gilt sicher nicht allgemein, aber doch zumindest für das Gros von Problemen „moderater“ Größe, z.B. solche mit m < 200.
Vgl. auch die Abbildungen bei Farley (1990), S.923.
Gilmore/Gomory (1963), 5.878.
Vgl. Z.B. Bazaraa U.A. (1990), S. 109.
Vgl. Bland (1977), S.103ff. Dort wird diese Regel als „minimum index rule“ bezeichnet. Hinsichtlich der Darstellung und Diskussion weiterer, alternativer Pivotregeln vgl. z.B. den Übersichtsaufsatz von Terlaky/Zhang (1993), S. 203ff.
Vgl. Gilmore/Gomory (1963), S.876.
Vgl. Gilmore/Gomory (1963), S. 876.
Gilmore/Gomory (1963), S.878. Man beachte, daß aufgrund der Formulierung der Nachfragerestriktionen als Gleichungen Inputminimierung und Verschnittminimierung äquivalente Ziele darstellen.
Farley (1990), 5.922.
Vgl. Kapitel 5 dieser Arbeit.
Hinsichtlich der allgemeineren Überlegungen von Farley zu einer möglichen Fehlerabschätzung auf Grundlage der Dualitätstheorie vgl. Farley (1990), S. 922f.
Es handelt sich hierbei um ein zentrales Ergebnis der Dualitätstheorie, das allgemein auch als „schwaches Dualitätstheorem“ bezeichnet wird.
Da nicht notwendigerweise in jeder Iteration eine weitere Verbesserung der Schranke S realisiert werden kann, ergibt sich S damit als Maximum der bereits bestimmten Schranken.
Das angeführte Problem ist mit dem ersten Beispielproblem in Abbildung 4.1, vgl. Kapitel 4.2.4 dieser Arbeit, identisch.
Vgl. Gilmore/Gomory (1963), S. 869.
Vgl. Vance U.A. (1994). Die Autoren verwenden für die Rechentests eine Ibm RS 6000/550 sowie das kommerzielle Programmpaket Minto.
Zur Abgrenzung der Problemtypen „Bin-Packing“ und „Cutting Stock” vgl. Kapitel 2.4 dieser Arbeit.
Hinsichtlich einer ausführlichen Darstellung und Diskussion dieser Ansätze vgl. Kapitel 4.2.3.2 dieser Arbeit.
Letzteres belegen vorgeschaltete Analysen des Verfassers, auf deren Präsentation allerdings im weiteren verzichtet wird. Vgl. auch Gnu/WÄScher (1995), S. 576ff. bzw. die dort angeführten Ergebnisse bzgl. der Relevanz einzelner Deskriptoren.
Vgl. auch das im Anhang dieser Arbeit tabellarisch aufbereitete Datenmaterial, das den Abbildungen 4.3 und 4.4 zugrundeliegt.
Es konnten insgesamt drei derartige Ausreißerergebnisse identifiziert werden. Der Anteil der Rechenzeit des jeweiligen Problems an der Gesamtrechenzeit der betreffenden Klasse von 100 Problemen beträgt dabei 40% (Diagonal-Initialisierung, m = 30), 50% (Ffd-Initialisierung, m = 40) und 68% (Rpe-Initialisierung, m = 50).
Die Bestimmung einer optimalen Lösung von Rucksackproblemen der betrachteten Größenordnung erweist sich zwar im allgemeinen als unkritisch, doch können „schwierige“ Probleme trotzdem vereinzelt auftreten.
computations seem to show a clear advantage in using the maximization [exact; d. Verf.]algorithm. The advantage in reducing the number of pivots is quite large; the saving in running time is not as striking but still considerable, especially on the longer run problems.“ (Gilmore/Gomory (1963), S. 877).
Vgl. auch das im Anhang dieser Arbeit zusammengefaßte Datenmaterial, das die dargestellten Ergebnisse noch um solche für y2 = 0, 75 und v2 = 1,00 ergänzt.
Es sei nochmals darauf hingewiesen, daß mit der Anwendung der Greedy-Heuristik nicht notwendigerweise auch jeweils eine neue Basisspalte bestimmt werden kann, d.h. eine zusätzliche Anwendung des exakten Verfahrens Mtu2 (trotzdem) ggf. erforderlich ist.
Vgl. die Ausführungen in Kapitel 4.2.4 dieser Arbeit.
Beide Verfahren verfolgen zwar das Prinzip einer lexikographischen Enumeration, der Suchbaum von Mtu2 wird aber durch Anwendung zusätzlicher Dominanzkriterien, Reduktionsmechanismen etc. im allgemeinen deutlich schneller abgearbeitet. Letzteres dokumentiert u.a. ein vom Verfasser durchgeführter Vergleich des Algorithmus Mtu2 mit einer ad-hoc Implementation des in Kapitel 4.2.3.3 (Tafel 4.5) beschriebenen Branch-and-Bound Ansatzes.
Vgl. auch das im Anhang dieser Arbeit tabellarisch aufbereitete Datenmaterial, das die dargestellten Ergebnisse noch um solche für v2 = 0, 25, v2 = 0,75 und v2 = 1, 00 ergänzt.
Die Rechenzeitangaben für eine Invertierung der Basismatrizen basieren auf einer Verwendung von „Numerical Recipes“ Routinen, vgl. Press U.A. (1992), S.40.
Vgl. auch die „worst-case“ Betrachtungen bzgl. des Ffd-Ansatzes in Kapitel 4.2.3.2 dieser Arbeit. Tatsächlich beträgt die durchschnittliche Abweichung vom optimalen Zielwert nie mehr als 2%.
Das Auftreten identischer Zielwerte bei Initialisierung mit Ffd bzw. Rpe erkennt man in Tabelle 4.8 daran, daß eine Addition der entsprechenden Ffd- und Rpe-Werte nicht die Gesamtzahl der Probleme einer Klasse, nämlich 100, ergibt.
Vgl. in diesem Zusammenhang auch die Ausführungen in Kapitel 4.2.3.2 dieser Arbeit.
Chve1Tal (1983), S.207.
Vgl. auch das im Anhang dieser Arbeit enthaltene Datenmaterial, das die dargestellten Ergebnisse noch um solche für v2 = 0, 25, v2 = 0, 75 und v2 = 1, 00 ergänzt.
Die Gesamtrechenzeit wird in Tabelle 4.9 nicht explizit ausgewiesen. Man erhält sie allerdings unmittelbar durch Multiplikation der Anzahl der Iterationen mit der durchschnittlichen Rechenzeit.
Eine plausible Erklärung dieses Ergebnisses erfordert zusätzliche, detailliertere Analysen. Der ggf. mögliche Erkenntnisgewinn ist aber vergleichsweise gering, so daß in diesem Zusammenhang auf derartige Analysen verzichtet wird.
Diese Aussage stützt sich auf Ergebnisse des Verfassers für die Klassen mit v2 = 0, 25, v2 = 0, 75 und v2 = 1, auf deren explizite Darstellung allerdings verzichtet wird.
Gilmore/Gomory (1963), S. 876f.
Cgrep steht als Abkürzung für Column Generation Reference Procedure.
Zur Darstellung des allgemeinen Vorgehens einer Ffd-Initialisierung vgl. ChvÂTal (1983), S. 207f. bzw. Tafel 4.3 in Kapitel 4.2.3.2 dieser Arbeit.
Vgl. Press U.A. (1992), S. 38ff.
Vgl. Kapitel 4.2.3.1 dieser Arbeit.
Vgl. in diesem Zusammenhang die Ausführungen in Kapitel 4.2.3.1 dieser Arbeit, speziell auch das dort angeführte numerische Beispiel.
Vgl. Martello/Toth (1990), S. 98f.
Vgl. Martello/Toth (1990), S. 254ff. bzw. die auf einer beiliegenden Diskette enthaltenen Programmcodes.
Die Mtu2-Implementation von Martello und Toth setzt grundsätzlich die Ganzzahligkeit aller Inputparameter des Rucksackproblems voraus.
Vgl. Gilmore/Gomory (1963), S. 876f. bzw. die Ausführungen in Kapitel 4.2.4.2 dieser Arbeit.
Dem liegt die Vorstellung zugrunde, nicht zahlreiche erfolglose Median-Iterationen duchführen zu müssen, da weitere Zielwertverbesserungen ggf. nur noch durch eine potentielle Berücksichtigung aller Nachfragelängen realisierbar sind.
Vgl. Stadtler (1990), S. 216f.
Vgl. Pierce (1964), S. 195.
Vgl. Stadtler (1990), S.217.
Vgl. WÄScher/Gau (1993), S.20.
Entsprechende Relationen ergeben sich auch in bezug auf die anderen Probleme, für die Stadtler die Rechenzeit des spaltenerzeugenden Verfahrens explizit angibt, und damit einen notwendigen Vergleichsmaßstab herstellt. Ob und in welchem Umfang speziell der Einsatz der Implementation Cgrep zu einer derartigen Reduktion der Rechenzeiten beitragen kann, läßt sich daraus natürlich nicht ableiten.
Die Klassen zur Bestimmung der Benchmark-Probleme werden charakterisiert durch Variation der Deskriptoren m, v2 und d. Als kleinstmögliche Nachfragelänge wird jeweils der Wert 1 angenommen (L = 10000, v1 = 0, 0001). Für eine weitere Spezifikation der Benchmark-Probleme, vor allem in bezug auf eine potentielle Reproduzierbarkeit, vgl. Gnu/WÄScher (1995), S. 576f.
Vgl. auch Kapitel 5 dieser Arbeit.
Die Gesamtrechenzeit beträgt dann 1268,2sec. bei insgesamt 17551 Iterationen.
Vgl. Stadtler (1988), S. 97ff.
Motivation und Rechtfertigung für eine solche Aussage liefern die in dieser Arbeit dargestellten Rechenergebnisse und Analysen.
Stadtler (1988), S.108.
Vgl. WÄScher (1993) bzw. die dort angegebenen Rechenzeiten sowie die in dieser Arbeit dargestellten Ergebnisse für das spaltenerzeugende Verfahren.
Eine solche Proportionalitätsrelation mit 0,75sec. Rechenzeit für jeweils 1000 „one-cut“ Variablen wurde vom Verfasser in bezug auf die verwendete Konfiguration empirisch ermittelt.
Die Existenz von Null-(Spalten) Vektoren in diesem Teil der Koeffizientenmatrix läßt sich durch die Einführung sogenannter Transfervariablen und Berücksichtigung zusätzlicher Bilanzrestriktionen für jede der Nachfragelängen ausschließen, vgl. Stadtler (1988), S. 100f. Auf eine formale Darstellung dieses primär technischen Vorgehens wird allerdings hier und im weiteren verzichtet.
Zur Darstellung des Algorithmus Net/LP vgl. Glover/Klingman (1981), S. 148ff. Für einen Überblick zu Lösungsansätzen für „embedded network problems“ vgl. Mcbride (1985), S.82ff. oder Bazaraa U.A. (1990), S.476 und die dort angegebene Literatur.
Stadtler (1988), S. 108.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 1997 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
Gau, T. (1997). Ansätze zur Lösung des relaxierten Standardproblems. In: Lösungsverfahren für das Standardproblem eindimensionalen Zuschneidens. Produktion und Logistik. Physica, Heidelberg. https://doi.org/10.1007/978-3-662-12398-0_4
Download citation
DOI: https://doi.org/10.1007/978-3-662-12398-0_4
Publisher Name: Physica, Heidelberg
Print ISBN: 978-3-7908-1007-3
Online ISBN: 978-3-662-12398-0
eBook Packages: Springer Book Archive