Zusammenfassung
In diesem Kapitel wird das vorliegende Optimierungsproblem, die Auffindung der optimalen Konfiguration des Systems, untersucht und gelöst. Das System besteht aus verschiedenen Maschinen und zu produzierenden Teilen, die Kosten sind zu minimieren. Die optimale und die nächstbesten Kombinationen der Anzahl der Maschinen der unterschiedlichen Maschinentypen sind zu finden.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Vgl. Abschnitt 2.5.5.
Eine Veränderung des Kostenansatzes würde keine Veränderung des Optimierungsproblems nach sich ziehen, vgl. Abschnitt 4.3.3.
Vgl. insbesondere Abschnitt 3.4.
Vgl. Abschnitt 2.5.5.
Die fiktiven Teiletypen, die die Ausfälle darstellen, sind jeweils auf die Maschinen nur eines Maschinentyps bezogen. Ist in einer Konfiguration die Anzahl Maschinen eines Maschinentyps null, so treten dementsprechend auch keine Ausfälle an Maschinen dieser Art auf. Die Aussage bezieht sich deshalb nur auf die repräsentativen Teile.
Vgl. Abschnitt 2.5.1.
Zur Berechnung der Auslastung vgl. Abschnitt 3.4.2. Aus den Formeln resultiert, daß keine linearen Zusammenhänge für die Berechnung der Auslastungen angegeben werden können.
Statt von Linearer Optimierung wird auch von Linearer Programmierung (LP) gesprochen, vgl. zu LP-Problemen: Hillier, F. S.; Lieberman, G. J.: Introduction to Operations Research, 4. Aufl., Oakland, CA 1986, Part Two.
Hillier, F. S. et al.: a.a.O., S. 432.
Vgl. zu den Begriffen: Papadimitriou, C. H.; Steiglitz, K.: Combinatorial Optimization: Algorithms and Complexity, Englewood Cliffs, New Jersey, 1982, Kap. 1.
Vgl. Hillier, F. S. et al.: a.a.O., Kap. 13.4 ff.; Hu, T. C.: Combinatorial Algorithms, Reading, Massachusetts u.a. 1982, Kap. 4.3; Papadimitriou, C. H. et al.: a.a.O., Kap. 18.
Als einzige untere Schranke kann meist nur null angegeben werden, vgl. dazu auch den nächsten Abschnitt.
Vgl. Hu, T. C.: a.a.O., S. 283.
Vgl. Papadimitriou, C. H. et al.: a.a.O., Kap. 18. 6.
Vgl. Abschnitt 3.1.3.
Vgl. Hu, T. C.: a.a.O., S. 278 ff.; Papadimitriou, C. H. et al.: a.a.O., S. 342 ff. NP steht für nondeter-ministic polynomial.
Für die benötigte Zeit läßt sich eine obere Grenze in Form eines Polynoms angeben.
Vgl. Domschke, W. et al.: a.a.O., S. I l 1 f.
Vgl. Hu, T. C.: a.a.O., S. 279 f.; Aarts, E. H. L.; Laarhoven, P. J. M. van: Statistical Cooling: a general approach to combinatorial optimization problems, in: Philips J. Res. 1985, Vol. 40, No. 4, S. 193–226, hier S. 193.
Vgl. dazu die Optimierungsergebnisse der Beispiele in Abschnitt 4.4.2.
Die Zugehörigkeit zu dieser Klasse läßt sich zeigen, da es sich aber um einen rein mathematischen Beweis mit keinerlei Nutzen für eine betriebswirtschaftliche Arbeit handelt, soll darauf verzichtet werden.
Vgl. dazu Schwefel, H.-P.: Numerische Optimierung von Computer-Modellen mittels der Evolutionsstrategie, Basel 1977, S. 26.
Vgl. Papadimitriou, C. H.: a.a.O., S. 349 f.
Einige Autoren unterscheiden die beiden Begriffe, so z.B. Papadimitriou, C. H. et al.: a.a.O., S. 401, bei anderen wird diese Unterscheidung nicht vorgenommen, so z.B. bei Domschke, W. et al.: a.a.O., S. 112, dort wird nur in exakte und heuristische Verfahren (wobei letztere nicht mit Sicherheit zum Optimum führen) unterteilt.
Eine aussagekräftige Grenze bildet beispielsweise eine kontinuierliche Lösung der bis auf die Gan7zahligkeit übereinstimmenden Problemformulierung.
Vgl. Papadimitriou, C. H. et al.: a.a.O., Kap. 17.
Diese werden auch als Metaheuristik bezeichnet.
Vgl. Papadimitriou, C. H. et al.: a.a.O., S. 454 f., andere Bezeichnungungen sind Iterative Improvement, vgl. Aarts, E. H. L.; Laarhoven, P. J. M. van: a.a.O., S. 195 f., und Hill Climbing, vgl. Grefenstette, J. J.: Incorporating Problem Specific Knowledge into Genetic Algorithms, in: Davis, L., Hrsg.: Genetic Algorithms and Simulated Annealing, London u.a. 1987, S. 42–60, hier S. 53, diese Bezeichnung wird teilweise aber auch für Simulated Annealing verwendet, vgl. Romeo, F.; Sangiovanni-Vincentelli, A.: Probabilistic Hill Climbing Algorithms: Properties and Applications, in: Chapel Hill Conference on VLSI, 1985, S. 393417.
Papadimitriou, C. H. et al.: a.a.O., S. 455.
Als Nachbarschaft werden die Konfigurationen, die einen vorgegebenen Abstand nicht überschreiten, definiert.
Vgl. Dueck, G.; Scheuer, T.; Wallmeier, H.-M.: Toleranzschwelle und Sintflut: neue Ideen zur Optimierung, in: Spektrum der Wissenschaft, März 1993, S. 42–51, hier S. 47.
Vgl. Domschke, W. et al.: a.a.O., S. 113; Hertz, A.; Werra, D. de: The Tabu Search Metaheuristic: How We Used It, in: Annals of Mathematics and Artificial Intelligence, 1 (1990), S. 111–121, hier S. 112 ff.
Vgl. Werra, D. de; Hertz, A.: Tabu Search Techniques, in: OR Spektrum 1989, 11, S. 131–141, hier S. 133
Vgl. Ablay, P.: Optimieren mit Evolutionsstrategien, in: Spektrum der Wissenschaft, o.J., S. 162–173.
In der ES können auch größere Populationen verwendet werden, vgl. Bliimecke, T.: Wunder der Evolution, c’t 1992, Heft 12, S. 228–239, hier S. 232.
Auch nicht bei Schwefel, H.-P.: a.a.O., Kap. 5.1.3 oder 5.2.4: Konvergenzkriterien.
GA ähnelt stark der Evolutionsstrategie mit höherer Populationsanzahl, vgl. hierzu Schwefel, H.-P.: a.a.O. S. 139 ff.
Vgl. Holland, J. H.: Genetische Algorithmen, in: Spektrum der Wissenschaft, September 1992, S. 44–51.
Die Elemente der Population werden allgemein als Lebewesen bezeichnet. Zum Teil wird eine Unterteilung in ‘Eltern’ und ’Kinder’ vorgenommen, vgl. Berchtold, S.: Evolution im Computer, in: c’t 1989, Heft 6, S. 130–138.
Vgl. Goldberg, D. E.: Genetic Algorithms in Search, Optimization, and Machine Learning, Reading, Massachusetts u.a., 1989, Kap. 3: Codings.
Ein Unterschied zwischen GA und ES ist hier sichtbar. Bei ES wird grundsätzlich keine Binärdarstellung gewählt, vgl. Blümecke, T.: a.a.O., S. 235, aber auch bei GA ist sie nicht zwingend.
Bei GA wird auch von ‘Allelen’, ’Chromosomen’ oder ’Genen’ gesprochen, vgl. Goldberg, D. E.: a.a.O., Kap. 1.
Es gibt aber auch GA, in denen jeweils die Gesamtpopulation ersetzt wird, vgl. Nissen, V.: Evolutionary Algorithms for the Quadratic Assignment Problem, Institut für Wirtschaftsinformatik, Abteilung Wirtschaftsinformatik Ian der Universität Göttingen, 1992, S. 1.
Hierin besteht ein deutlicher Unterschied zwischen GA und ES. Bei ES gibt es keine Kreuzung.
Zu mehreren Kreuzungspunkten s. Booker, L.: Improving Search in Genetic Algorithms, in: Davis, L., Hrsg.: Genetic Algorithms and Simulated Annealing, London u.a. 1987, S. 61–73, hier S. 68 oder Eshelman, L. J.; Caruana, R. A.; Schaffer, J. D.: Biases in the Crossover Landscape, in: Schaffer, D., Hrsg.: Proceedings of the Third International Conference on Genetic Algorithms, San Mateo, CA, 1989, S. 10–19, hier S. 14 ff.
GA kann leicht in die falsche Richtung konvergieren, vgl. Grefenstette, J. J.: a.a.O., hier S. 54, einige theoretische Überlegungen zur Wahl der Parameter finden sich bei Goldberg, D. E.; Segrest, P.: Finite Markov Chain Analysis of Genetic Algorithms, in: Grefenstette, J. J., Hrsg.: Genetic Algorithms and their Applications, Hillsdale, New Jersey 1987, S. 1–8.
Vgl. Grefenstette, J. J.: a.a.O., S. 53, Goldberg, D. E.: a.a.O., S. 201 ff.
O.V.: Der Natur abgeschaut: Genetische Algorithmen, in: AXON Ausgabe Juli 1992, o.S.
Vgl. Aarts, E.; Korst, J.: Simulated Annealing and Boltzmann Machines, Chichester u.a. 1990, Part I.
Vgl. Cinlar, E.: a.a.O., Chapter 5.
Vgl. Hajek, B.: Cooling Schedules for Optimal Annealing, in: Mathematics of Operations Research, 1988, Vol. 13, No. 2, S. 311–329.
Blümecke, T.: a.a.O., S. 235.
Grefenstette, J. J.: a.a.O., S. 49.
Vgl. hierzu Abschnitt 4.3.1.1.
Vgl. Schwefel, H.-P.: a.a.O., S. 14 f.
Vgl. Werra, D. de et al.: a.a.O., Kap. 2.7: TS as an Intelligent Search Technique.
Vgl. Abschnitt 4.4.2.2, bei dem dort vorgestellten Beispiel ist die Maschinenanzahl von Maschinentyp 6 bei den besten Konfigurationen grundsätzlich O.
Bei bestimmten Systemkonstellationen treten besondere Probleme auf, vgl. dazu Abschnitt 4.2.1.
Vgl. beispielsweise wieder Blümecke, T.: a.a.O., S. 235.
Auch unter dem Begriff Monte Carlo Annealing oder Statistical Cooling bekannt, vgl. Jepsen, D. W.; Gelatt Jr.,C. D.: Macro Placement by Monte Carlo Annealing, in: IEEE 1983, S. 495–498; Aarts, E. H. L.; Laarhoven, P. J. M. van: a.a.O., S. 194.
Vgl. Laarhoven, P. J. M. van; Aarts, E. H. L.: Simulated Annealing: Theory and Applications, Dordrecht u.a. 1987, S. 7 f., oder Kirkpatrick, S.; Gelatt, Jr., C. D.; Vecchi, M. P.: Optimization by Simulated Annealing, Science 1983, Vol. 220, No. 4598, S. 671–680, hier S. 672.
Vgl. Rossier, Y.; Tryon, M.; Liebling, Th. M.: Probabilistic Exchange Algorithms and Euclidean Traveling Salesman Problems, in: OR Spektrum 1986, S. 151–164, hier S. 157–163.
Vgl. Kämpke, A.: Simulated annealing: use of a new tool in bin packing, in: Ann. Oper. Res. 1988, Vol. 16, S. 327–332.
Vgl. Kirkpatrick, S. et al.: a.a.O., S. 673 ff.
Vgl. Rossier, Y. et al.: a.a.O., S. 152–156; Aarts, E. H. L.; Laarhoven, P. J. M. van: a.a.O., S. 206–211.
Vgl. Abschnitt 3.1.3, Kelly, F. P.: a.a.O., S.1, oder Romeo, F. et al.: a.a.O., S. 401–404.
Vgl. Aarts, E. H. L.; Laarhoven, P. J. M. van: a.a.O., S. 196 ff.
Vgl. Aarts, E. H. L.; Laarhoven, P. J. M. van: a.a.O., S. 197.
Rights and permissions
Copyright information
© 1995 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Dankert, U. (1995). Die Auswahl der optimalen Systemkonfiguration. In: Planung des Designs flexibler Fertigungssysteme. Betriebswirtschaftliche Forschung zur Unternehmensführung, vol 27. Gabler Verlag, Wiesbaden. https://doi.org/10.1007/978-3-663-11048-4_4
Download citation
DOI: https://doi.org/10.1007/978-3-663-11048-4_4
Publisher Name: Gabler Verlag, Wiesbaden
Print ISBN: 978-3-409-13519-1
Online ISBN: 978-3-663-11048-4
eBook Packages: Springer Book Archive