Zusammenfassung.
Durch Datenreplikation können prinzipiell schnellere Zugriffszeiten und eine beliebig hohe Fehlertoleranz in verteilten Datenbanksystemen erreicht werden. Anderseits erhöht Replikation die Gefahr von Inkonsistenzen und den Aufwand von Änderungsoperationen. Zur Lösung dieses Zielkonflikts wurden in der Literatur viele unterschiedliche Replikationsverfahren vorgeschlagen. Dieser Überblicksartikel beschreibt die den einzelnen Verfahren zugrundeliegenden Prinzipien zur Replikationskontrolle. Dazu werden die durch den Kopieneinsatz resultierenden Probleme erläutert, daraus Kriterien zur anschließenden Klassifikation abgeleitet und danach ausgewählte Replikationsverfahren näher vorgestellt.
Abstract.
The replication of data promises better performance and a high fault tolerance in distributed systems. However, replication increases the risk of data inconsistencies and the cost of updates. In order to find an appropriate solution for this trade-off many methods for the management of replicated data have been proposed in the literature. In this paper the underlying principles of these replication methods are critically surveyed. The problems caused by data replication are described, a classification schema is derived, and some important replication methods are critically discussed in more detail.
Author information
Authors and Affiliations
Additional information
Eingegangen am 6. Februar 1996 / Angenommen am 12. September 1996
Rights and permissions
About this article
Cite this article
Beuter, T., Dadam, P. Prinzipien der Replikationskontrolle in verteilten Datenbanksystemen. Informatik Forsch Entw 11, 203–212 (1996). https://doi.org/10.1007/s004500050062
Issue Date:
DOI: https://doi.org/10.1007/s004500050062