Schwerpunktthema: Ausgewählte Beiträge von den Workshops der BTW 2013

Die Konferenz „Datenbanksysteme für Business, Technologie und Web (BTW)“ wird vom Fachbereich Datenbanken und Informationssysteme (DBIS) der Gesellschaft für Informatik (GI) in einem zweijährigen Turnus organisiert und stellt das zentrale Forum der Datenbank-Communities in Deutschland, in Österreich und in der Schweiz dar. Die BTW 2013 wurde in der Woche vom 11. bis 15. März 2013 an der Otto-von-Guericke-Universität Magdeburg veranstaltet, in deren Kontext auch erfreulich viele Workshops zu aktuellen oder sich abzeichnenden Themen der Datenbankforschung stattfanden. Neben dem Studierendenprogramm, das sich seit 2001 als feste Veranstaltung im Rahmen der BTW etabliert hat, wurden bei der BTW 2013 folgende Workshops durchgeführt: Data Streams and Event Processing (DSEP), Data Management in the Cloud (DMC), Information Systems in Digital Engineering (ISDE 2013), Databases in Biometrics, Forensics and Security Applications (DBforBFS), Mapping Research in Mobility and Mobile Information Systems (MMSmap 2013), Crowd-enabled Data and Information Management (CDIM).

Um aktuelle Forschungstrends im DBIS-Bereich aufzuzeigen, wurde von den vier erst genannten Workshops und dem Studierendenprogramm jeweils ein Beitrag für dieses Heft des Datenbankspektrums ausgewählt. Im Vergleich zur Workshop-Version haben die eingeladenen Autoren ihre Beiträge substanziell erweitert und verbessert. Diese „Best Papers“ wurden erneut streng begutachtet und in zwei Runden revidiert, bevor sie zur Publikation angenommen wurden.

Im ersten Beitrag mit dem Titel JEPC: The Java Event Processing Connectivity geben Bastian Hoßbach, Nikolaus Glombiewski, Andreas Morgen, Franz Ritter und Bernhard Seeger (Universität Marburg) einen Überblick über Probleme der Ereignisverarbeitung (EP: Event Processing), die interessante, benutzerdefinierte Situationen in Datenströmen zu erkennen erlaubt. Da für die Ereignisverarbeitung bisher keine Standards eingeführt wurden, weisen existierende EP-Systeme heute einen hohen Grad an Heterogenität auf, was nicht nur auf die angebotenen APIs, sondern auch auf die Anfragesprachen und deren Semantik zutrifft. Um dieser Heterogenität zu begegnen, führt der Beitrag die Middleware JEPC ein, die unabhängig vom darunterliegenden EP-System eine einheitliche EP-Funktionalität für Java unterstützt. Es wird gezeigt, wie sich durch den Einsatz von JEPC neben EP-Systemen auch Datenbanksysteme integrieren lassen. Durch eine neuartige JDPC-Brücke ist es dann möglich, dass auch ein Datenbanksystem EP-Funktionalität über die JEPC-Middleware anbietet. Umfangreiche Leistungsanalysen für die Ereignisverarbeitung vergleichen die Vor- und Nachteile des direkten Einsatzes von EP-Systemen und mit denen von Datenbanksystemen, die über eine JDPC-Brücke angebunden sind.

Im folgenden Beitrag beschreiben Ziqiang Diao, Eike Schallehn, Shuo Wang und Siba Mohammad (Otto-von-Guerike-Universität Magdeburg) in ihrem Beitrag mit dem Titel Cloud Data Management for Online Games: Potentials and Open Issues aktuelle Probleme bei der Entwicklung von Massen-Mehrspieler-Online-Rollenspielen (MMORPGs: Massively Multiplayer Online Role-Playing Games), die ausschließlich über das Internet gespielt werden und bei denen Millionen von weltweit verteilten Spielern beteiligt sein können. Sie werden im Spiel von Spielfiguren repräsentiert, die zusammen mit der gesamten Spielwelt typischerweise auf geographisch verteilten Servern verwaltet werden. Die einzelnen Spieler verbinden sich mit solchen Servern und greifen dann über ein Client-Programm in das Spielgeschehen ein, wobei üblicherweise nur die Daten zur Darstellung ihrer Sicht auf die Spielwelt (Grafik, Objekte, Musik, …) zum jeweiligen Client übertragen werden. Mit der Anzahl der Spielern wächst die Datenmenge an verschiedenartigen Daten, die ein MMORPG zu verwalten hat. Bei solchen Datenmengen und den hochgradig parallelen Zugriffen im Spielverlauf könnte ein relationales Datenbanksystem schnell zu einem Flaschenhals werden, der auch durch Hinzufügen von Servern nicht aufgelöst werden würde. Die aufkommenden Cloud-basierten Speichersysteme bieten für solche Spielanwendungen ausreichende Skalierbarkeit und Leistung, sind jedoch für eine transaktionsbasierte Verarbeitung mit entsprechenden Konsistenzgarantien wenig geeignet. Um adäquate Lösungen für die Datenhaltung zu finden, untersucht dieser Beitrag existierende MMORPG-Architekturen und klassifiziert die zu verwaltenden Daten. Als Folge werden wichtige Entwurfsanforderungen für MMORPGs abgeleitet und daraus resultierende Herausforderungen für die DB-Forschung identifiziert. Erprobt werden sollen diese Konzepte und Überlegungen in einem laufenden Projekt, in dessen Rahmen momentan ein Cloud-basiertes MMORPG-System als Testumgebung für weitere Evaluationen implementiert wird.

Der dritte Beitrag On the Integration of Electrical/Electronic Product Data in the Automotive Domain – Challenges, Requirements, Solutions von Julian Tiedeken (Universität Ulm), Joachim Herbst (Forschung & Produktentwicklung MBC, Daimler AG) und Manfred Reichert (Universität Ulm) liefert einen Einblick in die Anforderungen von Entwurf und Verwaltung von DB-basierten Produktdaten, insbesondere bei elektrischen und elektronischen Komponenten (E/E). Die wachsende Komplexität der E/E-Komponenten und ihrer zahlreichen Abhängigkeiten sowie die Notwendigkeit, schnell auf von außen kommende Anforderungen/Einflüsse (Änderung von Vorschriften, Produktinnovationen usw.) reagieren zu müssen, erfordern ein hochentwickeltes E/E-Produktdatenmanagement. Da E/E-Produktdaten gewöhnlich von einer Vielzahl verteilter und heterogener IT-Systeme verwaltet und verändert werden, ist insbesondere die Garantie durchgängiger Konsistenzanforderungen über verschiedenartige Anwendungen hinweg eine schwierige Aufgabe. Zur Lösung der anfallenden Probleme identifiziert der Beitrag vier fundamentale Herausforderungen, beschreibt die typischen Vorgaben aus den praktischen Anwendungen und bestimmt daraus die entsprechenden Anforderungen an das E/E-Produktdatenmanagement. Basierend auf diesen gründlich diskutierten Anforderungen werden schließlich die Konzepte für ein Framework zur partiellen Integration von E/E-Produktdaten abgeleitet.

Stefan Kirst (FH Brandenburg) und Martin Schäler (Otto-von-Guerike-Universität Magdeburg) skizzieren in ihrem Beitrag Database and Data Management Requirements for Equalization of Contactless Acquired Traces for Forensic Purposes – Provenance and Performance eine neuartige Anwendung für Datenbanksysteme und entwickeln dafür neue Anforderungen für die Datenbankverwaltung. Im Bereich der Kriminalistik und Forensik sind die Erfassung und Verarbeitung von Fingerabdrücken und Mikrospuren von enormer Bedeutung, wobei insbesondere deren Integrität bei der Spurenerfassung gewahrt werden muss. Dabei sind Methoden der kontaktlosen Spurensicherung besonders wichtig, da die Integrität der Spuren erhalten bleibt und die Wiederholbarkeit ihrer Erfassung gesichert ist. Jedoch sind perspektivische Verzerrungen möglich, deren Verhinderung spezielle Vorkehrungen erfordert. In diesem Beitrag werden die Anforderungen an die Datenbankverwaltung untersucht, um einen produktiven Einsatz der vorgeschlagenen Methoden unterstützen zu können. Daran schließen sich dann DB-spezifische Leistungsbetrachtungen und eine mögliche Parallelisierung von Abläufen zur Durchsatzoptimierung an.

Der beste Beitrag aus dem Studierendenprogramm mit dem Titel An Interactive System for Visual Analytics of Dynamic Topic Models von Nikou Günnemann und ihren Betreuern Michael Derntl, Ralf Klamma und Matthias Jarke (RWTH Aachen) beschäftigt sich mit der Wissensextraktion und Trendanalyse von Daten im Web und in großen Dokumenten-Repositorien. Für diese Anwendungen sollen visuell-interaktive Analysesysteme herangezogen werden, um auch den Endbenutzer bei seinen Explorationsaufgaben unterstützen zu können. Der Beitrag beschreibt D-VITA als ein interaktives Textanalysesystem, das latente Themenstrukturen und ihre Dynamik in einer Kollektion von Dokumenten erkennen kann. Es unterstützt den Endbenutzer durch interaktive Visualisierungen der Themenevolution in Dokumentkollektionen. Weiterhin erleichtert es die Analyseaufgaben, wobei die Recherche von Dokumenten durch Schlüsselwortsuche oder Ähnlichkeit ihrer Themenverteilung gesteuert werden kann. Eine Reihe von empirischen Evaluationen bestätigten die Nützlichkeit und Nutzbarkeit von D-VITA für die Trendanalyse bei verschiedenartigen Datenquellen.

Die fünf Schwerpunktbeiträge werden ergänzt durch einen Fachbeitrag Möglichkeiten und Konzepte zur XML-Schemavalidierung am Beispiel von DB2 for z/OS V9.1 von Christoph Koch (Friedrich-Schiller-Universität Jena). Das relationale Datenbanksystem DB2 for z/OS V9.1 von IBM ermöglicht durch die pureXML-Technologie die native Speicherung und Verarbeitung von XML-Daten. Hierzu zählen auch Mechanismen zum Umgang mit einem XML-Schema. Der Autor bewertet die existierende Funktionalität von DB2 zur XML-Schemavalidierung anhand eines zuvor erarbeiteten Anforderungsprofils. Zur Ergänzung führt er weitere Konzepte zur XML-Schemavalidierung – die nachträgliche und die automatische Schemavalidierung – ein. Abschließend erörtert er die Frage, inwieweit der Einsatz von datenbankseitiger XML-Schemavalidierung bereits mit DB2 for z/OS V9.1 sinnvoll ist.

Die Rubrik „Datenbankgruppen vorgestellt“ enthält eine Vorstellung des Lehrstuhls für Datenbanksysteme der TUM von Alfons Kemper und Thomas Neumann, in der die Schwerpunkte der letzten Jahre in der Datenbankforschung an der TU München beschrieben und ein Überblick über die Lehraufgaben und Kooperationen gegeben werden. Weiterhin werden in der Rubrik „Dissertationen“ in diesem Heft 6 Kurzfassungen vorgestellt.

In der Rubrik „Community“ beschreiben Johannes Schildgen und Stefan Deßloch (TU Kaiserslautern) in ihrem unterhaltsamen Beitrag „Gib mir so viel Gold, wie die Metzger im Nachbardorf zusammen besitzen und ich lasse den Piloten frei!“ – Spielbasiertes Lernen von SQL-Grundlagen, wie Schüler oder Studierende sich für das Lernen von SQL begeistern lassen. Wie immer enthält diese Rubrik auch einen Beitrag News mit aktuellen Informationen.

Künftige Schwerpunktthemen

1 Information Retrieval

The amount of available information has increased dramatically in the last decades. At the same time, the way in which this information is presented has changed rapidly: Multimedia data such as audio, images, and video complements or even replaces textual information, user-generated content from blogs or social networks replaces static Web sites, and highly dynamic content such as tweets is published in real-time. Information Retrieval methods allow to quickly find relevant pieces of information for a possibly complex information need from this huge pile of data.

This special issue of the Datenbank-Spektrum aims to provide an overview of recent developments, challenges, and future directions in the field of Information Retrieval technologies and applications.

Topics of interest include (but are not limited to)

  • Crawling, Indexing, Query Processing

  • Information Extraction and Mining

  • Interactive Information Retrieval

  • Personalized and Context-Aware Retrieval

  • Structured and Semantic Search

  • Evaluation and Benchmarking

  • Archiving and Time-Aware Retrieval Models

  • Enterprise Search

  • Realtime Search: Streams, Tweets, Social Networks

  • Multimedia Retrieval

Paper format: 8–10 pages, double column

Notice of intent for a contribution: July 15th, 2013

Guest editors:

Ralf Schenkel, Max-Planck-Institut für Informatik,

schenkel@mpi-inf.mpg.de

Christa Womser-Hacker, Universität Hildesheim,

womser@uni-hildesheim.de

Deadline for submissions: October 1st, 2013

2 Datenmanagement in der Cloud

Anwendungen, Institutionen und Unternehmen müssen mit immer größeren Datenmengen hantieren. Sowohl wissenschaftliche Experimente (z.B. Genomsequenzierung, Teilchenbeschleuniger) als auch die Aufzeichnung menschlicher Aktivitäten (z.B. soziale Netzwerke, Online-Shopping) erzeugen Datenmengen, deren Speicherung und Verarbeitung oft nur noch unter Ausnutzung von Cloud-Infrastrukturen möglich ist. Die Kopplung tausender Rechner ermöglicht dabei eine ökonomische Verarbeitung großer Datenmengen, da die erforderlichen Ressourcen (u.a. Rechenkapazität, Speicherplatz) flexibel „on-demand“ an den Bedarf von Nutzern und Anwendungen angepasst werden können. Gleichzeitig ergeben sich jedoch eine Vielzahl wissenschaftlicher Fragestellungen hinsichtlich der Speicherung, Verarbeitung und Analyse großer Datenmengen. Dieses Themenheft des Datenbank-Spektrums soll einen Überblick über aktuelle Entwicklungen und Herausforderungen im Bereich Cloud-Datenmanagement geben und mögliche Richtungen für Forschung, Lehre und Entwicklung aufzeigen.

Mögliche Themen (Auswahl):

  • Anfrageverarbeitung und -optimierung

  • Datenanalyse

  • Datenschutz und Datensicherheit

  • Benchmarks

  • Ressourcen- und Workload-Management

  • Geschäftsmodelle

Beitragsformat: 8–10 Seiten, zweispaltig

Ankündigung einer Beitragseinreichung bis zum 15. Dezember 2013

Gastherausgeber:

Andreas Thor, Hochschule für Telekommunikation Leipzig

thor@hft-leipzig.de

Stefanie Scherzinger, Hochschule Regensburg

stefanie.scherzinger@hs-regensburg.de

Günther Specht, Universität Innsbruck

guenther.specht@uibk.ac.at

Einreichung der Beiträge bis zum 1. Februar 2014

3 Data Management on New Hardware

Continued progress and evolution of computer hardware and infrastructure provide new optimization opportunities for data management concerning performance, scalability, availability, energy efficiency, and more. The traditional DB focus on I/O optimization is not enough to fully utilize this potential. New aspects include processors (multi-core CPUs, GPUs, FGPAs, etc.), multi-level memory hierarchies, storage systems (storage-class memories such as flash (SSDs) and phase-change memory), or low-power hardware. They impose new challenges and bottlenecks to DB performance, but, in turn, provide opportunities to improve and accelerate data-intensive systems for differing kinds of workloads (e.g., OLTP, DW/OLAP, ETL, Streaming/Realtime, or XML/RDF processing). An important goal is the automatic and transparent adaptation to the new hardware characteristics, thereby achieving maximum gain (e.g., performance, energy efficiency, etc.) for the applications.

A special issue of Datenbank-Spektrum wants to publish research contributions providing an overview over ongoing work in the data management area. Submissions covering topics from the following non-exclusive list are encouraged:

  • Database algorithms (e.g., caching) and data structures (e.g., indexes) on modern hardware

  • Hardware or memory support for query processing

  • Cost models and query optimization for novel hierarchical memory systems

  • Database architectures on multi-threaded and chip multiprocessors

  • Databases and transactional memory systems

  • Database systems supporting energy efficiency and energy proportionality

  • New benchmarks for or performance analysis of database workloads on modern hardware

Paper format: 8–10 pages, double column

Notice of intent for a contribution: April 15th, 2014

Guest editors:

Theo Härder, University of Kaiserslautern,

haerder@cs.uni-kl.de

Jens Teubner, TU Dortmund,

jens.teubner@cs.tu-dortmund.de

Deadline for submissions: June 1st, 2014