Advertisement

Datenbank-Spektrum

, Volume 17, Issue 3, pp 203–205 | Cite as

Editorial

  • Theo HärderEmail author
Editorial
  • 267 Downloads

1 Schwerpunktthema: Ausgewählte Beiträge von den Workshops der BTW 2017

Der Fachbereich Datenbanken und Informationssysteme (DBIS) der Gesellschaft für Informatik (GI) organisiert in einem zweijährigen Turnus seit 1985 die Konferenz „Datenbanksysteme für Business, Technologie und Web (BTW)“. Diese Konferenz stellt das zentrale Forum der Datenbank-Communities in Deutschland, in Österreich und in der Schweiz dar und fand bereits als 17. Auflage in der Woche vom 6. bis 10. März 2017 an der Universität Stuttgart statt.

Seit 2001 werden in der BTW-Woche stets auch Workshops zu aktuellen oder sich abzeichnenden Themen der Datenbankforschung durchgeführt. Erstmalig haben die Stuttgarter Organisatoren der BTW auch einen Team-Wettbewerb, Data Science Challenge genannt, konzipiert, für den sie die Aufgaben definiert, deren Durchführung überwacht, die sehr unterschiedlichen Lösungen bewertet und schließlich an vier Teams Preise verliehen haben. Neben dem Studierendenprogramm fanden im Rahmen der BTW 2017 fünf Workshops zu folgenden Themen statt:
  • Industrial Applications of Artificial Intelligence (IAAI)

  • Scalable Cloud Data Management (SCDM)

  • Big Data Management Systems in Business und Industrial Applications (BigBIA)

  • Big (and Small) Data in Science and Humanities (BigDS)

  • Präferenzen und Personalisierung in der Informatik (PPI).

Wir haben die Organisatoren und Sieger-Teams des Data Science Challenge gebeten, einen Beitrag über den Wettbewerb und die vier Lösungen vorzubereiten. Außerden haben wir zusammen mit den Organisatoren vier Workshop-Beiträge und einen Beitrag aus dem Studierendenprogramm ausgewählt, um aktuelle Forschungstrends im DBIS-Bereich aufzuzeigen. Für dieses Heft des Datenbank-Spektrums haben die eingeladenen Autoren ihre Beiträge im Vergleich zur Workshop-Version substanziell erweitert und verbessert. Diese „Best Papers“ wurden erneut streng begutachtet, bevor sie nach zwei Revisionsrunden zur Publikation angenommen wurden.

Als Autoren-Kollektiv beschreiben die Organisatoren und die Mitglieder der Sieger-Teams im Beitrag First Data Science Challenge at BTW 2017 die Aufgabenstellung, die Ablaufbedingungen und die zur Verfügung gestellten Datensammlungen des Wettbewerbs, bevor jedes Team seinen Lösungsansatz und seine Ergebnisse skizziert. Dabei wird durch die verschiedenartigen Ansätze deutlich, wie durch Kreativität und Vielfalt bei der Analyse und Exploration großer Datenmengen neue Erkenntnisse gewonnen werden können.

Mit Energy Efficiency in Main-Memory Databases wurde ein sehr aktueller Beitrag aus dem Studierendenprogramm ausgewählt. S. Noll berichtet zusammen mit H. Funke und J. Teubner (TU Dortmund) über Arbeiten zur Reduktion des Energieverbrauchs von Rechnern bei Datenbank-Algorithmen. Insbesondere wird experimentell der Einfluss der Taktfrequenz eines Prozessors und die Reduktion von Prozessorkernen auf die Energieeffizienz bei herkömmlichen Algorithmen wie Scans, Aggregationen und Joins untersucht. Dabei kann auch gezeigt werden, dass die Reduktion ungenutzer Rechnerkapazität auch die Energieeffizienz von im Hauptspeicher ablaufenden Datenbank-Algorithmen erheblich verbessert.

Für die datengetriebene Forschung werden interaktive Systeme benötigt, die eine schnelle und intuitive Datenexploration ermöglichen. Mit dieser Zielsetzung präsentiert der Beitrag VAT: A Scientific Toolbox for Interactive Geodata Exploration (VAT: Visualization, Analysis and Transformation) von Ch. Beilschmidt et al. (Uni Marburg) die Kernkonzepte eines Web-basierten Front-End für das VAT-System, einer verteilten Geo-Anwendung. Das VAT-System soll insbesondere Aufgaben mit räumlich-zeitlicher Datencharakteristik, wie sie z. B. in der Biodiversitäts-Forschung anfallen, unterstützen. Dazu werden neben anderen Leistungsmerkmalen auch solche zur Verwaltung der Zeit und der Generalisierung von Daten hervorgehoben.

In datengetriebenen Unternehmen ist es aus verschiedenen Gründen wichtig, Berechnungsergebnisse aus Rohdaten zu beliebigen Zeiten wiederholen zu können, was bei heterogenen Datentransformationsprozessen und „manueller“ Beteiligung von Domänenexperten sehr schwierig sein kann. Aus diesen Gründen schlagen M. Kricke, M. Grimmer und M. Schmeißer (Uni Leipzig) im Beitrag Preserving Recomputability of Results from Big Data Transformation Workflows Depending on External Systems and Human Interactions eine Systemarchitektur vor, welche die wiederholte Berechnung von solchen Ergebnissen mit Hilfe von Transformations-Workflows über interne und externe Systeme gewährleistet. Dabei können auch erforderliche manuelle Interaktionen aus früheren Datentransformationsprozessen berücksichtigt werden.

Im Allgemeinen ist es unmöglich, ein vollständiges Ranking auf der gesamten Potenzmenge von Objekten zu finden, wobei gemeinsame Eigenschaften wie Dominanz und Unabhängigkeit erfüllt sind.

Da in vielen Applikationen jedoch bestimmte Elemente der gesamten Potenzmenge nicht erforderlich sind und im Ranking-Prozess vernachlässigt werden können, geht der Beitrag Ranking Specific Sets of Objects von J. Maly und S. Woltran (TU Wien) der Frage nach, ob ein solches Ranking für eine gegebene Untermenge der Potenzmenge von Elementen gefunden werden kann. Die Autoren zeigen, dass dieses Problem für partielle Rankings lösbar und für vollständige Rankings NP-vollständig ist.

Ein Recommender-System als Teil eines Informationssystems wird eingesetzt, um einem Benutzer aus einer großen und unüberschaubaren Menge an Objekten (z. B. Nachrichtenartikel, Musikstücke oder Filme) eine kleine und überschaubare Menge von Objekten empfehlen zu können. Solche Recommender-Systeme lassen sich im Live-Betrieb evaluieren, wobei das Verhalten der Benutzer bei der Analyse der System-Empfehlungen ausgewertet wird. Dabei wird gemessen, wie viele Empfehlungen tatsächlich angeklickt werden. Eine besondere Herausforderung ist die zeitnahe Verarbeitung der angefragten Objektmenge, um in einem festgelegten Zeitraum mit Empfehlungen antworten zu können. Im Beitrag Einsatz eines Datenstrommanagementsystems als Framework für Online-Recommender-Systeme am Beispiel der Nachrichtenempfehlungen gibt C. A. Ludmann (Uni Oldenburg) einen Überblick über die Nutzung des Datenstrommanagementsystems »Odysseus«, mit dem durch kontinuierlich laufende Anfragen beliebte Nachrichtenartikel empfohlen werden. Mit diesem System konnte er sich im Rahmen der CLEF NewsREEL Challenge 2016 gegenüber den anderen Teilnehmern behaupten und die meisten Klicks auf seine Empfehlungen erzielen.

2 Fachbeitrag

In einem Fachbeitrag SQL/JSON Standard: Properties and Deficiencies beschreibt Dušan Petković (HS Rosenheim) die Speicherungs- und Zugriffsmöglichkeiten für JSON-Dokumente im Kontext von Relationalen DBMS. Insbesondere erörtert der Autor die JSON-Charakteristika des Standards und zeigt, wie weit sie von verschiedenen Relationalen DBMS integriert wurden. Weiterhin diskutiert er die hauptsächlichen Nachteile des Standards und Möglichkeiten, wie sie beseitigt werden könnten.

Für einen künftigen JSON/SQL-Standard fordert der Autor vor allem, dass JSON-Dokumente „first-class objects“ in SQL werden sollten. Die Handhabung von JSON-Dokumenten würde so größere Benutzungsflexibilität und bessere Performanz bieten.

3 Community-Beiträge

In der Rubrik „Kurz erklärt“ erscheint ein Beitrag zu Data Lakes. Nach einer anschaulichen Motivation erklärt Christian Mathis (SAP SE) die grundlegende Idee hinter diesem Begriff, wobei er die Vielzahl der beteiligten Konzepte und ihre Verflechtungen mit Hilfe einer Topic Map beleuchtet. Weiterhin vertieft er wichtige technologische Aspekte der Funktionalität und Architektur von Data-Lake-Systemen.

Die Rubrik „Dissertationen“ enthält in diesem Heft 7 Kurzfassungen von Dissertationen aus der deutschsprachigen DBIS-Community.

Schließlich berichtet die Rubrik „Community“ unter News über weitere aktuelle Informationen, welche die DBIS-Gemeinde betreffen.

4 Künftige Schwerpunktthemen

4.1 Data Processing in Industrie 4.0

The Data Processing paradigm undergoes several changes recently. In the vision of Industrie 4.0, assets become smart and more autonomous. This leads to new application areas for analytics and data processing in general. We invite submissions on original research as well as overview articles covering topics from the following non-exclusive list:
  • Industrie 4.0 Reference Architectures

  • Sensor Data Streaming

  • Sensor Data Management

  • Digital Twin Technology

  • Analytics in Industrie 4.0
    • Edge Analytics/Fog Computing

    • Sensor Data Analytics

    • Advanced Analytics

Expected size of the paper: 8--10 pages (double-column).

Contributions either in German or in English are welcome.

Deadline for submissions: Oct. 1st, 2017

Issue delivery: DASP-1-2018 (March 2018)

Guest editors:

Bernhard Mitschang, University of Stuttgart

Bernhard.Mitschang@ipvs.uni-stuttgart.de

Harald Schöning, Software AG

Harald.Schoening@softwareag.com

4.2 Big Data Analytics and Exploration

Research around data exploration and analytics studies methods, tools, and systems to integrate and query large amounts of data, understand its properties and characteristics, and extract important, valuable insights. This edition of the Datenbankspektrum calls for contributions from the wide research spectrum.

Topics of interest include, but are not limited to
  • Large-scale data analytics

  • Data analytics over Big Data streams

  • Data integration and data cleansing

  • Data visualization

  • Interactive data exploration and navigation

  • Exploitation of modern hardware

  • In-Database analytics and data exploration

  • Harnessing knowledge bases and ontologies

  • Approximate and online query processing

  • Mining large graphs

We welcome traditional research articles, experience and application reports, proof-of-concept studies as well as benchmark proposals, surveys and experimental studies.

Important dates:
  • Deadline for submissions: February 1st, 2018

  • Issue delivery: DASP-2-2018 (July 2018)

Paper format: 8--10 pages, double column (cf. the author guidelines at www.datenbank-spektrum.de).

Guest editors:

Sebastian Michel, TU Kaiserslautern

smichel@cs.uni-kl.de

Rainer Gemulla, Universität Mannhein

rgemulla@uni-mannheim.de

Ralf Schenkel, Universität Trier

schenkel@uni-trier.de

4.3 Data Management on New Hardware

This special issue of the „Datenbank-Spektrum“ is dedicated to the research achieved by the DFG Priority Programme „Scalable Data Management on Future Hardware“. We invite submissions on original research as well as overview articles addressing the challenges and opportunities of modern and future hardware for data management such as many-core processors, co-processing units, new memory and network technologies.

Paper format: 8--10 pages, double-column

Deadline for submissions: June 1st, 2018

Issue delivery: DASP-3-2018 (November 2018)

Guest editor:

Kai-Uwe Sattler, TU Ilmenau

kus@tu-ilmenau.de

Alfons Kemper, TU München

alfons.kemper@in.tum.de

Copyright information

© Springer-Verlag GmbH Deutschland 2017

Authors and Affiliations

  1. 1.AG Datenbanken und InformationssystemeTU KaiserslauternKaiserslauternDeutschland

Personalised recommendations