Mikrodaten sind ein sehr hohes Gut in der empirischen Forschung. Immer mehr Forscher verwenden (amtliche) Daten zur empirischen Validierung ihrer Thesen. Und gerade auch in hochrangigen Zeitschriften werden immer mehr empirische Arbeiten abgedruckt. Insofern wundert es kaum, dass die Nachfrage nach Mikrodaten in letzter Zeit immens zugenommen hat. Erfreulicherweise werden Mikrodaten auch immer öfter zur Verfügung gestellt. Sie erfordern aber oft auch besondere Aufmerksamkeit in Bezug auf den Datenschutz. Geregelt sind derartige Anforderungen für die amtliche Statistik im Bundesstatistikgesetz, das sich aktuell in einer Novellierung befindet.

Rendtel (2014) diskutiert Möglichkeiten für einen effizienteren Datenzugang als er bisher in Deutschland möglich ist und nimmt dabei Bezug auf eine Diskussion, welche unter seiner Anwesenheit im Statistischen Beirat 2012 geführt wurde. Insbesondere verweist er auf die Notwendigkeit eines größeren Vertrauens in die mit Daten arbeitenden Forscher. Tatsächlich sind erhebliche Unterschiede im Datenzugang in verschiedenen Ländern in Europa zu beobachten – welche aber auch auf unterschiedlichen Traditionen und Gesetzen basieren.

Der vorliegende Beitrag von Rendtel (2014) wird von sieben renommierten Forschern diskutiert. Grohmann (2014) führt in die Historie des Bundesstatistikgesetzes in der Bundesrepublik Deutschland ein. Anschließend stellt Krämer (2014) eine weitere Sicht der Wissenschaft im Lichte der Datenkraken Facebook und Google dar. Die Perspektive der Sozialwissenschaften präsentieren Schimpl-Neimanns und Weiss (2014). Den Blick von außen präsentieren Beiträge unserer Nachbarn – für die Niederlande Schulte-Nordholt (2014), für Österreich Hackl (2014) und für die Schweiz Hulliger (2014). Schließlich wird auch noch die Seite der Datenanbieter durch Bender (2014) vertreten. Allen gilt mein Dank, sich dieser durchaus nicht einfachen Aufgabe gestellt zu haben.

Ich erlaube mir, einen persönlichen Kommentar hinzuzufügen. Bei der Beschreibung von Projekten mit Daten wird vom Datenanbieter oft eine dezidierte Beschreibung des Vorhabens und der dafür benötigten Merkmale verlangt. Gerade für den Methodenforscher ist das aber besonders schwierig, da man a priori oft die später benötigten Variablen nicht präzise eingrenzen kann. Rechtfertigt dies möglicherweise eine Unterscheidung von Benutzer-Gruppen? Schafft es ein Bundesstatistikgesetz überhaupt den rapiden Entwicklungen in EDV und Statistik gerecht zu werden?

Wir sind uns sicher darüber einig, dass ein guter Umgang mit Daten und Ergebnissen heutzutage eine wichtige Basis für Entscheidungen in Politik und Wirtschaft ist. Das bedeutet aber auch, dass derartige Themen ihren Platz im universitären Unterricht einnehmen sollten. Das beinhaltet zunächst bezahlbare Daten, und hier wäre möglicherweise eine breite und nicht nur projektbezogene Unterstützung seitens der Forschungsträger sehr hilfreich. Es muss aber auch das Bewusstsein für den Umgang mit den Daten geschaffen werden, und das beinhaltet natürlich auch Kenntnisse in der Erhebungsstatistik, im statistischen Produktionsprozess und in der Bedeutung und Auswirkung von Anonymisierung – ein Feld, das wohl noch zu selten seinen Platz im universitären Unterricht findet.

Der Schwerpunkt dieser Ausgabe des AStA Wirtschafts- und Sozialstatistischen Archiv ist sicher auch für den Rat für Sozial- und Wirtschaftsdaten von besonderer Bedeutung und soll zu weiteren Diskussionen anregen.

„Fehlende Werte hat jeder, will aber niemand“ – so werden viele Vorlesungen eingeführt, die die Behandlung von fehlenden Werten zum Gegenstand haben. Wie gehen wir aber richtig mit fehlenden Werten um? Eine Nichtberücksichtigung oder falsche Berücksichtigung dieser fehlenden Werte führt sicher zu inkorrekten Ergebnissen. Neben möglicherweise nicht erwartungstreuen Schätzungen gilt es aber insbesondere auch die Inferenz zu korrigieren. In der Praxis werden zwei Verfahren zur Auffüllung (Imputation) der Daten zu einem vollständigen Datensatz diskutiert, die Verfahren der einfachen Imputation (Single Imputation) sowie die Verfahren der multiplen Imputation (Multiple Imputation).

In der amtlichen Statistik werden zumeist Verfahren der einfachen Imputation verwendet. Eine Korrektur der Inferenz kann dann vielfach mit Hilfe aufwändiger Resampling-Methoden erreicht werden. Einen etwas flexibleren, Modell-basierten Ansatz liefern die Verfahren der multiplen Imputation. Der Anwender kann dann seine Analyse ganz normal auf den vervollständigten Datensätzen durchführen – allerdings mehrfach. Meinfelder (2014) gibt einen Überblick über die Verfahren der multiplen Imputation und zeigt an Beispielen, welche Probleme bei einer unkorrekten Behandlung der fehlenden Werte auftreten können. Mit diesem Beitrag führen wir unsere Reihe zu Methodenberichten fort, welche eine Übersicht über moderne methodische Entwicklungen in der Wirtschafts- und Sozialstatistik liefern sollen.

Ein besonderer Dank gilt Walter Krämer. Er ist nicht nur ein treuer Autor des AStA Wirtschafts- und Sozialstatistischen Archiv sondern trägt stets auch in den Herausgebersitzungen mit seinen Ideen zur Entwicklung der Zeitschrift bei. So freue ich mich Ihnen, liebe Leserinnen und Leser, mit dieser Ausgabe eine neue Reihe präsentieren zu können: Interviews mit bedeutenden deutschen Statistikern. Selbstredend, dass sie von Walter Krämer initiiert wurde und auch selber umgesetzt wird. Es ist uns eine besondere Freude und Ehre, mit dem ersten Interview der Reihe Heinz Grohmann würdigen zu dürfen (Krämer 2014). Heinz Grohmann hat wie kein anderer die deutsche Wirtschafts- und Sozialstatistik geprägt. Die Vorträge der Heinz-Grohmann-Vorlesung (siehe Chlumsky 2012) sind seit geraumer Zeit ein wichtiger Bestandteil der Statistischen Woche der Deutschen Statistischen Gesellschaft und des AStA Wirtschafts- und Sozialstatistisches Archiv.

Ich wünsche Ihnen viel Spaß beim Lesen und alles Gute für 2015!