Motivation

Rechtsvisualisierungen sind visuelle Darstellungen des Rechts, die zur Verdeutlichung von Rechtsfragen für juristische Laien und Rechtsexperten entwickelt und eingesetzt werden. Dabei geht es beispielsweise um Visualisierungen zu Sachverhaltsanalysen bei der Frage: „Wer will was von wem?“, um visualisierte Anspruchsgrundlagen zur Frage: „Woraus?“, oder um Visualisierungen zur Normanalyse und zur Rechtsanwendung (Brunschwig 2009). Die Rechtsvisualisierung weist eine lange Historie beginnend mit Darstellungen in mittelalterlichen Schriften auf. In der einschlägigen Literatur werden auch heute kontinuierlich Ansätze für neue Formen von Rechtsvisualisierungen entwickelt – siehe beispielsweise (Fill und Grieb 2017), (Fill und Haiden 2016), (Haapio 2011), (Kahlig 2005). Solche modernen Formen von Rechtsvisualisierungen erstrecken sich von Datenvisualisierungen über Diagramme, Bilder und Fotos bis hin zu Comics (Mielke et al. 2019).

Ein Ziel der Rechtsvisualisierung ist es, den Benutzern eine Hilfestellung zur Lösung von konkreten rechtlichen Fällen zu geben. So zum Beispiel im Erbrecht (Fill und Haiden 2016) oder im Mietrecht (Kahlig und Heindl 2008). Durch solche Visualisierungen kann der rechtliche Sachverhalt besser verstanden werden und es können entsprechende Folgeaktionen abgeleitet werden.

Durch das Aufkommen von Augmented- und Virtual-Reality (AR/VR) Technologien in den letzten Jahren eröffnen sich neue Möglichkeiten für Visualisierungen. Die dabei diskutierten Anwendungen umfassen bisher Gebiete wie die Archäologie, das Ingenieurwesen, oder die Medizin, bis hin zu Aufgaben des täglichen Lebens wie Navigation, Bildung, Einkauf, oder Spiele (Grant und Mairn 2020). Es wird erwartet, dass der Markt für Augmented-Reality Technologien bis im Jahr 2024 auf 100 Mrd. Dollar anwachsen wird (Nagel 2020).

Eine Stärke von AR ist die Verwendung und Interpretation von Umgebungsinformationen. Durch AR kann der Kontext einer Situation, in der sich der Benutzer befindet mit Hilfe von diversen Sensoren erkannt werden. Dadurch kann automatisiert auf verschiedene Situationen reagiert werden. Ein weiterer Vorteil von AR ist die Darstellungsform. Sie ist bei virtuellen Objekten frei wählbar. So können Objekte alle vorstellbaren Formen, wie z. B. 3D Objekte, Bilder, Diagramme, oder bildliche Darstellungen annehmen.

Im Folgenden wird untersucht, welche Konzepte benötigt werden, um adaptive AR-Umgebungen für Rechtsvisualisierungen zu erzeugen und wie AR-basierte Rechtsvisualisierungen in der Praxis verwendet werden können. Im Rahmen dieses Artikels werden im folgenden Kapitel die Grundlagen von AR und der Rechtsvisualisierung vorgestellt. Anschliessend wird ein AR-Rahmenwerk für die Rechtsvisualisierung präsentiert, gefolgt von einer prototypischen Umsetzung und einem Anwendungsbeispiel. Zum Schluss folgen eine Zusammenfassung und ein Ausblick auf die weiterführende Forschung.

Grundlagen

Als Grundlage für die Beschreibung des Rahmenwerkes sollen zuerst die grundlegenden Eigenschaften und Ausprägungen von Augmented Reality und Rechtsvisualisierungen beschrieben werden.

Augmented Reality

Augmented Reality (AR) ist eine Technologie, die es ermöglicht, virtuelle Bilder, die von einem Computer generiert wurden, in der realen Umgebung einzubetten (Zhou et al. 2008). Eine weit verbreitete Definition von AR stammt von Azuma (Azuma 1997). Er beschreibt AR als eine Technologie, die die reale und die virtuelle Welt kombiniert und in Echtzeit interaktiv ist. Dabei wird ein dreidimensionaler Bezug von virtuellen und realen Objekten auf Basis von Interaktionen generiert. Neben AR gibt es noch andere Konzepte und Technologien zur Erweiterung der realen Welt oder zur Generierung von virtuellen Welten. Diese umfassen Virtual Reality (VR) und Mixed Reality (MR). Die drei Begriffe AR, VR und MR lassen sich weiter unter dem Oberbegriff Extended Reality (XR) zusammenfassen (Oberhauser und Pogolski 2019). Während VR durch die totale Einbindung des Benutzers in eine virtuelle Welt klar von AR und MR abgegrenzt wird, ist der Unterschied zwischen AR und MR nicht auf den ersten Blick deutlich. Allgemein wird angenommen, dass es sich bei MR um eine erweiterte und interaktivere Version von AR handelt (Milgram und Colquhoun 1994).

Die Anwendung von Augmented Reality wurde bereits in verschiedenen Bereichen erforscht. Aktuelle Beispiele umfassen persönliche Informationssysteme, industrielle und militärische Anwendungen, medizinische Anwendungen, AR für die Unterhaltung oder AR für den Arbeitsplatz (Dieck und Jung 2019). Im Rahmen dieser Anwendungen kann AR auch auf einer funktionalen Ebene betrachtet werden. Dazu wird AR in die Kategorien erweiterte Wahrnehmung und künstliche Umgebung unterteilt (Hugues et al. 2011). Die erweiterte Wahrnehmung hebt hervor, dass AR ein Werkzeug zur Entscheidungsunterstützung darstellt. Sie kann Informationen bereitstellen, die ein besseres Verständnis der Realität ermöglichen und letztlich unser Handeln in Bezug auf die Realität optimieren. Die Realität wird so mit zusätzlichen Informationen angereichert. Die zweite Kategorie betrifft künstliche Umgebungen. Damit sind Umgebungen gemeint, die nicht die Realität abbilden, wie sie wahrgenommen wird, sondern die reale Welt um Informationen erweitern, welche nicht wahrnehmbar sind. Sie könnten aber in einer zukünftigen oder vergangenen Realität existieren. Ein Beispiel wäre die Visualisierung eines Gebäudes, welches gebaut werden soll und in AR am zukünftigen Ort visualisiert wird. Im weiteren Verlauf dieses Artikels beziehen wir uns ausschliesslich auf das Konzept AR.

Wenn die Komponenten von AR auf einer höheren Ebene betrachtet werden, kann die AR-Technologie in verschiedene Sensoren zur Ein- und Ausgabe von Informationen, sowie in Bestandteile zur Verarbeitung dieser Informationen unterteilt werden (Dörner et al. 2019). Die Ausgabe von Informationen kann visuell, akustisch oder haptisch erfolgen. Dabei ist die visuelle Ausgabe der Hauptbestandteil in AR. Dafür wird meistens ein sogenanntes Head Mounted Display (HMD) oder ein mobiles Ausgabegerät (Smartphone oder Tablet) verwendet. Für die Eingabe von Informationen werden verschiedene Sensoren, wie zum Beispiel Bewegungs‑, Positions-, akustische- oder Kamera-Sensoren benötigt. Diese ermöglichen die natürlich erscheinende Überlagerung von realen und virtuellen Objekten in AR sowie die Erfassung und Überwachung der Umgebung. Bei den Bewegungssensoren unterscheidet man zwischen Beschleunigung, d. h. linearer Bewegung auf der x‑, y‑ oder z‑Achse und der Rotation auf allen 3D-Achsen. Die Orientierung der Benutzer bzw. der Ausgabegeräte kann von einem festen magnetischen Punkt aus berechnet werden. Dies geschieht typischerweise anhand von Magnetsensoren anhand des magnetischen Nordens oder per Global Positioning System (GPS) (Rohde Christiansen und Shalamov 2017). Akustische Sensoren können ebenfalls zur Positionsbestimmung benutzt werden. Dabei werden für den Benutzer nicht hörbare Frequenzen und mehrere Sender verwendet, um die Position des Geräts zu ermitteln. Weiter kann auch die Mustererkennung, beispielsweise die Erkennung von QR-Markern, zur Positionsbestimmung anhand von Kamerasensoren genutzt werden. Die Kombination aller Sensoren hilft dabei, die Bewegung und Orientierung des AR-Geräts und damit jene des Benutzers zu verfolgen, die Darstellung der virtuellen Objekte anzupassen und diese so natürlich wie möglich erscheinen zu lassen. Die natürliche Umgebung setzt sich aus verschiedenen Komponenten zusammen. Zum einen aus den Objekten im realen Raum und deren Tiefenabbildung, sowie den Lichtverhältnissen bzw. der Farbabbildung. Dies wird typischerweise über einen oder mehrere Kamerasensoren erfasst (Van Krevelen und Poelman 2010). Die Informationen dieser Kamerasensoren werden dann entsprechend verarbeitet. Sofern alle diese Komponenten vorhanden sind, kann eine realistische Verschmelzung aus realer Welt und virtuellen Objekten und Informationen erreicht werden.

Zusammenfassend können AR-Anwendungen anhand der Komponenten beschrieben werden, die in allen AR-Umgebungen enthalten sind (Muff und Fill 2021a) – siehe Abb. 1. Das zentrale Element ist dabei jeweils das elektronische Anzeigegerät. Dies kann entweder ein HMD, oder ein mobiles Gerät, wie z. B. ein Smartphone sein. Das Anzeigegerät beinhaltet verschiedene Sensoren (Ω), um die Realität (α) und die Umgebung des Benutzers zu erfassen. Das Anzeigegerät wird dann verwendet um ein Bild der realen Umgebung (α’) und die zusätzlichen virtuellen Objekte (β) auf einem Display (μ) anzuzeigen. Zusätzlich zu den virtuellen Objekten können Informationen (π) auf reale oder virtuelle Objekte projiziert werden. Für die technische Umsetzung müssen verschiedene Typen von Anzeigegeräten berücksichtigt werden: AR-Geräte können einen Bildschirm enthalten, wie dies in Abb. 1 dargestellt ist. Ein typisches Beispiel dafür ist ein Smartphone oder Tablet. Dabei betrachtet der Benutzer ein Abbild der realen Welt (α’), sowie virtuelle Objekte (β) oder zusätzliche Informationen (π) durch einen Bildschirm (μ). Die zweite Möglichkeit ist die Verwendung von durchsichtigen Ausgabegeräten, wie zum Beispiel der MS HoloLens (Ungureanu et al. 2020). Dabei blickt der Benutzer durch ein durchsichtiges Display und die virtuellen Elemente werden mittels holographischer Projektion (siehe Abb. 2) oder durch direkte Projektion auf die Netzhaut des Benutzers dargestellt.

Abb. 1
figure 1

Beispiel einer AR-Umgebung (Muff und Fill 2021a)

Abb. 2
figure 2

Verdeutlichung der Komponenten anhand eines realen Beispiels

Rechtsvisualisierung

In der Rechtsvisualisierung geht es primär darum, Informationen zu einem rechtlichen Sachverhalt visuell zu veranschaulichen. Die wichtigsten juristisch relevanten Informationen sind dabei kausale Informationen, wie Tatbestandsvoraussetzungen und deren Rechtsfolgen, Begriffliche Informationen, wie Definitionen von Rechtsbegriffen, beschreibende Informationen, wie Darstellungen juristischer Theorien, Verfahrensinformationen, wie z. B. Prozessrecht betreffende Informationen, sowie Verhältnisinformationen, wie z. B. zum Staatsaufbau oder den Verfassungsorganen (Hahn et al. 2014). Für diese verschiedenen Informationsarten lassen sich geeignete Medienarten zur Übertragung der Informationen verwenden. Die für die Rechtsvisualisierung geeignetsten Medienarten sind Sprache, realistisches und nichtrealistisches unbewegtes und bewegtes Bild, Text, sowie formal und numerisch sprachenbasierte Medienarten. Die meisten Rechtsvisualisierungen wurden bisher jedoch meist in Form von nichtrealistisch, unbewegten Bildern realisiert. Diese Visualisierungen erscheinen oft in Form von Comics, Cartoons, Bildern/Diagrammen, bildlichen Darstellungen, oder einer Kombination dieser Formen (Mielke et al. 2019); (Kahlig 2008a), wobei heute meist IT-basierte Formate zum Einsatz kommen (Fill 2007).

AR-Rahmenwerk für Rechtsvisualisierungen

Eine Kombination der Konzepte Rechtsvisualisierung und AR ist auf den ersten Blick nicht naheliegend, kann jedoch bestimmte Vorteile mit sich bringen. So besteht eine der grossen Stärken von Augmented Reality in der Interaktion mit der Umgebung. Diese kann mit geeigneten Sensoren wahrgenommen und anschliessend interpretiert werden. Dadurch kann mit Hilfe dieser Umgebungsdaten der Kontext der Situation, in der sich der Benutzer gerade befindet, abgeleitet werden. Dies eröffnet die Möglichkeit, situationsabhängige Visualisierungen am richtigen Ort und zur richtigen Zeit darzustellen. Ein weiterer Vorteil ist die Anpassungsfähigkeit von AR. So ist eine Vielzahl verschiedener Darstellungsmöglichkeiten einsetzbar, und es können alle oben erwähnten Medienarten zur Darstellung von Rechtsvisualisierungen verwendet werden.

Um diese Kombination zwischen Rechtsvisualisierung und AR zu erreichen, wurde in (Muff und Fill 2021a) bereits ein Rahmenwerk vorgestellt, welches für beliebige AR-Umgebungen anwendbar ist und die wichtigsten Aspekte für AR berücksichtigt – siehe Abb. 3. Dies erlaubt es zu untersuchen, wie bestehende juristische Visualisierungen in den Bereich der Augmented Reality überführt werden können oder neue Arten von juristischen Visualisierungen mit dieser Technologie entworfen werden können. Als Grundlage wurden die drei Hauptkonzepte Kontext, Inhalt und Interaktion eingeführt. Bei allen Teilen des Rahmenwerkes unterscheiden wir zwischen der Form, die zur Übermittlung von Informationen erforderlich ist, und der Substanz der Information, die über die Form vermittelt wird. Jeder Bestandteil im Rahmenwerk steht in direktem Zusammenhang mit den anderen Bestandteilen.

Abb. 3
figure 3

Konzepte von Kontext, Inhalt und Interaktion nach Form und Substanz (Muff und Fill 2021a)

In Bezug auf den Kontext betten AR-Applikationen virtuelle Repräsentationen in den realen Kontext ein. Dabei muss sowohl die Form wie auch die Substanz berücksichtigt werden. Um diesen Kontext zu erkennen, verwenden AR-Devices Sensoren wie Kameras und Positions- und Lagesensoren und analysieren die Datenflüsse dieser Sensoren. So kann beispielsweise die Erkennung eines rechteckigen, weissen Objekts in der Umgebung als Kontext/Form bezeichnet werden. Die Klassifikation dieses Objekts als weisse Wand in einem Raum wäre dann die Kontext/Substanz. Dazu muss die AR-Applikation die wahrgenommenen Objekte und deren Attribute interpretieren und in zuvor gespeichertes Wissen einbetten, um die Kontext/Substanz abzuleiten, beispielsweise durch Inferenz über eine Ontologie (Lee et al. 2008). Wendet man diesen Kontext-Aspekt auf Anwendungen zur Präsentation von Rechtsvisualisierungen an, eröffnen sich neue Möglichkeiten. Es ist möglich, die Benutzerumgebung zu analysieren und die für die momentane Situation richtige Visualisierung darzustellen. Es ist sogar denkbar, verschiedene Visualisierungen auf dafür geeignete reale Objekte zu projizieren.

Der inhaltliche Aspekt bezieht sich auf die Informationen, die dem Benutzer über die AR-Anwendung präsentiert werden. Auch hier unterscheiden wir wieder zwischen der Form, das heisst, der Art der virtuellen Repräsentation, die verwendet wird (Bild, Diagramm, dreidimensionale Objekte), und der Substanz, also der Natur des Inhalts wie zum Beispiel nummerische Daten, textuelle Inhalte, oder Abläufe. Unter Berücksichtigung von Inhalt/Substanz muss für eine Anwendung entschieden werden, welche Inhaltsformen für den gegebenen Kontext geeignet sind und wie diese eingesetzt werden können.

Interaktion kann in AR auf verschiedene Weisen erreicht werden. Auch hier unterscheiden wir wieder zwischen der Form und der Substanz der Interaktion. Für die Interaktion/Form können zum Beispiel die Interaktion mit Zusatzgeräten (bspw. Zeigegeräte), die Interaktion mit Gesten, oder die Interaktion mit Sprache verwendet werden (Chen et al. 2017). Die Interaktion/Substanz berücksichtigt die Absicht des Benutzers und das Ziel der Interaktion, wie beispielsweise das Bewegen eines Objekts, die Auswahl eines Objekts, oder die Eingabe von Informationen.

Viele Visualisierungen, die wir aus der zweidimensionalen (2D) Welt kennen, sind nicht für den Einsatz in dreidimensionalen (3D) Umgebungen geeignet. Die Form solcher Visualisierungen muss daher adäquat umgesetzt werden, z. B. durch Projektion auf eine reale oder virtuelle Ebene unter Berücksichtigung des häufig begrenzten Raums von AR-Umgebungen. In Bezug auf Inhalt/Substanz können juristische Visualisierungen dynamisch in den Kontext des Benutzers eingefügt werden.

Um den verschiedenen Anforderungen von AR-Umgebungen gerecht zu werden, wurde ein modellierungsbasierter Ansatz gewählt. Er fusst auf dem Konzept der Metamodellierung (Kern et al. 2011), das eine gemeinsame sprachliche Basis für alle Arten von Modellierungssprachen zum Ziel hat.

Grundsätzlich geht es in der Metamodellierung darum, durch Abstraktion ein Modell der Realität darzustellen. Um ein solches Modell zu definieren, ist eine definierte Sprache zur Spezifikation der zugelassenen Modellelemente notwendig. Dies wird Metamodell genannt. Gleich wie die Definition eines Metamodells für die Spezifikation von Modellen, kann auch eine Menge von Regeln für die Definition des Metamodells spezifiziert werden. Dieses Modell wird dann Meta-Metamodell genannt.

Als Grundlage wurde ein neues Meta-Metamodell definiert, das die Konzepte von VR und AR grundlegend berücksichtigt. Ziel davon ist, mittels konzeptueller Modellierung grafische Repräsentationen zu erstellen, die danach sowohl in 2D wie auch in 3D verwendet werden können und mit Hilfe von Algorithmen angepasst und verarbeitet werden können. Ein Ausschnitt des Meta-Metamodells ist in Abb. 4 dargestellt.

Abb. 4
figure 4

Meta-Metamodell des AR-Modellierungswerkzeuges (Muff und Fill 2021b)

Der Kernteil besteht aus Klassen (class) und Relationsklassen (relationclass), die in einem oder mehreren scene_types enthalten sind. Ein scene_type repräsentiert einen abgeschlossenen dreidimensionalen Raum eines Modells. Classes, relationclasses und scene_types haben Attribute (attribute), die mit genau einem Attributstyp (attribute_type) weiter detailliert werden. Classes, relationclasses und scene_types können durch relationclasses in Beziehung zueinander gesetzt werden. Da die relationclass von class erbt, kann eine relationclass theoretisch auch zu sich selbst in Verbindung gesetzt werden. Jeder relationclass sind genau zwei Rollen (roles) zugeordnet. Eine from_role und eine to_role. Weiterhin hat jede role mindestens eine Referenz auf eine class, relationclass oder einen scene_type, die definiert, womit sich diese role verbinden kann. Weiter können classes und scene_types Anschlüsse (ports) haben. Diese ports können wiederum roles haben. Ports können als Ein- und Ausgänge für Instanzen von Klassen oder Scenes verstanden werden.

Alle Konstrukte, die von metaobject erben, haben eine visuelle Repräsentation. Diese grafische Darstellung wird mit der generischen, domänen-spezifischen VizRep-Sprache definiert. Dies ist eine Funktion, welche die 3D-Darstellung des Objekts definiert und gleichzeitig auf verschiedene Attribute zugreifen kann. Die Funktion wird im geometry-Attribut von metaobject gespeichert. Weiterhin hat jedes visuelle Objekt 2D-Koordinaten (coordinates2D) für die Positionierung im 2D-Modellierungstool oder für die direkte Übertragung in VR und AR und relative 3D-Koordinaten (relativeCoordinates3D), die der AR- und VR-Positionierung von Objekten relativ zur Benutzerposition dienen. Diese Positionen können sich von jenen für die 2D-Bildschirmdarstellung verwendeten Koordinaten unterscheiden. Weiterhin kann jedes Metaobjekt absolute 3D-Koordinaten (absoluteCoordinates3D) für die Positionierung von Objekten in realen Weltkoordinaten, wie z. B. GPS-Koordinaten, besitzen.

In der unteren Hälfte von Abb. 4 ist die Instanzschicht des Meta-Metamodells abgebildet. Sie zeigt die Konstrukte zur Aufnahme von Informationen über die Instanzen des Metamodells bei der Instanziierung eines Modells. Aus Platzgründen werden wir an dieser Stelle nicht detailliert auf die Instanzschicht eingehen. Ein im Kontext dieses Artikels wichtiger Punkt ist jedoch die scene_instance. Dies ist die Instanz, d. h. die konkrete Ausprägung, eines Modells bzw. eines dreidimensionalen, abgeschlossenen Raumes. Jede object_instance kann ein Attribut marker_pattern haben. An diesem Punkt kommt der weiter oben erwähnte Kontext, insbesondere Kontext/Instanz ins Spiel. Wie bereits beschrieben, kann durch AR-Sensoren die Umgebung wahrgenommen werden. Um weiter auf den Kontext einzugehen, müssen wir zuerst den Aufbau von Modellierungsmethoden im Detail betrachten.

Eine Modellierungsmethode kann unterteilt werden in eine Modellierungstechnik, sowie Mechanismen & Algorithmen (Karagiannis und Kühn 2002). Die bisherige Diskussion über das Meta-Metamodell beinhaltete Komponenten der Modellierungstechnik. Die Daten der AR Sensoren für die Interpretation des Kontexts können nun mit Hilfe von Mechanismen & Algorithmen unterstützt werden. Bei der Modellierung eines Modells (Instanziierung des Metamodells) muss jedoch definiert werden, wann ein Modell oder ein Teil davon (instance_object) in die AR-Umgebung eingebettet werden soll. Diese Entscheidung hängt vom Kontext ab, indem sich der Benutzer aktuell befindet. Die Erkennung des Kontexts kann nun mit Hilfe von künstlicher Intelligenz (KI) erreicht werden (Lee et al. 2008), oder ersatzweise mit Hilfe von Markern, z. B. in Form von QR-Codes, bestimmt werden.

Verschiedene Marker können so an verschiedenen Orten in der Umgebung einen unterschiedlichen Kontext repräsentieren. Die Verbindung zwischen den verschiedenen Objekten (object_instance) und den Markern (Repräsentation für Kontext/Instanz) wird mit dem Attribut marker_pattern erreicht. Darin wird das Muster des entsprechenden Markers abgelegt. Dies kann zu einem späteren Zeitpunkt auch durch andere Informationen, die den Kontext betreffen, ersetzt werden. Somit kann bei Erkennung eines bestimmten Markers mit Hilfe von Mechanismen & Algorithmen festgestellt werden, welches Objekt zu diesem Marker (Kontext) passt und das entsprechende Objekt kann an dieser Stelle in die Umgebung eingebettet werden. Zusätzlich könnte das Meta-Metamodell auch mit Ontologien, deklarativen Regeln und Annotationen erweitert werden, um beispielsweise die automatische Codegenerierung und Inferenz von Kontextinformationen für AR-Applikationen zu unterstützen (Djordjevic et al. 2019), (Fill 2017), (Pittl und Fill 2020).

Prototypische Umsetzung

Für die Umsetzung des Meta-Metamodells aus Abb. 4 wurde ein Prototyp mit Hilfe aktueller Web-Technologien implementiert. Das resultierende Modellierungswerkzeug ermöglicht es, konzeptuelle Modelle anhand von vordefinierten Metamodellen in einer 2D-Umgebung zu modellieren. Aktuell können Metamodelle nur als Datenmodell definiert werden, für die Zukunft ist geplant, dafür separate Werkzeuge zu entwickeln. Gleichzeitig basiert das Werkzeug im Hintergrund auf einer 3D-Umgebung, wodurch unmittelbar die Verwendung der Modelle in AR und VR ermöglicht wird.

Die Modelle können während der 2D-Modellierung mit einem AR-Marker verbunden werden (marker_pattern). Die Marker repräsentieren die verschiedenen Kontexte und ersetzen dabei den Teil einer separaten Kontextengine, die den Kontext automatisch erkennen kann. Sobald ein Benutzer mit seinem Gerät in den AR-Modus wechselt, können die Modelle in die AR-Umgebung eingebettet werden, sofern der entsprechende Marker von der Applikation erkannt wurde. Das Modellierungstool ist plattform-unabhängig und in aktuellen Browsern sowie auf speziellen AR-Geräten lauffähig. Die im Prototyp verwendete Browserschnittstelle ist die WebGL-AnwendungsschnittstelleFootnote 1. In Kombination mit dem JavaScript Framework three.jsFootnote 2 für den einfachen Zugriff auf WebGL lassen sich AR-Anwendungen plattformunabhängig entwickeln und damit auf jedem browserfähigen Gerät nutzen. Die three.js Bibliothek basiert dabei auf dem WebXR-StandardFootnote 3. Somit ist die AR-Funktion des Prototyps für alle WebXR unterstützenden Geräte verwendbar. Dies sind die meisten HMD-Geräte und Smartphones der letzten Jahre.

Anwendungsbeispiel

Als Anwendungsbeispiel wurde für diesen Artikel der Anwendungsfall des österreichischen Mietrechts gewählt, der gemeinsam mit zwei Ko-Autoren aus der Praxis und deren jahrelanger Erfahrung beim Einsatz von Rechtsvisualisierungen erarbeitet wurde. Dabei ist zu erwähnen, dass dieser Anwendungsfall im Deutschen-, bzw. im Schweizer Mietrecht geringfügig abweichen kann. Hier geht es jedoch in erster Linie darum ein Beispiel aufzuzeigen und nicht um den rechtlichen Sachverhalt an sich. Ausgangspunkt ist, dass sich ein Vermieter oder Mieter in einem Raum befindet und gerne erfahren möchte, welche Aspekte des Mietrechts zur Geltung kommen. Das Mietrecht ist für die meisten Laien, aber auch für Juristen durch grosse Komplexität und schwierige Zusammenhänge charakterisiert. Darin wird beispielsweise geregelt, wie der Mietzins für verschiedene Mietobjekte berechnet wird, oder etwa die Geltungsbereiche und die Fristen. Die rechtlichen Aspekte, zum Beispiel für den Fall der Berechnung der Miete für ein Mietobjekt sind in Gesetzestexten geregelt. Jeder Bürger und jede Bürgerin, die ein Gesetz verstehen wollen, stehen vor der Herausforderung, dieses trotz der oft schwer verständlichen Sprache und dem notwendigen Vorwissen korrekt zu interpretieren. Durch die strukturierte Anordnung von Begriffen mit Hilfe von Rechtsvisualisierungen können dabei Zusammenhänge leichter erkannt und logische Strukturen, die normalerweise nicht auffallen, direkt erfasst werden (Kahlig 2008b).

Ein Beispiel dafür ist die Darstellung solcher Abläufe mit Hilfe des C.O.N.T.E.N.T. Metamodells (Kahlig und Kahlig 2015), (Kahlig et al. 2013). Darin werden verschiedene Objekte in einer Darstellung verwendet, die sich an die Technik von Struktogrammen und Flussdiagrammen anlehnt, um eine Rechtsfrage systematisch nach dem „JA/NEIN“-Prinzip zu beantworten. Das C.O.N.T.E.N.T. Metamodell wurde über viele Jahre gemeinsam mit Rechtsexperten entwickelt und wird in der Praxis von Hausverwaltern und Mietberatern oder auch von Juristen und Bezirksgerichten eingesetzt (Kahlig et al. 2011). Die verschiedenen Komponenten des C.O.N.T.E.N.T. Metamodells werden im Folgenden erläutert. Die Grundidee dahinter ist, dass die eigentliche Struktur des Sachverhalts, also der „Content“ derart aufgegliedert wird, dass jede Frage mit einem Ja/Nein-Schema dargestellt wird und die Frage an das Gesetz einfach beim Durchlauf der grafischen Abfolge beantwortet werden kann.

Jedes C.O.N.T.E.N.T. Modell beginnt mit einem Anfangselement. Dieses Anfangselement enthält eine Überschrift (oranges Rechteck) zum behandelten Thema. In einem zweiten Objekt (oranges Oval) wird unter dem Anfangselement die Beschreibung zum Anfangselement hinzugefügt. Jedes Anfangselement enthält eine Entscheidungsfrage (oranges Sechseck) mit einer Anfangsfrage. Diese muss mit „Ja/Nein“ beantwortet werden – siehe Abb. 5. Falls die Entscheidungsfrage mit „Ja“ beantwortet werden kann, folgen darauf ein, oder mehrere Entscheidungselemente. Diese haben jeweils im oberen Teil einen Verweis auf die behandelte Gesetzesstelle in Form eine „Stichwortes“ und im unteren Teil eine Erläuterung – siehe Abb. 6. Sobald durch die Entscheidung in einem Entscheidungselement ein Ergebnis abgeleitet werden kann, folgt ein Ergebniselement. Dies kann ein Endergebnis, oder ein Zwischenergebnis sein.

Abb. 5
figure 5

C.O.N.T.E.N.T. Notation Anfangselement

Abb. 6
figure 6

C.O.N.T.E.N.T. Notation Entscheidungselement

Ein Ergebniselement kann Texte, Formeln, oder grafische Darstellungen enthalten – siehe Abb. 7. Jedes Modell muss mit einem Schlusselement abgeschlossen werden. Das Schlusselement hat die gleiche visuelle Ausprägung wie das ovale Beschreibungselement für das Anfangselement (Abb. 5). Ein Schlusselement kann nur auf ein Ergebniselement folgen. Weiter gibt es logische Konnektor-Elemente. Ein Konnektor bildet eine Schnittstelle zu einem anderen Modell, welches aus Übersichtsgründen nicht im selben Modell dargestellt werden kann – siehe Abb. 8.

Abb. 7
figure 7

C.O.N.T.E.N.T. Notation Ergebniselement

Abb. 8
figure 8

C.O.N.T.E.N.T. Notation Konnektor-Element

Die verschiedenen Elemente können mit logisch-orientierten Workflow-Elementen verbunden werden. Diese können die Ausprägungen „Ja/Nein“ haben, oder sie haben keine definierte Ausprägung (Abb. 9). Alle bisher erwähnten Elemente können ausschliesslich mit Workflow-Elementen in Relation zueinander gestellt werden.

Abb. 9
figure 9

C.O.N.T.E.N.T. Notation Workflow-Element

Für unseren Anwendungsfall haben wir ein bereits definiertes C.O.N.T.E.N.T. Modell verwendet, das die rechtlichen Aspekte des österreichischen Mietrechts abbildet – siehe Abb. 10 (Heindl et al. 2006). Dieses Modell wurde mit Hilfe des neuen Meta-Metamodells im oben beschriebenen Prototyp erstellt. Dazu wurde ein neuer SceneType namens C.O.N.T.E.N.T. Metamodel eingeführt. Die Elemente Anfangselement, Beschreibung Anfangselement, Entscheidungsfrage, Entscheidungselement, Prozedurales Ergebniselement und das Konnektor-Element wurden dabei als Klasse (class) definiert. Das Workflow-Element wurde als Relationsklasse (relationclass) umgesetzt. Die jeweiligen Texte wurden als Attribute (attributes) hinzugefügt.

Abb. 10
figure 10

Rechtsvisualisierung zur Mietzinsbildung auf Basis der C.O.N.T.E.N.T Notation

Während der Modellierung wurden dem Modell AR-Marker zugewiesen. Sobald ein Benutzer mit Hilfe eines Smartphones oder eines HMD in den AR-Modus wechselt, wird das Modell an der Stelle des AR-Markers eingeblendet. Die Verwendung von Markern ist dabei ein Surrogat für die automatische Erkennung des Kontexts – beispielsweise die Situation eines Mieters im Rahmen einer Wohnungsbesichtigung und der Frage nach dem Mietzins, die im vorliegenden Fall durch Anbringen eines Markers in der Wohnung ersetzt werden kann.

Das Beispiel der eingebetteten AR-Rechtsvisualisierung zur Darstellung des Mietrechts mit Hilfe der C.O.N.T.E.N.T. Notation (Kahlig und Kahlig 2015) ist in Abb. 11 zu sehen. Dabei kann ein Marker entweder fix an einem Ort platziert sein, oder er kann einfach in das Sichtfeld des Benutzers gehalten werden. Falls der Marker entfernt wird, bleibt die Visualisierung am erkannten Ort des Markers fixiert. Abb. 12 zeigt, wie die Anwendung der Applikation in der Aussenperspektive aussieht. Dabei wurde ein HMD in Form der MS HoloLens2 verwendet, das die virtuellen Inhalte direkt in das durchsichtige Glas vor den Augen des Trägers projizieren. Für die zukünftige Ausgestaltung ist angedacht „in die Tiefe zu gehen“, also eine dritte Dimension für den echten Gesetzestext aus dem RIS-System des Bundeskanzleramtes zu nehmen, aber auch die Zeit als vierte Dimension zu berücksichtigen, die mit Urteilen/OGH-Erkenntnissen verbunden sein kann – vgl. (Nabizai und Fill 2017); (Fill und Grieb 2017).

Abb. 11
figure 11

Beispiel C.O.N.T.E.N.T Visualisierung für das Mietrecht

Abb. 12
figure 12

Beispiel zur Aussenperspektive bei Nutzung der AR Applikation (Muff und Fill 2021a)

Diskussion

Durch die Kombination von AR und Metamodellierung entstehen neue Möglichkeiten im Bereich der Rechtsvisualisierung. Auf Grundlage des vorgestellten Rahmenwerkes können eine Vielzahl von Rechtsvisualisierungen direkt mit AR-Technologie verknüpft werden. So erscheint es beispielsweise möglich, Rechtsnormen, die von Bedeutung im Alltag sind, in einer für Benutzer leichter verständlichen Form direkt in die Umgebung der Benutzer einzublenden. Das vorgestellte Rahmenwerk und die Umsetzung mit Hilfe der Metamodellierung kann dabei für eine Vielzahl von unterschiedlichen Darstellungen in der Rechtsvisualisierung verwendet werden, wie zum Beispiel die eingangs erwähnten klassischen Formen von Diagrammen, Bildern, Comics oder sogar komplexen dreidimensionalen Darstellungen. Während bisherige Ansätze für AR im Bereich der Modellierung meistens nur auf die Verwendung einer bestimmten Modellierungssprache fokussierten (Gall und Rinderle-Ma 2020), (Abdul et al. 2019), können mit dem auf der Metamodellierung basierenden Ansatz zahlreiche Arten von visuellen Notationen und Sprachen umgesetzt werden.

Aus technischer Sicht ist der Ansatz durch die Verwendung von Webtechnologien sehr flexibel. Im Gegensatz zu spezifischen AR-Anwendungen, wie z. B. Applikationen, die auf der Unity-PlattformFootnote 4 basieren, ist der Einsatz von browser-basierten Applikationen plattformunabhängig. Dadurch ist eine solche Applikation auf einer Vielzahl von Geräten einsetzbar. Ebenso können leicht weitere Technologien integriert werden, zum Beispiel für neue Formen der Interaktion in Form von sprachbasierten Eingaben oder gestenbasierte Steuerungen.

Zusammenfassung und Ausblick

In diesem Artikel wurde eine erste Umsetzung eines AR-Frameworks für Rechtsvisualisierungen vorgestellt und mit Hilfe eines Anwendungsfalls gezeigt, wie sich der Ansatz praktisch einsetzen lässt. Für die Realisierung wurden aktuelle Webtechnologien verwendet, die, im Gegensatz zu herkömmlichen Metamodellierungswerkzeugen, die Modellierung in einer 3D Umgebung ermöglichen. Dies hat den Vorteil, dass Modelle auf herkömmliche Art modelliert und später ohne aufwändige Transformation in VR und AR angezeigt werden können. Die Modelle bzw. Teilmodelle können dabei nicht nur in VR und AR integriert werden. Sie können zusätzlich mit Kontextinformationen versehen werden. In der aktuellen Version des Prototyps sind diese Kontextinformationen basierend auf Markern umgesetzt. Die verschiedenen Modelle können so einem Kontext (Marker) zugewiesen werden. Sobald in der AR-Umgebung einer dieser Marker erkannt wird, wird das zugewiesene Modell an der Markerposition in die AR-Umgebung eingeblendet.

Weitere Forschungsarbeiten werden sich in Zukunft auf die Weiterentwicklung des Modellierungswerkzeuges konzentrieren. Dabei wird die Erkennung des Kontexts und die Einbindung dieser Kontextinformationen in die Benutzerumgebung eine zentrale Rolle spielen. Dazu sind weitere Forschungsarbeiten im Bereich der Umgebungs- und Kontexterkennung notwendig, wobei auf bisherigen Ansätzen zur Kontextverarbeitung mit Hilfe von Annotationen, Ontologien und Regeln aufgebaut werden kann.

Von Seite der juristischen Praxis lässt sich die Bedeutung dieser Entwicklungen in der Rechtsvisualisierung daraus ablesen, dass seit mehreren Jahren diesbezügliche, regelmässige Konferenzen Im Österreichischen Parlament bzw. im Justizpalast stattfinden, deren Initialzündung u. a. durch den ehemaligen Österreichischen Bundespräsidenten Dr. Fischer erfolgt ist.