Eine Betrachtung der Potenziale und Herausforderungen
In der ausländischen empirischen Rechtsforschung gibt es vielversprechende Ansätze, die die Digitalisierung der Justiz beeinflussen können. Grundlage hierfür sind jedoch in einer hinreichenden Datenqualität vorhandene Justizdaten und ein verbreiteter Wille in der Justizlandschaft, diese Daten für die Zwecke der empirischen Auswertung zur Verfügung zu stellen.
In Deutschland besteht eine große Menge an juristischen Daten, die von verschiedenen Stellen generiert und verwendet werden. Hierzu gehören beispielsweise Gerichtsentscheidungen, Gerichtsakten, Statistiken und Gesetzesentwürfe. Der Zugang zu diesen Daten ist jedoch nicht immer einfach. Die Veröffentlichungsquote variiert je nach Art der Daten. Denn in Deutschland gibt es im Hinblick auf die Veröffentlichung von juristischen Daten keine einheitliche Regelung. Einige Gerichte und Behörden veröffentlichen etwa ihre Entscheidungen und Statistiken regelmäßig im Internet oder in speziellen Fachzeitschriften, während andere nur einen begrenzten Zugang zu ihren Daten ermöglichen oder sie überhaupt nicht öffentlich zugänglich machen. Genau das ist bereits der Kern der Herausforderung, denn der Zugang zu juristischen Daten ist oft eins: schwierig und zeitaufwendig.
Aber was wäre, wenn die immense Bedeutung von juristischen Daten erkannt würde und der deutsche Zivilprozess durch die Nutzung dieser Daten wahrhaft transformiert werden könnte? Das könnte zu einer Welt führen, in der sämtliche juristischen Daten gesammelt und analysiert würden, um Gerichte, Behörden und Akteur:innen der Rechtspflege bei ihrer täglichen Arbeit zu unterstützen und vielleicht sogar Gerechtigkeit zu fördern.
Wie könnten wir uns das vorstellen? In dieser Welt identifizieren wir durch die Analyse von juristischen Daten Trends und Muster, die es uns ermöglichen, das Zivilrecht kontinuierlich zu verbessern. Wir können die Umsetzung von Gesetzen überwachen und sicherstellen, dass Recht in diesem Sinne gesprochen wird. Wo liegen die Stärken und Schwächen des deutschen Zivilprozesses? Dank der Nutzung und Auswertung von juristischen Daten finden wir hierauf Antworten. Auch Anomalien und Fehler fallen (schneller) auf. Das heißt, Handlungsbedarf wird erkannt und es wird dementsprechend reagiert. Zu viel Zeit mit wiederkehrenden Aufgaben verbringen? Das möchte niemand. Aus Routine wird Automation, was die Arbeit der Gerichte, der Behörden und der Anwaltschaft erheblich erleichtert. Das hat Auswirkungen auf Ressourcen und ihre Verteilung. Mit Daten gespeiste Prognosemodelle erkennen potenzielle Rechtsstreitigkeiten frühzeitig und wissen sie zu verhindern.
Was aber wäre, wenn uns bewusst würde, dass diese Transformation viel realistischer ist, als wir Jurist:innen in Deutschland aktuell vermuten? Die Daten, die wir benötigen, um solche großen oder kleinen Veränderungen hervorzurufen, liegen bereits vor unseren Augen. Immerhin können wir seit einigen Jahren eine Entwicklung im Bereich der Auswertung von juristischen Daten erkennen. Digitale Prozesse schreiten voran und maschinelle Lernverfahren halten Einzug. All das sind Mechanismen, die darauf hinwirken, juristische Daten in Zukunft effizienter nutzen zu können. Hat also nun die Stunde von Datenanalyse, Big Data und Machine Learning im Recht geschlagen? Viele Länder dieser Welt meinen: Ja! Deutschland befindet sich währenddessen in puncto juristischer Datenanalysen noch in der Beta-Phase. Mithilfe von ausländischen Forschungsbeispielen, in denen Recht in Daten umgeformt wird, finden wir im Folgenden heraus, was auch im deutschen Zivilprozess bereits möglich wäre und welche Rolle die Veröffentlichung von Gerichtsentscheidungen dabei spielt. Hierbei legen wir besonderes Augenmerk auf die Bedeutung deskriptiver (2.), diagnostischer (3.), prognostischer (4.) und präskriptiver (5.) Rechtsforschung.
Streben wir an, geltendes Recht in seiner faktischen Anwendung und Auslegung zu beschreiben, sprechen wir von deskriptiver Rechtsforschung. Hierbei untersuchen wir beispielsweise, wie sich Rechtsnormen auf das Verhalten von Individuen und Gruppen auswirken oder wie sich die Rechtspraxis im Laufe der Zeit verändert. Das Ziel der deskriptiven Rechtsforschung besteht darin, eine möglichst objektive Beschreibung des geltenden Rechts und seiner Anwendung zu liefern.
Beginnen wir beim größten Schauplatz unserer Zeit, den sozialen Netzwerken. Sie sind aus unserer heutigen Gesellschaft nicht mehr wegzudenken. Die durchschnittliche tägliche Nutzungsdauer von sozialen Medien aller Altersklassen nimmt seit Jahren kontinuierlich zu. Viele Branchen machen sich diese Tatsache bereits zunutze. Es liegt also auf der Hand, die gängigen sozialen Netzwerke auch im Kontext der Rechtsforschung zu analysieren, um Beziehungen zwischen juristischen Akteur:innen und Institutionen zu identifizieren. Bei dieser sogenannten Legal Network Analysis setzt beispielsweise das Law and Technology Institute an der Universität Autónoma de Madrid in Spanien an. Im Rahmen seiner Forschung nutzt es Daten wie Gerichtsentscheidungen, Gesetze und Verträge, um die Interaktionen zwischen verschiedenen Akteur:innen zu visualisieren und zu verstehen. Ähnliche Ansätze verfolgt auch die Universität Groningen, deren Forschung unter dem Dach des Groningen Centre for Law and Governance (GCLG) organisiert ist.
Bleiben wir bei der Zivilgesellschaft. Der Zivilprozess erscheint für viele juristische Laien sehr unzugänglich. Eine nicht enden wollende Papierschlacht im großen unübersichtlichen Paragrafendschungel. Daher muss eine Frage, die wir uns unwillkürlich stellen müssen, heißen: Wie kann der Zugang zur Justiz verbessert werden? Hieran forscht eine Gruppe an der University of New South Wales in Australien.
Wenden wir den Blick weg vom juristischen Laien hin zur Anwaltschaft, so finden sich auch hier zahlreiche Forschungsbeispiele, die durch deskriptive Forschungsansätze die Arbeit der Anwält:innen erleichtert. Beispielsweise wird in den USA datenbasierte juristische Analytik betrieben, um Schadensersatzwerte in Produkthaftungsfällen zu untersuchen. Mithilfe der Analytik können Forschende hier herausfinden, welche Schadensersatzwerte in welcher Höhe in ähnlichen Fällen bereits zugesprochen wurden.
Bestehen eklatante Probleme und Fehlentwicklungen in unserem Rechtssystem? Antworten hierauf findet die diagnostische Rechtsforschung. Hierbei geht es um die Bewertung und Beurteilung des Rechts im Hinblick auf seine Effektivität und Legitimität.
Das Ziel der diagnostischen Rechtsforschung besteht darin, Schwächen im bestehenden Rechtssystem zu identifizieren, um das Rechtssystem langfristig effektiv und gerecht zu gestalten.
Zwei Rechtsgebiete, die (fast) jede Person zumindest privat betreffen, sind das Miet- und das Arbeitsrecht. Denn gewohnt und gearbeitet wird (fast) überall. Daher ist Rechtsforschung in diesen Gebieten besonders sinnhaft. Mithilfe von Legal Analytics, also der Möglichkeit der Datenanalyse im Recht, widmen sich kanadische Forschende der Frage, ob die Ziele eines Gesetzes im Rahmen des Immobilienrechts erreicht wurden. Konkret wurden die Auswirkungen von Gesetzen auf die Immobilienbranche untersucht, indem beispielsweise durchschnittliche Mietminderungen und Streitwerte ermittelt und analysiert wurden. In den USA finden wir diagnostische Untersuchungen von Entscheidungen im Bereich des Arbeitsrechts. Hier wird mit juristischer Datenanalyse beispielsweise untersucht, ob politische Ansichten der Richter:innen eine Rolle bei der Urteilsfindung spielen.
Wie wird sich unser Rechtssystem in Zukunft entwickeln? Bei dem Versuch, diese Entwicklung vorherzusehen, hilft die prognostische Rechtsforschung. Hierbei geht es darum, die Auswirkungen von geplanten oder zu erwartenden Änderungen im Rechtssystem auf die Rechtspraxis oder die Gesellschaft zu prognostizieren. Das Ziel besteht darin, die Konsequenzen von geplanten oder zu erwartenden Veränderungen im Rechtssystem frühzeitig zu erkennen und fundiert Entscheidungen zu treffen. Hierdurch sollen mögliche negative Auswirkungen auf die Rechtspraxis oder die Gesellschaft vermieden werden.
Die prognostische Rechtsforschung bringt wohl die meisten futuristischen Komponenten mit sich. Ohne die Begriffe Big Data und Machine Learning kommt man hier nicht mehr aus. Auf Basis modernster Technologien haben sich Ansätze wie Legal Text Mining und Legal Prediction eine Daseinsberechtigung erarbeitet. Durch die Entwicklung von Algorithmen werden Vorhersagen von Gerichtsentscheidungen im Zivilprozess möglich. Unter anderem in den Niederlanden und in Italien werden bereits maschinelles Lernen und Datenanalyse verwendet, um Vorhersagen über den Ausgang von Zivilprozessen zu treffen. Hierzu wird ebenfalls im Centre for Artificial Intelligence an der Universität Zagreb in Kroatien und an der Universität Zürich in der Schweiz geforscht.
Aber wie gut funktionieren diese auf Algorithmen basierenden Lernmodelle bereits? Diese Frage stellen sich auch Forschende an der Stanford Law School. Im Zuge des Predictive Justice Project wird – wie bei den oben genannten Forschungsansätzen – maschinelles Lernen und Datenanalyse verwendet, um Prognosen über den Ausgang von Gerichtsverfahren zu treffen. Ein konkretes Beispiel liefert die Studie des Projekts, in der untersucht wurde, wie gut maschinelle Lernmodelle tatsächlich in der Lage sind, den Ausgang von Asylverfahren vorherzusagen.
In welche Richtung soll sich das Recht entwickeln? Nun befinden wir uns im Bereich der präskriptiven Rechtsforschung. Es geht darum, das bestehende Rechtssystem zu evaluieren und auf dieser Grundlage Vorschläge zur Verbesserung oder Weiterentwicklung zu erarbeiten. Die präskriptive Rechtsforschung sollte immer darauf ausgerichtet sein, konkrete Handlungsempfehlungen und normative Vorschläge für die Weiterentwicklung des Rechtssystems zu erarbeiten. Hierdurch soll das Rechtssystem an aktuelle gesellschaftliche Bedürfnisse angepasst und verbessert werden. Die präskriptive Rechtsforschung leistet somit einen wichtigen Beitrag zur Gestaltung und Fortentwicklung unseres Rechtssystems.
Datenanalyse kann in einem letzten Schritt auch als Wegweiser für eine korrekte Verwendung von Recht verstanden werden. Werfen wir erneut einen Blick in die USA. Hier finden wir im Bereich der präskriptiven Rechtsforschung Studien, die auf positiven Fortschritt im Rahmen des Zivilprozesses abzielen. Das Access to Justice Lab, ein interdisziplinäres Forschungszentrum an der Harvard Law School, konzentriert sich dabei auf die Verbesserung des Zugangs zur Justiz.
Damit betreten wir das Terrain des Design Thinkings und des Methodenansatzes des Legal Designs, womit sich auch das Stanford Legal Design Lab, ein Forschungszentrum an der Stanford Law School, schwerpunktmäßig beschäftigt.
All dies steht in Deutschland jedoch nicht an der Tagesordnung. Vielmehr fristet die empirische Rechtsforschung bis heute ein Nischendasein, auch wenn sich gegenwärtig gegenteilige Entwicklungstendenzen offenbaren. Die Gründe für den beschränkten Blick auf die empirische Rechtswissenschaft sind dabei vielfältig. Hier können nur einzelne betrachtet werden. Im Folgenden werden wir deshalb kurz die Historie der empirischen Rechtsforschung nachzeichnen, um vor diesem Hintergrund aktuelle Probleme der quantitativen Rechtsforschung sowie ihr Potenzial für die Entwicklung von Justizsoftware zu beleuchten.
Die empirische Rechtsforschung gibt es in Deutschland erst seit gut 100 Jahren. Externe Einflussfaktoren auf das Recht kamen erst mit dem Aufkommen der Rechtstatsachenforschung durch Eugen Ehrlich in den deutschen Diskurs. Ehrlich ging es darum, dass
„der hergebrachten dogmatischen Rechtsauffassung die dynamische entgegengesetzt werde […], für die es nicht bloß darauf ankommt, was ein Rechtssatz bedeutet, sondern wie er lebt, wie er wirkt, wie er sich in verschiedenen Verhältnissen bricht, wie sie ihm ausweichen und wie er sie verfolgt.“
Die dogmatische Rechtsauslegung sollte durch Methoden der Sozialwissenschaften (Emile Durkheim) und damit auch der Empirie ergänzt werden. Erst in der zweiten Hälfte des 20. Jahrhunderts kam es in Deutschland zu einer stärkeren Prägung durch die aufkommende Disziplin der Rechtssoziologie. Das Ergebnis war eine Rechtstatsachenforschung, die sich mit den Themen der Gesetzesfolgenabschätzung bis hin zur Rechtsakzeptanz beschäftigte und hierbei auch stets auf die Form der Datenanalyse zurückgriff. Im Mittelpunkt standen hier immer wieder Analysen der Judikative. Man untersuchte die Gleichbehandlung in der Urteilsfindung, die Frage einer Klassenjustiz oder selbst soziale Merkmale, Einstellungen und Verhaltensweisen von Richter:innen. Die in diesem Zuge vorgenommenen Analysen der Gerichte und Richter:innen basierten hier zumeist aber noch auf der manuellen Auswertung von Interviews und Fragebögen. Erst langsam durch den Einzug der ersten computergestützten Analysen in den 1960er Jahren veränderte sich der Methodenkanon. Die Rechtssoziologie wurde nun weiter ergänzt durch die aufkommenden computational legal studies und die Sparte Recht & KI. Das Problem war jedoch auch hier, dass mit der Kategorisierung von Gerichtsentscheidungen ein enormer menschlicher Aufwand nötig war. Flächendeckende Auswertungen der Judikative waren auch hier nicht möglich. Steigerungen der Rechen- sowie Speicherkapazitäten und der algorithmischen Effzienz vom Beginn des 21. Jahrhunderts bis heute lassen es nun aber zu, dass Textteile automatisch extrahiert und über natural language processing verarbeitet werden. Damit können die zuvor bestehenden Beschränkungen nun aufgebrochen werden. Dies spiegelt sich auch in entsprechenden Entwicklungen in Wissenschaft und Forschung wider, wie sie oben geschildet wurden.
Doch in Deutschland bestehen noch verschiedene Hürden. So ist allen voran die Datengrundlage in Form von Justizdaten als Grundlage der empirischen Rechtsforschung nicht existent. Nach dem Datenqualitätsmodell von Wang & Strong kann dies anhand von vier Oberkategorien gemessen werden. Erstens die Zugänglichkeit der Daten, zweitens die Darstellung der Daten (Auslegbarkeit, Verständlichkeit, einheitliche Darstellung, Übersichtlichkeit), drittens dem Zweck, zu dem die Daten verarbeitet werden (insbes. Relevanz für den konkreten Zweck, Aktualität, Vollständigkeit, hinreichende Anzahl für den Verarbeitungszweck) und viertens Aussagekraft der individuell verfügbaren Daten aus sich heraus (Glaubhaftigkeit, Exaktheit, Objektivität, Reputation der Quelle).
Fast alle diese Aspekte werden bisher in Deutschland jedoch nicht erfüllt. So scheitert es bereits an der Verfügbarkeit der Justizdaten. Dabei werden beispielsweise weniger als 1% der Gerichtsentscheidungen veröffentlicht. Selbst im Hinblick auf die bundesgerichtliche Rechtsprechung liegt die Veröffentlichungsquote seit 1949 bei 40%. Darüber hinaus werden die Namen der entscheidenden Richter:innen meist geschwärzt. Dazu kommt, dass Geschäftsverteilungspläne der Justiz nur im Promillebereich veröffentlicht werden. Vielmehr müssen sie meist individuell im Gericht eingesehen werden. Auch weitere entscheidungsrelevante Schriftstücke wie die Schriftsätze der Parteien oder gerichtliche Hinweise stehen nicht zur Verfügung. Mangels Verfügbarkeit fehlt es auch an einem gemeinsamen Datenstandard, der die Fragen der jeweiligen Darstellung der einzelnen Daten einheitlich regeln würde. Dies erschwert selbst bei den geringen Beständen an verfügbaren Daten die Auswertbarkeit erheblich. Und wiederum deshalb lassen sich auch keine zuverlässigen Aussagen darüber treffen, ob die jeweilige Datengrundlage kontextabhängig für den jeweiligen Analysezweck geeignet ist. Lediglich im Hinblick auf die vierte Kategorie der Aussagekraft der individuell verfügbaren Daten lassen sich hinsichtlich einzelner Datentypen wie Gerichtsentscheidungen positivere Zeugnisse ausstellen. Denn diese stammen überwiegend von den Gerichten oder Organen der Rechtspflege selbst, denen im Rahmen eines demokratischen Rechtsstaates als Datenerzeuger ein erhebliches Vertrauen entgegengebracht wird. Abstriche sind jedoch auch hier zumachen, da immer noch keine allgemeinen Qualitätsstandards etwa für gerichtliche Entscheidungen etabliert sind.
Ein weiteres Problem liegt auch in der juristischen Ausbildung selbst begründet. Das Lehren von Methoden der empirischen Forschung im Hinblick auf qualitative und quantitative Ansätze kommen nicht vor. Ausgenommen davon ist das nicht verpflichtende Nebengebiet der Rechtssoziologie. Wie aber soll ein Interesse an empirischen Forschungsfragen entstehen, wenn im Zuge der Ausbildung keine Berührungspunkte bestehen? Aus diesem Grunde fehlt auch in der breiten Justizlandschaft ein Verständnis für die Vorzüge der empirischen Rechtsforschung und die Notwendigkeit der breiten Veröffentlichung von Justizdaten in einem maschinenlesbaren Format.
Dabei könnte ein anderer Umgang mit der empirischen Rechtsforschung in Deutschland für die Digitalisierung der Justiz einen großen Gewinn darstellen. Auch hier können wir nicht auf all diese Vorteile eingehen. Wir beschränken uns auf drei Bereiche, die wir im Folgenden näher beleuchten.
So könnten Richter:innen erstmals einen erleichterten Zugang zu einer kontextuellen Analyse der Entscheidungen ihrer Kolleg:innen erhalten. Dies bietet Vorteile für die Quantität, aber auch die Qualität der Arbeit.
Die Quantität bezieht sich dabei auf die Geschwindigkeit der Arbeit. Vergleichbare Fälle ließen sich über entsprechende Suchmaschinen in Sekundenschnelle ermitteln. Dabei wäre stets sichtbar, wo sich Fälle ähneln und wo sie sich unterscheiden. Zugleich könnte gefiltert werden nach Ausgang der Verfahren und den am Prozess Beteiligten. Damit müsste das Rad bei vergleichbaren Sachverhalten nicht in jedem Verfahren neu erfunden werden. Mittelfristig ist auch die Erstellung prognostischer Vorschläge zu Teilaspekten der Entscheidung denkbar. Dies bedeutet für Richter:innen zumindest im Rahmen der Abfassung des Urteils eine nicht unerhebliche Arbeitsentlastung. Streitwert, Argumentation oder Tenor können potenziell von Kolleg:innen übernommen werden. Doch auch für die rezipierende Öffentlichkeit kann sich so ein Bild einer Rechtsprechung ergeben, die vergleichbare Sachverhalte vergleichbar entscheidet. Die in der allgemeinen Öffentlichkeit verbreitete Redewendung „drei Richter, fünf Meinungen“ könnte so erheblich an Relevanz verlieren. Das jedenfalls gegenwärtig noch im Vergleich zu anderen staatlichen Institutionen hohe Vertrauen in die Justiz könnte gehalten oder ausgebaut werden.
An dieser Stelle bestehen aber natürlich auch Risiken. Die Übernahme einer vergleichbaren Argumentation kann möglicherweise dazu verleiten, sich (unbewusst) keine vertieften eigenen Gedanken zu machen. Auf diesem Wege kann es zu einer (unbewussten) Homogenisierung der Rechtsprechung kommen, die Ungleiches gleich behandelt und Machtstrukturen zementiert. Im Rahmen der Entwicklung einer entsprechenden Software könnte eine solche Gefahr beispielsweise über regelmäßig erscheinende Hinweisfelder oder Supervisionen ausgeglichen werden, die die Nutzer:innen auf die Möglichkeit entsprechender Ankereffekte hinweist. Derartiges kann in einem demokratischen Rechtsstaat, der auf dem Prinzip der richterlichen Unabhängigkeit basiert, aber auch übertrieben sein. Arbeitsschritte lassen sich nicht bis ins kleinste Detail nachverfolgen. Demokratie lebt von Vertrauen – auch gegenüber den Richter:innen, die eine entsprechende Software gewinnbringend einsetzen.
Die Qualität bezieht sich auf die inhaltliche Tiefe der Entscheidungsbegründung. Lassen sich vergleichbare Fälle schneller auffinden, ist es auch leichter, sich im Kontext mit der Argumentation von Kolleg:innen abzugleichen. Die eigene Sichtweise kann so stetig reflektiert und gegebenenfalls angepasst werden. Im Ergebnis ist nicht mehr nur die Sichtweise der jeweiligen höchstrichterlichen Rechtsprechung (horizontale Rechtsprechung), sondern auch die verbreitete Sichtweise unterinstanzlicher Gerichte (vertikale Rechtsprechung) prägend. Auch hier können sich jedoch negative Auswirkungen ergeben. So bedeutet ein erhöhtes Maß an Informationen auch einen erhöhten Aufwand in der Fallbearbeitung. Ist zudem sichtbar, dass eine breite Mehrheit in eine Richtung entscheidet, kann es schwerer sein, sich entgegen
dieser Mehrheit rechtlich zu positionieren.
Es wäre auch möglich, über die Zeit die Art der Argumente, die verwendeten Quellen, Ausgänge in Abhängigkeiten zu Prozessbeteiligten oder auch Schreibstile zu erfassen. Damit könnten interne Profile erstellt werden, auf die jeweils nur die einzelnen Richter:innen Zugriff hätten. Diese können Grundlage sein für ein internes Monitoring der Richter:innen im Hinblick auf sich selbst. So können Anreize geschaffen werden, über möglicherweise bestehende entscheidungserhebliche Faktoren in einzelnen Bereichen zu reflektieren. Eine durch Software erstellte Prognose zu einem Teil der Entscheidung kann dann auch mit der eigenen finalen Entscheidung abgeglichen werden, um etwaige Weiterentwicklungen des eigenen juristischen Denkens zu erkennen. Gegebenenfalls offenbaren sich so auch Entscheidungstendenzen, die erst vor dem Hintergrund der makroskopischen Betrachtung sichtbar und problematisierbar werden. Neben die kollegiale Supervision tritt so eine individuelle. Einer etwaigen Tendenz, dass Entscheidungen nur noch durch zurückgezogene Einzelrichter:innen getroffen werden, die sich über die Zeit vom kollegialen Austausch distanzieren, kann so entgegengewirkt werden.
Die Rechtswissenschaft hat sich lange davor verweigert, Qualitätsmessungskriterien einzuführen. Auch heute tut sie sich damit noch schwer. Das fängt bei der Bewertung juristischer Examina an. Man bewertet “eine den durchschnittlichen Anforderungen entsprechende Leistung”, ohne zu wissen, was den Durchschnitt ausmacht. Dies setzt sich fort in der Berufswelt mit der Anwaltschaft, die abseits weniger Beispiele keine gemeinsamen, sondern individuelle Standards in Wissenssilos entwickelt. Und auch die Justiz ist zurückhaltend mit der Entwicklung von Qualitätskriterien. Zwar finden im Zuge der Bewertung von neuen Justizanwärter:innen im Rahmen der dreijährigen Erprobung oder im Zuge einer Abordnung regelmäßige Leistungskontrollen statt. Auch wird versucht, die Arbeitsbelastung im Zuge ausgefeilter Geschäftsverteilungspläne gleich zu verteilen. Auf europäischer Ebene gibt es sogar eine Kommission für die Messung der Qualität und Effzienz der europäischen Justiz. Doch was eine gute Gerichtsentscheidung im Einzelfall ausmacht und ob dies in der Breite immer erfüllt wird, wird nicht geprüft. Dabei könnten wir nun auf granularer Ebene verschiedene Faktoren bemühen. Nur einzelne Beispiele: Ist die Entscheidung für Laien verständlich? Hat ein Satz also weniger als 15 Wörter, fehlt es an Passivformulierungen, Substantivierungen, lateinischen Fachausdrücken und gibt es Erläuterungen für juristische Fachsprache? Wie schnell wird entschieden? Entscheidet die Rechtsprechung in vergleichbaren Fällen gleichartig? Wird die gesetzgeberische Intention mit den Entscheidungen umgesetzt? Haben unterrepräsentierte Gruppen Zugang zur Justiz?
Diese Faktoren müssen dabei nicht auf die individuellen Richter:innen heruntergebrochen werden. Sie können auch schlicht als Gesamtbild präsentiert werden, um einen Eindruck von der Justiz in der Breite zu erlangen. Auch wäre es denkbar, individuelle Profile lediglich einzelnen Richter:innen zur Verfügung zu stellen, um eine Selbstprüfung zu ermöglichen.
Wie wir anhand ausländischer Forschungsbeispiele und dem gegenwärtigen Stand der empirischen Rechtsforschung in Deutschland erkennen können, sind Justizdaten in einer hinreichenden Qualität nach dem Modell von Wang & Strong, insbesondere Gerichtsentscheidungen, von immenser Bedeutung für die quantitative Rechtsforschung. Durch die Analyse von Gerichtsentscheidungen können Forschende ein tieferes Verständnis dafür erlangen, wie das Recht in der Praxis angewendet wird, welche Trends in der Rechtsprechung zu erkennen sind und wie sich Entscheidungen auf die Gesellschaft auswirken.
Die konsequente Analyse von Justizdaten kann aber auch in der Justiz sowie gesamtgesellschaftlich perspektivisch verschiedene Auswirkungen haben. Zum einen kann sie dazu beitragen, die Transparenz und Objektivität der Rechtsprechung zu erhöhen, indem sie Einblicke in die Praxis und die Entscheidungsfindung der Gerichte liefert. So können beispielsweise Unterschiede in der Anwendung von Gesetzen zwischen verschiedenen Gerichtsbezirken aufgedeckt werden. Zum anderen kann eine solche Datenanalyse dazu beitragen, Effizienz und Effektivität in der Rechtsprechung zu verbessern. Eine aktuell omnipräsente Herausforderung, die Überbelastung der Gerichte und von Justizmitarbeitenden, könnte durch Verwendung von Justizdaten und Datenanalysen reduziert werden. Durch die Identifikation von Mustern und Trends können Richtlinien und Best Practices entwickelt werden. Schnellere und kostengünstigere Abwicklungen von Verfahren wären das Resultat.
Letztlich sollte das Argument der Rechtssicherheit überzeugen. Durch gesammelte Durchschnittswerte von beispielsweise Schadensersatz- oder Streitwerten können Gerichte fundierte Entscheidungen treffen und einheitlichere Urteile fällen. Dies trägt dazu bei, die Vorhersehbarkeit und Konsistenz der Rechtsprechung zu erhöhen, was unmittelbare Auswirkungen auf das Vertrauen der Bevölkerung in das Rechtssystem hat.
Vor diesem Hintergrund wäre es verwunderlich, wenn sich nicht endlich ein breiter Wille in der
Juristerei etabliert, um eines zu erreichen: Die Freigabe aller juristischen Daten.