Charlotte Thams

Künstliche Intelligenz (KI) ist auf dem Vormarsch. Mit geschätzten Investitionen zwischen 7,9 und 9 Mrd. Euro im Jahr 2019[1] halten KI-Anwendungen in rasantem Tempo Einzug in europäische Branchen. Spätestens mit der Veröffentlichung von ChatGPT Ende November 2022 ist KI in aller Munde. Schülerinnen und Schüler nutzen KI als Hilfsmittel um Hausarbeiten zu schreiben und sogar Anwältinnen und Anwälte scheinen sich durch das Versprechen von Zeit- und Arbeitsersparnissen zur (ungeprüften) Nutzung der KI-Anwendung verleiten zu lassen. Erst kürzlich wurde der Fall eines Anwalts in den USA bekannt, der in einem Antrag nichtexistente und anscheinend von ChatGPT erfundene Urteile zitierte.[2] Der Vorfall wirft neue Fragen auf, die den zukünftigen Umgang mit KI in der Justiz betreffen. Dabei werden durchaus hohe Erwartungen an die KI gestellt, denn ihr prognostizierter Einsatz reicht von Recherchehilfsmittel bis hin zur Richterbank. Zunehmend wird befürchtet, juristische Berufe könnten zukünftig größtenteils von KI-Anwendungen ersetzt werden.[3] Dadurch könnten nicht nur hohe Summen aufgrund von automatisierten Abläufen und optimierte Nutzung von Ressourcen gespart werden, insbesondere im Bereich der Justiz würde dies im Hinblick auf den Fachkräftemangel[4] weitere Erleichterungen bedeuten.

Durch maschinelles Lernen entstehen in Bezug auf die Transparenz und Rückverfolgbarkeit der von KI erzeugten Ergebnisse allerdings inhärente Probleme, die zahlreiche Risiken mit sich bringen.[5] Vor diesem Hintergrund ist fraglich, ob und unter welchen Voraussetzungen KI auch in kritischen Bereichen wie der Justiz eingesetzt werden kann und ob insbesondere der Einsatz als Richterin überhaupt möglich ist.

  1. Was ist KI eigentlich?

Um die Auswirkungen einer Automatisierung der Justiz zu bestimmen, muss zunächst die Bedeutung des Begriffs KI verstanden werden. Ursprünglich wurde KI als Mittel geschaffen, um menschliche Intelligenz mit Hilfe von Technologie zu imitieren. Somit kann KI als eine Maschine definiert werden, die die Fähigkeit aufweist, wie ein Mensch zu denken und zu handeln, dabei aber auf hyperrationale Prozesse zurückgreifen kann.[6] Eine KI in der Justiz sollte also in der Lage sein unvoreingenommen und ausschließlich auf Fakten basierende Entscheidungen zu treffen und insbesondere als Richterin fehlerfrei und fair zu urteilen.

  1. KI als Richterin

KI auch in der Justiz einzusetzen, scheint eine logische Konsequenz der derzeitigen technischen Entwicklungen. In unzähligen Bereichen kann KI den Arbeitsalltag massiv erleichtern. Tatsächlich gibt es bereits einige Überlegungen und experimentelle Anwendungen, die nach und nach auch an Gerichten vorgestellt werden sollen. In den USA wird seit einiger Zeit bspw. ein Algorithmus zur Bestimmung der Rückfallwahrscheinlichkeit von Angeklagten eingesetzt, dessen Ergebnisse bereits in die Entscheidungsfindung einfließen.[7] Eine KI als Richterin einzusetzen, scheint dementsprechend ebenfalls nicht mehr fernzuliegen. Insbesondere da eine solche Automatisierung der Rechtsprechung einige Vorteile mit sich bringen könnte.

  1. Mögliche Vorteile des Einsatzes von KI
  2. Verfahrensdauer

Die Zahl der anhängigen Verfahren in Deutschland im Jahr 2014 betrug ca. 490 500.[8]  Beteiligte mussten bereits damals mit einer durchschnittlichen Verfahrensdauer von 6,1 Monaten rechnen.[9] Aufgrund des anhaltenden Fachkräftemangels und sinkenden Budgets[10] in der Justiz kann eine schnellere Verfahrensbearbeitung jedoch nur durch die effizientere Nutzung der bestehenden Ressourcen ermöglicht werden. Nun könnte der Einsatz von KI Fachkräfte erheblich entlasten und in der Entscheidungsfindung unterstützen.[11] So könnte unter anderem die Arbeitskraft der „menschlichen“ Richterinnen und Richter effektiver genutzt werden. Eine KI kann unterschiedliche Aufgaben, die in deren Tätigkeitsfeld fallen, innerhalb kürzester Zeit erledigen. So könnten z.B. zahlreiche Recherchetätigkeiten in Zusammenhang mit konkreten Sachverhalten ohne spürbaren Zeitaufwand bewältigt werden. Zudem könnten Urteile innerhalb von Sekunden verfasst werden und die gesamte Verfahrensdauer massiv verkürzt werden.[12] Somit könnte in angemessener Zeit Rechtssicherheit gewährleistet werden und letztlich ein effektiver Rechtschutzes sichergestellt werden.[13]

  • Kostenersparnis und Rechtschutzgarantie

Die Übernahme zahlreicher Aufgaben in der Justiz durch eine KI führt neben dem Zeit- und Aufwandersparnis im Folgenden außerdem zu massiven finanziellen Einsparungen. Nicht nur die Arbeitszeit der jeweiligen Richterinnen und Richter oder wissenschaftlichen Mitarbeitenden kann in die Bewältigung anderer Probleme investiert werden, die gesparten finanziellen Mittel könnten sich zudem auf die Kosten ganzer Verfahren auswirken. Eine KI erhält keinen Lohn. Es müssten lediglich Instandhaltungskosten getragen werden. Auch die Anmietung von Büroräumen[14] oder die Bereitstellung von (technischen) Mitteln zu Recherchezwecken könnten gespart werden.

Dies könnte den Zugang zum Rechtschutz auch für finanziell schwächere Gruppen ermöglichen. Trotz der Rechtsschutzgarantie, die im deutschen Grundgesetz (GG) in Art. 19 Abs. 4 verankert ist und nach der jedem der Rechtsweg offensteht, scheitert eine Durchsetzung der eigenen Rechte oft aufgrund der Sorge hoher Verfahrenskosten.[15] Somit würde nicht nur die Rechtschutzgarantie des Grundgesetzes gewährleistet, sondern auch soziale und finanzielle Ungleichheiten in der Bevölkerung in Bezug auf die Durchsetzung eigener Rechte und Ansprüche gestärkt.

  • Vorhersehbarkeit

Durch KI generierte Entscheidungen könnten deren Vorhersehbarkeit zudem signifikant steigern. Dies könnte die generelle Rechtssicherheit im jeweiligen Rechtssystem wiederum positiv beeinflussen. Eine KI muss im Rahmen der Beurteilung eines Sachverhaltes auf ihre Trainingsdaten zurückgreifen. Die endgültige Entscheidung wird dann basierend auf den Informationen vergangener Entscheidungen und insbesondere Recht und Gesetz generiert.[16] Da die Trainingsdaten von KI aus zahlreichen Angaben bestehen sollten (law of large numbers), können auch einzelne fehlerhafte Informationen – im Gegensatz zu menschlichen Richterinnen und Richtern – nur geringen negativen Einfluss auf ihr Ergebnis ausüben. Die Entscheidung einer KI sollte somit in der Theorie kaum vom Gesetz abweichen. Damit könnte der Ausgang eines Verfahrens für die involvierten Parteien bereits im Vorhinein leichter zu prognostizieren sein. Dies könnte zu einem Anstieg außergerichtlicher Vergleiche führen und so die Justiz entlasten sowie zur Einsparung finanzieller Ressourcen aller Beteiligten führen. Außerdem können eine verbesserte Rechtssicherheit und damit verbundenes Vertrauen in den Staat mit einem generellen Anstieg von Investitionen und wirtschaftlichem Wachstum einhergehen[17] und wäre damit mit einem Zuwachs an sozialem Wohlstand in der gesamten Republik verbunden.

  • Unvoreingenommenheit

Nach Art. 3 Abs. 1 GG sind alle Menschen vor dem Gesetz gleich. Gemäß Art. 3 Abs. 3 S. 1 GG darf niemand wegen seines Geschlechtes, seiner Abstammung, seiner Rasse, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden. Trotzdem wird behauptet, dass auch die Justiz nicht frei von Diskriminierung ist. Insbesondere in den USA gibt es zahlreiche Berichte nach denen racial profiling und die systematische Benachteiligung von Individuen basierend auf ihrer Herkunft und Ethnie an US-amerikanischen Gerichten zur Norm geworden ist. Laut der Organisation „the sentencing project“ liegt die Wahrscheinlichkeit einer Inhaftierung für afroamerikanische Erwachsene 5,9-mal höher als für Weiße, denen vergleichbare Taten nachgewiesen wurden.  Für Hispanics liegt diese Wahrscheinlichkeit ebenfalls 3,1-mal höher.[18]

Vor deutschen Gerichten können im Rahmen eines Befangenheitsantrages nach § 24 Abs. 1 Alt. 2, Abs. 2 StPO zwar einzelne Richterinnen oder Richter abgelehnt werden, eine KI könnte jedoch auch hierzulande die Unvoreingenommenheit in Gerichtsverfahren verbessern, denn auch in Deutschland wurden in den letzten Jahren zumindest regionale Ungleichheiten der Strafzumessung bekannt. Eine Studie von Volker Grundies zeigte beispielsweise ein deutliches Nord-Süd-Gefälle.[19] Vergleichbare Taten wurden demnach im Süden des Landes mit wesentlich härteren Strafen geahndet als im Norden.[20]

Eine KI – als Maschine – besitzt keine kognitive Voreingenommenheit oder Vorurteile.[21] Sie ist damit von außen nicht beeinflussbar und könnte mithin als unvoreingenommene Instanz Entscheidungen generieren, die zur Einhaltung des Gleichheitsgrundsatzes beitragen und Sachverhalte ohne äußere Einflüsse beurteilen.

  • Risiken einer automatisierten Justiz
  1.  Unabhängigkeit

Obwohl KIs durch ihre Unabhängigkeit von äußeren Einflüssen einer gewissen Unvoreingenommenheit unterliegen,[22] ist ihre Beeinflussung nicht vollends ausgeschlossen. Die Gefahr liegt jedoch in ihren Trainingsdaten selbst. In der Theorie erhält die KI eine große Menge an Daten und entscheidet nur aufgrund der daraus gewonnenen Erkenntnisse. Basieren diese Daten allerdings nicht vollends auf gerechten Entscheidungen, sind nur wenig Daten verfügbar, ist die Programmierung fehlerhaft oder vorurteilsbelastet,[23] können die Ergebnisse leicht beeinflusst werden und somit einen gegenteiligen als den erwünschten Effekt aufweisen. Insbesondere vor dem Hintergrund neuer Gesetzgebung, zu der wenig Literatur und kaum Rechtsprechung erhältlich ist, könnte dies zu Problemen führen.

Im Rahmen von Rechtsprechung aus vergangenen Jahren oder Jahrzehnten kann eine Berücksichtigung von sozialem oder gesellschaftlichem Wandel in Bezug auf einige oft umstrittene Themen nur schwer sichergestellt werden. In diesem Fall müsste eine Dritte Instanz entscheiden, welche Urteile, welche Literatur und welche allgemeinen Daten als Trainingsdaten verwendet werden dürften. Dies setzt jedoch voraus, dass diese Komplikationen vorab überhaupt erkannt werden und konsequent überprüft werden können. Oft können vergangene Urteile, die auf lange etablierten patriarchalischen oder diskriminierenden Strukturen basieren und Bestandteil von Trainingsdaten einer KI geworden sind, zu darauf aufbauenden Entscheidungen des Systems führen.

Allerdings sind auch vollends unbeabsichtigte Diskriminierungen vorstellbar. Zu einem vergleichbaren Fall kam es bspw. in vergangenen Jahren bei Amazon in den USA. Das Unternehmen setzte eine Software ein, um ein Ranking der eingegangenen Bewerbungen zu erstellen. Dabei wurden Frauen – ­wenn auch unabsichtlich – diskriminiert. Da sich in der Tech-Branche mehr Männer beworben und als Konsequenz prozentual somit auch mehr Männer eingestellt wurden, hatte der Algorithmus gefolgert, dass diese als Kandidaten geeigneter sein müssten.[24] Vorstellbar wäre, dass eine vergleichbare KI, die in der Justiz eingesetzt wird, bspw. erkennt, dass mehr Männer als Frauen für eine bestimmte Straftat freigesprochen wurden. Ob dies nun daran liegt, dass Frauen grundsätzlich weniger oft angeklagt wurden oder tatsächlich öfter schuldig waren, steht offen und sollte grundsätzlich nicht als Variable für Schuld herangezogen werden. Allerdings ist oft nicht zu erkennen, welche Informationen eine KI zur Ergebnisfindung heranzieht.[25]

Weiterhin könnte die Weiterentwicklung des Rechts durch das Verlassen auf Trainingsdaten gefährdet werden. Ein Algorithmus kann sich lediglich auf vorab erstellte Informationen beschränken und eine abweichende Meinung kann somit nicht gebildet werden. Dies kann zwar positive Auswirkung auf die Vereinheitlichung der Rechtsanwendung haben, schränkt allerdings die richterliche Unabhängigkeit derart ein, dass richtende Systeme nun an die Entscheidungen anderer, nicht nur höherer Gerichte gebunden sind, wenn diese Teil ihrer Trainingsdaten sind.[26] Eigene abweichende Interpretationen von Normen sind technisch vollkommen unmöglich. 

  • Öffentlichkeitsgrundsatz

Ferner könnte der Grundsatz der Öffentlichkeit nach § 169 Abs1 Satz 1 Gerichtsverfassungsgesetz unter einer Automatisierung der Justiz leiden. Der Grundsatz ist eng mit dem Grundsatz der Mündlichkeit verbunden und erfordert, dass eine Hauptverhandlung mündlich sowie die Verkündung von Urteilen und Beschlüssen öffentlich erfolgen.[27]

Der Grundsatz wurde als Reaktion auf die bis ins 19. Jahrhundert vorherrschende sog. „Geheimjustiz“ entwickelt.[28]  Er sollte Wahrheit, Gerechtigkeit, Willkürfreiheit, Rationalität und Transparenz in fairen Verfahren garantieren[29] und die Unabhängigkeit von Richterinnen und Richtern sicherstellen.[30] Hierin spiegelt sich also auch das Demokratie- (Art. 20 Abs. 1, 28 Abs. 1 GG) sowie Rechtsstaatsprinzip (Art. 20 Abs. 3, 28 Abs. 1 GG).[31] Deutschland hat sich weiterhin zur Einhaltung des Grundsatzes nach in Art. 6 der Europäischen Menschenrechtskonvention (EMRK) verpflichtet.[32]

Der Einsatz von Algorithmen könnte nun eine unrechtmäßige Umgehung dieser Normen darstellen. Grund hierfür ist insbesondere der sog. „Black-Box-Effekt“.[33] Er bezeichnet das Problem der Opazität.[34] Danach können algorithmische Entscheidungen schwer nachvollzogen oder auf ihre Rechtskonformität hin überprüft werden.[35] Während also der Grundsatz der Mündlichkeit mithilfe von Dritten gewahrt werden könnte, die entsprechende Verkündungen durchführen und die Hauptverhandlung leiten, kann eine Kontrolle der Öffentlichkeit kaum sichergestellt werden. Dies ist insbesondere bei höchstrichterlichen Entscheidungen problematisch. Auch wenn Entscheidungsgründe im Urteil festgehalten werden, besteht keine Transparenz, da konkrete algorithmische Kriterien kaum in Worten festgehalten werden können. Mangels eigener intellektueller Fähigkeiten[36] besteht auch kein Verständnis der eigenen Urteile. Eine KI würde in einem Urteil also keine eigenen Gedankengänge oder Entscheidungskriterien festhalten, stattdessen würden Textbausteine aneinandergereiht, die basierend auf Trainingsdaten und Wahrscheinlichkeit zusammenpassen. Die öffentliche Urteilsverkündung wäre zwar nach außen gegeben, ob das verkündete Urteil allerdings tatsächlich den Verfahrens- und Entscheidungsfindungsprozess widerspiegelt, kann mangels angemessener Transparenz des KI-Algorithmus nicht gewährleistet werden. Der Öffentlichkeitsgrundsatz kann so kaum eingehalten werden und eine Unabhängigkeit der Entscheidung schwer sichergestellt werden.

Da eine KI ihre Entscheidungsprozesse außerdem selbstständig weiterentwickeln kann, können auch weitere Hintergrundinformationen der ursprünglichen Programmierung keine zusätzliche Transparenz liefern. Dem Öffentlichkeitsgrundsatz scheint derzeit durch automatisierte Rechtsprechung mithin nicht entsprochen werden können, sodass dessen Etablierung mit der Umgehung des Rechtsstaat- und Demokratieprinzips nicht verfassungsmäßig umsetzbar ist.

  • Gewaltenteilung

Mit der Abhängigkeit der KI von Trainingsdaten und damit von ihrer Programmiererin oder Programmierer könnte außerdem eine Abweichung von dem Grundsatz der Gewaltenteilung einhergehen. Sowohl Rechtsstaats- als auch Demokratieprinzip könnten hierdurch gefährdet werden. Nach Art. 20 Abs. 2 GG ist die Rechtsprechung an Recht und Gesetz gebunden.

Da im Fall einer KI-Richterin aber die Trainingsdaten massiven Einfluss auf ihre Entscheidung haben, fällt die Entscheidungsmacht den Programmierenden zu. Im Bereich der horizontalen Gewaltenteilung könnte sich eine Machtverschiebung von der Judikative zur Legislative ergeben, die als gesetzgebende Instanz Trainingsdaten und damit die Ergebnisse eines Algorithmus maßgebend beeinflussen könnte. Da eine KI keine eigene Meinung zu Gesetzgebungsvorhaben entwickeln kann, muss sie auf die Ergebnisse der Legislative zurückgreifen, wodurch wiederum Mindermeinungen im Parlament trotz ihrer möglichen Richtigkeit nicht angemessen betrachtet werden. Diese wäre jedoch aufgrund des „Black-Box-Effekts“ im Nachhinein nur schwer nachvollziehbar.

  • Menschlichkeit

In der Praxis könnte die Automatisierung der Justiz weiterhin an Art. 92 HS. 1 GG scheitern, in dem die rechtsprechende Gewalt den Richtern anvertraut wird. Hierbei muss es sich um einen menschlichen Richter handeln,[37] obwohl dies mangels technischer Gegebenheiten in den 1940er nicht konkret im Grundgesetz normiert wurde.[38] Dies ergibt sich allerdings vor dem Hintergrund einfachgesetzlicher Konkretisierungen des Art. 92 GG (wie bspw. §§ 1, 2, 5, 5a ff., 25 und 27 DriG), deren Interpretation – auch in Hinblick auf technische Neuerungen – nur den menschlichen Richterbegriff erlaubt.[39] Weiterhin wird in Art. 97 Abs. 2 GG auf den Willen des Richters abgestellt, der lediglich von einem Menschen gebildet werden kann.[40]

Folglich ist die Automatisierung der Justiz nur nach Verfassungsänderung des Art. 92 GG möglich.[41] Diese ist nach Art. 79 Abs. 3 GG jedoch nur zulässig, wenn die in Artikeln 1 und 20 niedergelegten Grundsätze nicht berührt werden. Wie bereits erläutert wurde, bietet der derzeitige Stand der Technik allerdings noch keine Sicherheit, in Bezug auf die Einhaltung des Rechtsstaatsprinzip (Art. 20 Abs. 3, 28 Abs. 1 GG). Zukünftig könnte sich dies mit der Verbesserung der Transparenz und Begrenzung der Einflussnahme durch manipulierte Trainingsdaten jedoch ändern.

Es kann allerdings argumentiert werden, dass auch der Grundsatz der Menschenwürde einer Automatisierung der Justiz entgegensteht. Dieser verbietet eine Herabwürdigung des Menschen zum Objekt oder einem bloßen Mittel.[42] Die Reduzierung der Verfahrensbeteiligten zu Variablen bzw. reine „Zahlenlogik“[43] im Algorithmus scheint beim Einsatz von KIs jedoch unvermeidbar.[44]  Eine Behandlung der Verfahrensbeteiligten als Mensch ist somit von Vorneherein ausgeschlossen. Auch wenn die Anwendung von KI durch Einwilligung denkbar wäre,[45] ist eine vollständige Automatisierung der Justiz nahezu ausgeschlossen. Die umfängliche Etablierung von KI als Richterin scheitert somit zumindest an Art. 1 Abs. 1 GG.

  1. KI als Unterstützung in der Justiz

Alternativ ist eine Nutzung von KI in der Justiz als Hilfsmittel im Rahmen von Recherche- oder Formulierungstätigkeiten vorstellbar.

Insbesondere in Masseklageverfahren kann ein Algorithmus die ansonsten eintönige und aufwändige manuelle Prüfung zahlreicher Sachverhalte deutlich erleichtern.[46] Die Klageschriften in solchen Verfahren sind oft sehr umfangreich und die Prüfung dementsprechend zeitaufwendig für die Gerichte. Am Oberlandesgericht Stuttgart wird für solche Aufgaben deshalb die KI OLGA eingesetzt und das Amtsgericht in Frankfurt am Main nutzt die KI FRAUKE bereits zur Aufbereitung von Informationen sowie der Ausarbeitung von Formulierungsvorschlägen.[47] Hierdurch werden insbesondere Zeit und Kosten gespart, wodurch ein adäquater Rechtsschutz gesichert werden soll.

Auch die reine Unterstützung von Richterinnen und Richtern birgt jedoch weiterhin die Gefahren. Zunächst sind Ergebnisse, die durch Algorithmen generiert wurden, bei weitem nicht unfehlbar.[48] Der Fall der Nutzung von ChatGPT zur Recherche durch den New Yorker Anwalt ist nur ein Beispiel dafür, dass Algorithmen derzeit noch generelle Schwierigkeiten mit der fehlerfreien Wiedergabe und Recherche (rechtlicher) Sachverhalte und Konzepte aufweisen.[49]

Ferner kann eine Beeinflussung der menschlichen Richterinnen und Richter auch durch Entscheidungen, Formulierungen oder Rechercheergebnisse einer KI nicht ausgeschlossen werden, obwohl diese keine Bindungswirkung entfalten. Insbesondere Automation Bias und Default-Effekte könnten den Verlust von Unabhängigkeit nach sich ziehen.[50] Es handelt sich hierbei um exzessives Vertrauen in die Richtigkeit maschineller Ergebnisse (Automation Bias) und der (darauf aufbauende) Widerwille Entscheidungen zu treffen, die davon divergieren, insbesondere wenn eine Abweichung zusätzlichen Aufwand nach sich zieht (Default-Effekt).[51] Beim Einsatz von Algorithmen zur konkreten Entscheidungsfindung ist mithin Vorsicht geboten.

  1. Fazit

Eine zukünftige Unterstützung von automatisierten Systemen scheint auch in der Justiz denkbar. Nach aktuellem Stand der Technik sollte jedoch von einem Einsatz von Algorithmen bei der Entscheidungsfindung abgesehen werden, insbesondere bei der Prüfung von Verfahren, bei denen es sich nicht um Masseklagen handelt. Für die Einführung einer „KI-Richterin“ wäre zunächst eine Verfassungsänderung notwendig. Diese scheitert jedoch zum jetzigen Zeitpunkt (noch), da Grundsätze der Artikeln 1 und 20 berührt werden. Es ist allerdings nicht auszuschließen, dass die technische Entwicklung automatisierter Systeme, derzeitige Risiken minimieren oder eliminieren könnte, sodass in Zukunft KI als Richterin transparente und faire Entscheidungen treffen könnte oder zumindest durch ihre Unterstützung die Verfahrensdauer minimiert, Kosten gespart und letztlich ein effektiver Rechtschutz gesichert werden könnte.


[1] Joint Research Centre of the European Commission (JCR), Technical Report, AI Watch: 2020 EU AI investments, Luxemburg 2021, S. 3.

[2] Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, New York Times vom 27.05.2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (zuletzt aufgerufen am 18.08.2023); Anwalt fällt auf Fake-Urteile von ChatGPT rein, Legal Tribune Online vom 30.05.2023,  https://www.lto.de/recht/kurioses/k/anwalt-new-york-chatgpt-recherche-schriftsatz-fake-urteile/ (zuletzt aufgerufen am 18.08.2023).

[3] Lilienthal u.a., Schafft Künstliche Intelligenz die Anwaltschaft ab?, Legal Tribune Online vom 28.04.2023, https://www.lto.de/recht/kanzleien-unternehmen/k/chatgpt-chatbots-kuenstliche-intelligenz-ersatz-anwaelte-richter-rechtswesen-anwaltschaft-ki/ (zuletzt aufgerufen am 18.08.2023).

[4] Richterbund warnt vor Personalmangel in er Justiz, beck-aktuell vom 24.08.2022, https://rsw.beck.de/aktuell/daily/meldung/detail/richterbund-warnt-vor-personalmangel-in-der-justiz (zuletzt aufgerufen am 18.08.2023); Strafjustiz am Limit, Deutscher Richterbund vom 11.01.2021, https://www.drb.de/newsroom/presse-mediencenter/nachrichten-auf-einen-blick/nachricht/news/strafjustiz-am-limit-1 (zuletzt aufgerufen am 18.08.2023).

[5] Vgl. Rotermund, Künstliche Intelligenz aus staatlicher Perspektive – Rechtliche Herausforderungen und Chancen, 2021, S. 191f.

[6] Russel/Norvig, Artificial Intelligence: A Modern Approach, 4. Auflage, 2021

[7] Taylor, AI Prediction Tools Claim to Alleviate an Overcrowded American Justice System… But Should they be Used?, Stanford Politics vom 13.09.2020, https://stanfordpolitics.org/2020/09/13/ai-prediction-tools-claim-to-alleviate-an-overcrowded-american-justice-system-but-should-they-be-used/ (zuletzt aufgerufen am 18.08.2023).

[8] Potrafke u.a, Evaluierung der Effizienz von Gerichtsverfahren in Deutschland. Leibniz Institute for economic research, 2017, S. 11.

[9] Potrafke u.a, Evaluierung der Effizienz von Gerichtsverfahren in Deutschland. Leibniz Institute for economic research, 2017, S. 8.

[10] Bundeshaushalt 2022 sieht weniger Ausgaben des Bundesjustizministeriums vor, beck-aktuell vom 28.03.2022,  https://rsw.beck.de/aktuell/daily/meldung/detail/bundeshaushalt-2022-sieht-weniger-ausgaben-des-bundesjustizministeriums-vor (zuletzt aufgerufen am 01.09.2023).

[11] Graichen, Die Automatisierung der Justiz – Untersuchungen zur Verfassungsmäßigkeit der Anwendung von Legal Tech in der Rechtsprechung, 2022, S. 19 f.

[12] Bernzen, Roboter als Richter?, RDi 2023, 132 (134).

[13] Rollberg, Algorithmen in der Justiz – Rechtsfragen zum Einsatz von Legal Tech im Zivilprozess, 2020, S. 35.

[14] Bernzen, RDi 2023, 132 (134).

[15] Rollberg, Algorithmen in der Justiz, 2020, S. 25.

[16] Rollberg, Algorithmen in der Justiz, 2020, S. 31; Bernzen, Roboter als Richter?, RDi 2023, 132 (133).

[17] Portuese u.a., The principle of legal certainty as a principle of economic efficiency. Eur J Law Econ 44, 2017, 131 (156).

[18] Report to the United Nations on Racial Disparities in the U.S. Criminla Justice System, The Sentencing Project vom 19.04.2018, https://www.sentencingproject.org/reports/report-to-the-united-nations-on-racial-disparities-in-the-u-s-criminal-justice-system/ (zuletzt aufgerufen am 23.08.2023).

[19] Grundies, Regionale Unterschiede in der gerichtlichen Sanktionspraxis in der Bundesrepublik Deutschland. Eine empirische Analyse, in: Hermann/Pöge, Kriminalsoziologie, 2018, S. 295.

[20] Grundies, in: Kriminalsoziologie, 2018, S. 295 (303).

[21] Kerrigan, Artificial Intelligence – Law and Regulation, 2022, Kapitel 1 Rn.1.095.

[22] S. d) Unveoreingenommenheit.

[23] Graichen, Die Automatisierung der Justiz, 2022, S. 22.

[24] Wilke, Künstliche Intelligenz diskriminiert (noch), ZEIT Online vom 18.10.2018, https://www.zeit.de/arbeit/2018-10/bewerbungsroboter-kuenstliche-intelligenz-amazon-frauen-diskriminierung?utm_referrer=https%3A%2F%2Fwww.google.com%2F (zuletzt aufgerufen am 23.08.2023).

[25] Ebers u.a., Künstliche Intelligenz und Robotik– Rechtshandbuch, 2020, § 2 Rn. 123.

[26] Vgl. Bernzen, RDi 2023, 132 (133).

[27] Jacobs, in: Stein/Jonas, ZPO, 22 Aufl. 2011, Band 10, § 169 GVG Rn. 1.

[28] Groh, in: Weber, Rechtwörterbuch, 30. Edition, 2023, Öffentlichkeitsgrundsatz.

[29] Redder, Der Grundsatz der Gerichtsöffentlichkeit, JA 2023, 265 (266).

[30] Jacobs, in: Stein/Jonas, ZPO, 22 Aufl. 2011, Band 10, § 169 GVG Rn. 4.

[31] Jacobs, in: Stein/Jonas, ZPO, 22 Aufl. 2011, Band 10, § 169 GVG Rn. 6.

[32] Kudlich, in: MüKo, StPO, 2. Aufl. 2023, Einleitung Rn. 193.

[33] Kment/Borchert, Künstliche Intelligenz und Algorithmen in der Rechtsanwendung, 2022, Rn. 84.

[34] Europäische Kommission, 2021/0106 (COD) vom 21.04.2021, Erwägungsgrund 40.

[35] Ebers u.a., Künstliche Intelligenz und Robotik, 2020, § 3 Rn. 168.

[36] Ebers u.a., Künstliche Intelligenz und Robotik, 2020, § 2 Rn.2.

[37] Nink, Justiz und Algorithmen – Über die Schwächen menschlicher Entscheidugsfindung und die Möglichkeiten neuer Technologien in der Rechtsprechung, 2020, S. 261ff; Graichen, Die Automatisierung der Justiz, 2022, S. 291.

[38] Bernzen, RDi 2023, 132 (134).

[39] Graichen, Die Automatisierung der Justiz, 2022, S. 287.

[40] Bernzen, RDi 2023, 132 (134).

[41] Bernzen, RDi 2023, 132 (134).

[42] Dürig, Der Grundsatz von der Menschenwürde, AöR 81, 1956, 117 (127).

[43] Nink, Justiz und Algorithmen, 2020, S. 349.

[44] Graichen, Die Automatisierung der Justiz, 2022, S. 336; Bernzen, RDi 2023, 132 (136).

[45] Wolff, Algorithmen als Richter – Verfassungsrechtliche Grenzen entscheidungstreffender Rechtsgeneratoren in der Rechtsprechung, 2022, S. 294.

[46] Pfleger, Was kann KI an Zivilgerichten?, LTO vom 14.07.2023, https://www.lto.de/recht/justiz/j/justiz-ki-kuenstliche-intelligenz-e-akte-digitalisierung-zivilgerichte/ (zuletzt aufgerufen am 27.08.2023).

[47] Pfleger, Was kann KI an Zivilgerichten?, LTO vom 14.07.2023, https://www.lto.de/recht/justiz/j/justiz-ki-kuenstliche-intelligenz-e-akte-digitalisierung-zivilgerichte/ (zuletzt aufgerufen am 27.08.2023).

[48] Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, New York Times vom 27.05.2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (zuletzt aufgerufen am 18.08.2023); Anwalt fällt auf Fake-Urteile von ChatGPT rein, Legal Tribune Online vom 30.05.2023,  https://www.lto.de/recht/kurioses/k/anwalt-new-york-chatgpt-recherche-schriftsatz-fake-urteile/ (zuletzt aufgerufen am 18.08.2023).

[49] Nachdem in den vergangenen Monaten zahlreiche Fälle von durch ChatGPT verbreiteten Unwahrheiten bekannt wurden, verlangte nun sogar die US-Verbraucherschuztbehörde (FTC) Aufzeichnungen des Anbieters über Risiken im Zusammenhang mit ihrer AI verlangt (s. Zakrzewski, FTC investigates OpenAI over data leak and ChatGPT’s inaccuracy, Washigton Post vom 13.07.2023, https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/ (zuletzt aufgerufen am 27.08.2023).)

[50] Datenethikkommission, Gutachten der Datenethikkommission, 2019, S. 164.

[51] Datenethikkommission, Gutachten der Datenethikkommission, 2019, S. 213; Bernzen, RDi 2023, 132 (137).