Künstliche Intelligenz im Gerichtssaal: Wie weit darf Legal Tech gehen?

Im Rechtssystem entscheiden Menschen über Menschen. Doch KI hält in allen Lebensbereichen Einzug, auch in der Justiz. Wie lange wird es noch dauern, bis eine Software die Rolle des Richters übernimmt – und wer kontrolliert dann das System?

Von Katarina Fischer
Veröffentlicht am 11. Mai 2022, 09:22 MESZ
Die Statue der Justitia vor einem Hamburger Gericht.

Die römische Göttin Justitia – hier vor einem Gerichtsgebäude in Hamburg –  ist das Sinnbild der Gerechtigkeit und steht symbolisch für die Unbestechlichkeit und Unabhängigkeit des Gerichts. Die emphatische Berücksichtigung aller Faktoren spielt bei der Rechtsprechung trotzdem immer eine Rolle – KI ist dazu nicht in der Lage.

Foto von Philippe Oursel

In der Wahrnehmung vieler Menschen sind technologischer Fortschritt und Digitalisierung ein zweischneidiges Schwert. Auf der einen Seite sollen Maschinen möglichst viele ungeliebte Aufgaben abnehmen, den Alltag erleichtern und Abläufe beschleunigen. Andererseits besteht in Bezug auf die Übernahme von Lebens- und Arbeitsbereichen durch Maschinen die Sorge vor einem mutmaßlich damit einhergehenden Kontrollverlust – das zeigt zum Beispiel der Argwohn gegenüber selbstfahrenden Fahrzeugen.

Die Vorstellung, dass Algorithmen und Computerprogramme in unseren Rechtssystemen Entscheidungen treffen könnten, die unser Leben und unsere Freiheit direkt betreffen, scheint geradewegs einem düsteren Science-Fiction-Film entsprungen zu sein. Doch Künstliche Intelligenz in der Justiz ist keine Zukunftsmusik: Legal Tech existiert und hat bei Gericht und in Staatsanwaltschaften längst Einzug erhalten – auch in Deutschland.

Auf welchem Stand ist die KI-Justiz in Deutschland heute?

Laut einem Sachstandsbericht des Deutschen Bundestags aus dem Jahr 2021 kommt in der deutschen Justiz derzeit allerdings bisher nur die sogenannte schwache KI zum Einsatz: Systeme, „die sich selbstoptimierend auf die Lösung konkreter Anwendungsprobleme auf Basis der Methoden aus der Mathematik und Informatik“ fokussieren. Gemeint sind damit etwa Sprach- und Bilderkennung, Simulationssoftware und Musteranalyse – auch als maschinelles Lernen bekannt. Bis zum Einsatz starker KI, die die gleichen oder bessere intellektuelle Fähigkeiten als der Mensch hat, ist es noch ein weiterer Weg.

„Der Einsatz von KI in der Justiz steckt noch in den Kinderschuhen“, sagt Isabelle Biallaß. Die Richterin am Amtsgericht Essen ist im Vorstand des EDV-Gerichtstags e. V., der sich seit 30 Jahren mit der Digitalisierung der Justiz befasst, und war als Referentin des Ministeriums des Landes Nordrhein-Westfalen für die Themen KI-Einsatz in der Justiz und Legal Tech zuständig. „Im Bereich der richterlichen Entscheidungsfindung sind KI-Systeme noch nicht im alltäglichen Einsatz“, sagt sie. Die Justiz prüfe derzeit aber in mehreren Pilotprojekten, wie der Einsatz von KI im Rechtssystem sinnvoll ausgeweitet werden könnte.  

So beschäftigt sich das Forschungsprojekt „Legal Analytics“ des Bayerischen Staatsministeriums aktuell mit der Möglichkeit einer anonymisierten Datenbank von Gerichtsentscheidungen, die Analysen für die Entscheidungen zukünftiger Rechtsfälle – vor allem im Zivilrecht – erlauben könnte. Auch in der Strafverfolgung kommt KI zum Einsatz: Seit dem Jahr 2020 entwickelt das Forschungsprojekt KISTRA des Bundes KI-Methoden zur automatisierten Erkennung von Straftaten wie zum Beispiel Hasskriminalität im Internet. An anderer Stelle durchforstet KI große Datenmengen nach kinderpornographischem Material. Systeme, die rechtlich relevante Informationen aus elektronischen Dokumenten auslesen oder bei Gericht eingereichte Dokumente auslesen, werden ebenfalls getestet.

Der AI Act der Europäischen Kommission stuft den Einsatz bestimmter KI in den Justizsystemen als hochriskant ein. In Anbetracht der fortschreitenden Weiterentwicklung in diesem Bereich wird schon jetzt diskutiert, wie die Systeme der Zukunft reguliert werden sollen.

Foto von Conny Schneider / Unsplash

Mit Legal Tech gegen den Prozessstau

Bevor ein Verfahren vor Gericht beginnen kann, müssen zunächst viele administrative Aufgaben erfüllt und oft große Datenmengen bearbeitet werden – Vorgänge, die viel Zeit in Anspruch nehmen und mitverantwortlich für den Prozessstau in einigen Justizbereichen sind. „Diesbezüglich kann der Einsatz von KI durchaus zu einer Entlastung der Mitarbeiter und einer „Entschlackung“ der Verfahrensabläufe führen“, sagt Nicole Formica-Schiller, Vorstandsmitglied des KI Bundesverbands sowie CEO und Gründerin der Pamanicor Health AG.

KI erfüllt im deutschen Rechtssystem die Aufgaben von Assistenten und arbeitet Juristen zu, indem sie Daten erfasst, verarbeitet und aufbereitet. Eine Ausweitung dieser Aufgabenbereiche geht nur langsam voran, weil Machine Learning-Anwendungen mit vielen Daten gefüttert werden müssen, bevor sie eingesetzt werden können. Im Fall von Legal Tech lernt die KI aus gefällten Urteilen. Daran mangelt es eigentlich nicht – doch nur die wenigsten sind öffentlich. Grund ist der Datenschutz.

„Aus dem Koalitionsvertrag ergibt sich, dass die neue Regierung plant, mehr Urteile verfügbar zu machen“, sagt Isabelle Biallaß. „Wie die praktische Umsetzung dieser Pläne erfolgen soll, bleibt spannend. Die Entscheidungen müssen nämlich zwingend vor ihrer Veröffentlichung anonymisiert beziehungsweise pseudonymisiert werden. Muss dies manuell geschehen, wird hierfür sehr viel Personal benötigt.“ Eine Lösung könnten Biallaß zufolge KI-Systeme zur Anonymisierung sein, zu denen in Deutschland und Österreich bereits Pilotprojekte laufen.

Digitales Mindset: Ängste und Sorgen

Doch das ist nicht die einzige Hürde beim Ausbau der Justiz-KI: Zurzeit fehlen grundsätzlich noch die nötigen technischen und personellen Strukturen. Aber auch die rechtlichen Rahmenbedingungen müssten angepasst werden, was Änderungen von Prozess- und Verfahrensordnungen erfordern würde – immer unter Berücksichtigung geltender Staats- und Verfassungsrechte. Die größte Herausforderung dürfte aber wohl darin liegen, eine Änderung des digitalen Mindsets herbeizuführen und zu erreichen, dass die Bevölkerung ihren Argwohn gegenüber der künstlichen Intelligenz im Gerichtssaal ablegt.

Ein schwieriges Unterfangen, wenn der Gedanke an künstliche Intelligenz in der Justiz sofort Bilder eines erbarmungslosen Roboterrichters heraufbeschwört. Justitia ist blind und so könnte man argumentieren, dass die mathematischen Algorithmen einer KI, die nur kühle Zahlen und Fakten berücksichtigen kann und menschliche Faktoren völlig außer Acht lässt, zu besonders fairen, unparteiischen Urteilen führen würden. Doch bei vielen juristischen Entscheidungen handelt es sich um Wertentscheidungen: Richter treffen nach subjektiv-empathischer Abwägung und unter Einbeziehung unterschiedlichster Aspekte Entscheidungen in ihrem Ermessen. Darum ist die KI laut Isabelle Biallaß auch nicht besser zum Fällen von Urteilen geeignet als ein Mensch.

„Richterliche Entscheidungen beziehen sich immer auf ein konkretes Individuum und einen konkreten Einzelfall“, erklärt sie. „Es werden keine ‚Regelfälle‘ entschieden, sondern Einzelfälle mit individuellen Besonderheiten. Hierzu ist KI nicht in der Lage.“ Ihr fehle die Fähigkeit zur Auslegung unbestimmter Rechtsbegriffe oder zum Verständnis von Emotionen – Eigenschaften, die unverzichtbar sind, wenn über Menschen entschieden werden soll.

Eine weitere Sorge, die viele in Hinblick auf die Weiterentwicklung von Legal Tech haben, ist die mögliche Gefährdung der Unabhängigkeit der Justiz. Ein Algorithmus, der richterliche Entscheidungen trifft, muss zuvor programmiert werden – von Menschen. Als Argument gegen die KI wird deswegen oft die Furcht vor „diskriminierender Programmierung“ ins Feld geführt und die ungeklärte Frage der Gewaltenteilung: Wer bestimmt, welche Daten in das System eingespeist werden, wie die Programmierung grundsätzlich erfolgen soll und wie transparent dieser Prozess verläuft?

“Es gibt mehrere Regelungen im Grundgesetz, die eine Entscheidung durch eine Maschine ausschließen.”

von Isabelle Biallaß

Hoch-Risiko: Strenge Regeln für Künstliche Intelligenz

Unter anderem mit dieser größtenteils noch hypothetischen Frage beschäftigt sich zum Beispiel die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), die Nicole Formica-Schiller als KI-Expertin berät und die im Jahr 2019 Regeln für Künstliche Intelligenz festgelegt hat. Bereits ein Jahr zuvor veröffentlichte die Europäische Kommission für die Effizienz der Justiz (CEPEJ)  fünf Grundsätze der Ethik Charta über den Einsatz künstlicher Intelligenz in der Justiz und in ihrem Umfeld. Für den Einsatz von KI im Rechtssystem setzen diese die Achtung der Grundrechte, Kontrolle der Nutzer, Transparenz – sowie Unparteilichkeit und Fairness –, Qualität und Sicherheit sowie die Abwesenheit von Diskriminierung voraus.

In einem Vorschlag zur Regulierung von KI, den die Europäische Kommission im April 2021 auf den Weg gebracht hat, wird der Einsatz von starken KI-Systemen in der Justiz als Hoch-Risiko eingestuft. Das bedeutet, dass dieser einer besonders strengen Überwachung unterliegen müsste, wenn es dazu käme. Begründet wird dies mit den möglichen erheblichen Auswirkungen auf Demokratie, Rechtsstaatlichkeit und individuelle Freiheiten. Der sogenannte AI Act erwähnt außerdem die mögliche Gefährdung unparteiischen Gerichts – allerdings gilt dies nur für bestimmte KI. Die rein begleitenden Verwaltungsaktivitäten, die gerade in Deutschland ausgebaut werden, sind nicht als hochriskant eingestuft. Rechnet die EU-Kommission also damit, dass künstliche Intelligenz an europäischen Gerichten in ferner oder naher Zukunft doch mit Entscheidungsgewalt ausgestattet wird?

„Hierzu lässt sich der schöne Juristensatz anbringen: ‚Vor Gericht und auf hoher See‘, das heißt, wer weiß heutzutage schon genau was die Zukunft bringt?“, sagt Nicole Formica-Schiller. Wichtiger als die Frage, ob und wann es dazu käme, sei es deswegen, schon jetzt genaue Vorgaben für diesen Fall festzulegen. „Jeglicher Einsatz von KI in der Justiz muss den Kriterien der Transparenz und Nachvollziehbarkeit unterliegen und auf verantwortungsvolle Weise unter Einhaltung der Grundrechte erfolgen“, sagt sie.

KI als Richter – ist das erlaubt?

Selbst wenn alle technischen und personellen Voraussetzungen erfüllt wären: Der gefürchtete Roboterrichter hätte derzeit keine Chance, seinen Dienst an deutschen Gerichten anzutreten. „Es gibt mehrere Regelungen im Grundgesetz, die eine Entscheidung durch eine Maschine ausschließen“, sagt Isabelle Biallaß. „Zudem gibt es mehrere einfachgesetzliche Regelungen – zum Beispiel im Deutschen Richtergesetz –, aus denen sich ergibt, dass der Richter ein Mensch sein muss.“ Ein Richter, der in Deutschland urteilt, muss außerdem zwingend die deutsche Staatsbürgerschaft haben – ein Kriterium, das eine KI nicht erfüllen kann.

KI-Richter gibt es auch in China nicht, dafür aber einen KI-Staatsanwalt: Die neueste Ergänzung der Software „System 206“ kann nicht nur die acht häufigsten Straftaten in Shanghai – unter anderem Diebstahl, Kreditkartenbetrug und Glücksspiel – erkennen, sondern auch selbstständig Anklage erheben. Angeblich hat die KI eine Zuverlässigkeit von 97 Prozent.

Aber auch dieses Szenario ist unter den heutigen Voraussetzungen in Deutschland ausgeschlossen, denn hierzulande erhebt die Staatsanwaltschaft nur bei hinreichendem Tatverdacht Anklage und „die hierfür notwendigen Erwägungen können nicht von einer Maschine getroffen werden“, sagt Isabelle Biallaß. „Zudem muss es sich auch bei einem Staatsanwalt um einen Menschen mit der Befähigung zum Richteramt handeln.“ Dass es in dieser Hinsicht zu einer Gesetzesänderung kommen könnte, bezweifelt sie. „Es ergibt sich aus dem Grundgesetz, dass der Mensch nicht zum bloßen Objekt des Verfahrens gemacht werden darf. Dies wäre jedoch der Fall, wenn eine Maschine über die Anklageerhebung entscheiden würde.“

Legal Tech ist also derzeit und bis auf weiteres ein ausbaufähiges Hilfsmittel, das Abläufe in den Rechtssystemen beschleunigen und Juristen ihre Arbeit erleichtern kann – genau das also, was wir Menschen uns von neuen Technologien wünschen.

„Für mich ist es wichtig zu betonen“, sagt Nicole Formica-Schiller, „dass bei jeglichem Einsatz von KI diese stets ein Instrument bleibt, das dem Gemeinwohl dient und deren Anwendung stets die Rechte jedes Einzelnen zu jedem Zeitpunkt zu wahren hat.“

Ein Grundsatz, der nicht nur im Gerichtssaal gelten sollte.

Wei­ter­le­sen

Mehr zum Thema

Wissenschaft
Agri-Photovoltaik: Stromproduktion beim Gemüseanbau
Wissenschaft
Autonomes Fahren – eine Frage der Kontrolle
Wissenschaft
Roboter-Bienen: Kann Technik die Arbeit von Insekten ersetzen?
Wissenschaft
Cyberkrankheit: Warum endloses Scrollen körperlich krank macht
Wissenschaft
Neue Software soll Maskenverweigerer erkennen

Nat Geo Entdecken

  • Tiere
  • Umwelt
  • Geschichte und Kultur
  • Wissenschaft
  • Reise und Abenteuer
  • Fotografie
  • Video

Über uns

Abonnement

  • Magazin-Abo
  • TV-Abo
  • Bücher
  • Newsletter
  • Disney+

Folgen Sie uns

Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2021 National Geographic Partners, LLC. All rights reserved