Künstliche Intelligenz im Gerichtssaal

KI verändert unsere Arbeit.

Eine Technologie, von der vor 22 Monaten noch kaum jemand etwas gehört hatte, ist dabei, im Rahmen eines relativ unkontrollierten sozialen Experiments den Alltag auf vielen Ebenen zu verändern. Die für jedermann einfach zugänglichen - Programmierkenntnisse sind nicht erforderlich - Chatbots helfen bei vielem, von sinnvoll über skurril bis kriminell.[1] Ein Manuskript Korrekturlesen? Innerhalb von Sekunden.[2] Tausende Fußnoten in ein bestimmtes Format bringen? Erledigt. Hautkrebsdiagnostik? Mit überragender Genauigkeit.[3] Eine Wagner-Oper über §§ 812, 817 BGB kreieren? Bitteschön.[4] Hilfe bei Phishing-Angriffen und Online Betrug durch Fakeshops? Jederzeit.[5]

Die Leistungsfähigkeit und das Spektrum an Fähigkeiten, das sogenannte künstliche Intelligenz (KI) in die Hände eines jeden legt, der schreiben (oder sprechen - einige Anbieter großer Sprachmodelle [Large Language Models - LLM] bieten eine Spracheingabe an) kann, ist enorm. Wie bei jeder technologischen Innovation werden sich Personen finden, die diese zum eigenen Vorteil missbrauchen, sei es, indem sie akademische Leistungen fälschen, sei es, indem sie Stimmen von Verwandten emulieren, um dem sogenannten Enkeltrick eine neue Dimension an Perfidität hinzuzufügen.[6]

Ohne Weiteres ist vorstellbar, wie mithilfe von KI Beweismittel (oder substantiierter Parteivortrag) gefälscht oder manipuliert werden. Die Fähigkeiten von KI, (bewegtes) Bildmaterial zu generieren, das täuschend echt aussieht, sind im Internet zu bestaunen. Auch die Leserinnen und Leser dieses Artikels können sich daran versuchen, Reales von Generiertem zu unterscheiden.[7] Wie hochwertig die „Deep Fakes“ etwa prominenter Personen werden können, zeigt beispielsweise der YouTube Kanal „Unreal House“, auf dem die KI-Doubles bekannter Schauspielerinnen und Schauspieler uncharakteristisch albernes Gehabe zum Besten geben.[8] Angesichts dieser Möglichkeiten braucht es nicht viel Phantasie, um sich vorzustellen, dass in einem Verfahren (gleich welcher Gerichtsbarkeit) Fotos oder Videos auftauchen, die eine bestimmte Person zu einer bestimmten Zeit an einem bestimmten Ort zeigen, obwohl diese Person tatsächlich nicht oder nicht zu dieser Zeit dort war. Sprachnachrichten, Chatverläufe, E-Mails, Quittungen, GPS- und Verbindungsdaten, Verträge, Bilanzen, Registerauszüge - mit ein wenig Ambition lässt sich all dies und mehr gekonnt fälschen oder manipulieren.[9]

Wenngleich Gerichte und Staatsanwaltschaften nicht als Innovationszentren (für digitale Technologien) gelten, sind es nicht selten diese Institutionen, bei denen neue gesellschaftliche Phänomene erstmals anlanden und die sich mit ihnen beschäftigen müssen. Für Strafverfolgungsbehörden und -gerichte gilt dies in besonderem Maße, wie der erstmalige Versuch im Jahr 1988, einen Berliner Sexualmörder anhand von DNA-Spuren zu überführen, ebenso zeigt,[10] wie die strafrechtliche Bewertung der Aktionen sogenannter Klimakleber. Vor diesem Hintergrund ist es nur eine Frage der Zeit, bis auch Sie, geschätzte Leserinnen und Leser, in der einen oder anderen Form mit KI-Generiertem konfrontiert werden (bzw. könnte es bereits passiert sein). Gleichzeitig besteht kein Zweifel, dass Gerichte auch diese technologische Neuerung in den Griff bekommen werden.

Iura novit curia. Über den verfahrens- und materiellrechtlichen Umgang mit manipulierten oder gefälschten KI-Inhalten wird an anderer Stelle fleißig publiziert.[11] Hier sei nur erwähnt, dass der Unionsgesetzgeber mit der sogenannten KI-Verordnung[12] ein Stück Pionierarbeit geleistet hat und viele Aspekte und Missbrauchsgefahren (auch staatlicherseits) reguliert; so schreibt er in Art. 50 KI-Verordnung Transparenzpflichten für die Betreiber bestimmter KI-Systeme vor, die künstlich erzeugte oder manipulierte Inhalte als solche zu kennzeichnen haben.[13] Im Wilden Westen des Internets werden sich fraglos Wege finden, dieses Kennzeichnungsgebot zu umgehen.

Von daher sei an dieser Stelle Richterinnen und Richtern sowie Staatsanwältinnen und Staatsanwälten ein motivierender Appell zugerufen, sich ernsthaft mit KI zu beschäftigen. So kann ein Gespür für die Qualität gefälschter oder manipulierter Inhalte entwickelt werden sowie für die zugrundeliegende Technologie, ihre Potentiale und Limitationen. Um sich mit KI vertraut zu machen, bietet es sich an, etwa auf Basis der weiter oben genannten Quellen, KI-generierte Inhalte zu sichten und selbst mit LLM in Austausch zu treten, also - ethisch, urheber-, datenschutz- und dienstrechtlich verantwortbar - selbst zu chatten, zu generieren und auszuprobieren. Neben „ChatGPT“, das im November 2022 den KI-Hype losgetreten hat, existieren eine Vielzahl weiterer LLM, die ganz unterschiedliche Charakteristika und Fähigkeiten aufweisen: So bietet etwa Google die Engine Gemini an, Anthropic den Chatbot Claude 3 (der unter anderem im juristischen Bereich als besonders versiert gilt, allerdings in Deutschland nur über Intermediäre ausprobiert werden kann) und Meta bietet das LLM Llama an. Wer Tipps zu Audio-, Video- und Bildgeneratoren möchte, kann diese bei den genannten oder anderen LLM erfragen.

Die Arbeit mit KI hat, was überraschen mag, wenig mit der sonstigen Arbeit mit Computern gemein. Da KI letztlich eine Emulation menschlicher Gedanken (zumindest aber menschlicher Sprache - wie das eine mit dem anderen zusammenhängt, ist umstritten) ist, gleicht die Arbeit mit KI eher der kollegialen Zusammenarbeit als der Nutzung eines Werkzeugs. Auch diese will indes gelernt sein. Wenngleich sich die Arbeit mit KI geradezu „menschlich anfühlen“ mag, diese Art der Interaktion sogar als besonders effektiv gilt, ist vor einer Anthropomorphisierung von KI zu warnen: Stets muss man sich als Nutzer Gewahr machen, dass man - in menschlichem Ton zwar statt mit den Befehlen einer Programmiersprache - eine Software bedient, die Fehler produziert und den Anfragen („Prompts“) ihres Nutzers (bisweilen um jeden Preis) gerecht werden will (so dass sie beispielsweise antwortet, obwohl sie die - richtige - Antwort nicht kennt).

Neben der Beschäftigung mit LLM ist auch ein Blick auf die (nicht selten ebenfalls KI-basierte) Detektionssoftware sowie allgemeine Tipps im Umgang mit möglicherweise KI-generiertem oder -manipuliertem Material nützlich. Bei (digitalen) Bildern kann es hilfreich sein, so weit wie es die Auflösung zulässt, zu vergrößern („ranzuzoomen“). Hierbei werden nicht selten Bildfehler auffallen. Gleiches gilt - gerade bei Aufnahmen von Personen - für Mimik und Proportionen (etwa von Händen und dem Kopf im Verhältnis zum Rest des Körpers) und für häufige KI-Bildfehler (vier oder sechs Finger; verknotete Gliedmaßen; zu viele oder wenige Zähne; kuriose Ohr-, Nasen- oder Brillenformen; deformierter Bildhintergrund). Auch wird empfohlen, den Urheber - immerhin einen möglichen Zeugen - der Aufnahme auszumachen.[14] Detektionssoftware ist meistens kostenpflichtig. Eine erste Anlaufstelle (zumindest für ohnehin im Internet veröffentlichte Inhalte) kann die Website deepfake-total.com des Fraunhofer Instituts für Angewandte und Integrierte Sicherheit sein. Dienstliches sollte dort und anderswo (Es existiert eine unübersehbare Zahl an - größtenteils kostenpflichtigen - Deep-Fake-Detektoren[15]) selbstverständlich nicht hochgeladen werden. Weitere Tipps im Umgang mit Fälschungen und Manipulationen durch KI gibt - beispielsweise - das Bundesamt für Sicherheit in der Informationstechnik auf seiner Website.[16]

KI wird keinen Bogen um Gerichtssäle machen, weshalb sich die Beschäftigung mit dieser Technologie in jedem Fall lohnt. Ihren Eingang wird sie nicht nur durch gefälschte oder manipulierte Beweise finden (ein generelles Misstrauen gegenüber allen Audio-, Foto- und Videoaufzeichnungen erscheint nicht angebracht). Schon jetzt gibt es Pilotprojekte an Gerichten und Staatsanwaltschaften, bei denen KI für Entlastung sorgen soll[17] etwa bei der schnellen Identifizierung kinder- und jugendpornografischer Inhalte in umfangreichen Datenmengen, die manuell nur um den Preis psychischer Belastungen und unter Einsatz erheblicher Ressourcen möglich ist.[18] Perspektivisch wird der Einsatz von KI (nicht nur bei Gericht) viele Fragen aufwerfen (- Sind ihre Ergebnisse nachvollzieh- und überprüfbar?). Sich mit dieser Technologie, die Erleichterungen und Risiken gleichermaßen mit sich bringt, zu befassen, dürfte eine umsichtige Investition in die eigenen Fähigkeiten und die eigene Mündigkeit bedeuten, nicht zuletzt, da ihr Einsatz auch eine gesellschaftliche Gestaltungsaufgabe mit sich bringt, an der jeder Einzelne mitzuwirken aufgerufen ist.

Dr. Hagemeyer-Witzleb

 


[1] S. van der Sloot LTZ 2024, 191, 193 f.

[2]www.deepl.com/de/write (alle Links wurden am 13. September 2024 abgerufen).

[3]www.aerzteblatt.de/archiv/214284/Hautkrebserkennung-Wie-kuenstliche-Intelligenz-die-Diffenzialdiagnose-schaerft.

[4]suno.com/song/93d60f24-1690-4510-a1fc-c524386a5b60.

[5]polizei.nrw/artikel/generative-kuenstliche-intelligenz-leider-auch-eine-superkraft-fuer-cyberkriminelle.

[6]www.mdr.de/nachrichten/thueringen/enkeltrick-kuenstliche-intelligenz-verbraucherzentrale-100.html. S. weitere Beispiele bei Kumkar/Rapp ZfDR 2022, 199, 201.

[7] S. für Bilder bspw. real-or-fake-the-ai-game.onrender.com, data.wdr.de/ddj/deepfake-quiz-erkennen-sie-alle-ki-bilder/; für Audio: deepfake-total.com/spot_the_deepfake/.

[8]www.youtube.com/@unreal_house/shorts.

[9] Vgl. BT-Drucks. 19/23700, S. 225; EPRS, Tackling deepfakes in European policy, 2021, S. 53 ff..

[10]www.spiegel.de/politik/unterschrift-am-tatort-a-e01725c4-0002-0001-0000-000013528868.

[11] S. etwa Mysegades, Software als Beweiswerkzeug, 2022; Yuan, in: Ebers (Hrsg.), StichwortKommentar Legal Tech, 2024, Künstliche Intelligenz (KI) Rn. 46; Wendt/Wendt, Das neue Recht der Künstlichen Intelligenz, 2024; Hess LTZ 2024, 200 und dies. Digitale Technologien und freie Beweiswürdigung, 2024.

[12] Verordnung (EU) 2024/1689.

[13] dazu Hinderks ZUM 2022, 110.

[14] S. auch www.polizei-beratung.de/aktuelles/detailansicht/video-und-bildmanipulation-wenn-deepfakes-zu-news-werden/ und www.scientificamerican.com/article/how-to-tell-if-a-photo-is-an-ai-generated-fake/.

[15] S. für kostenfreie nur detect-resemble.ai.

[16]www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html.

[17] Überblick bei Mielke, Künstliche Intelligenz in der Justiz, 2023, abrufbar unter legal-tech.de/kuenstliche-intelligenz-in-der-justiz-pilotprojekte/; Rollberg, in: Ebers (Hrsg.),StichwortKommentar Legal Tech, 2024, Richter Rn. 38.

[18] Brodowski/Hartmann/Sorge NJW 2023, 583.