Compliance für ChatGPT & Co.

Künstliche Intelligenz (KI) in der Zahnmedizin – Teil 2

PDF

Schlüsselwörter: ChatGPT KI Künstliche Intelligenz Urheber- und Datenschutzrecht

Anwendungsmöglichkeiten, Vorteile sowie Gefahren von KI und ChatGPT & Co. standen im Mittelpunkt von Teil 1 des Beitrags. Im Zentrum dieses Teils stehen der EU-Verordnungsentwurf für KI und der Rechtsrahmen für den Einsatz von ChatGPT & Co. und deren Nutzung als Textlieferanten. Der Fokus liegt dabei auf dem Urheber- und Datenschutzrecht.

Die EU hat 2019 „Ethik-Leitlinien für eine vertrauenswürdige KI“ veröffentlicht. Diese beinhalten im Wesentlichen:

  • Die KI soll rechtmäßig sein, somit alle anwendbaren Gesetze und Bestimmungen einhalten.
  • Sie sollte ethisch sein, somit ethische Grundsätze und Werte einhalten.
  • Sie sollte robust sein, in technischer und sozialer Hinsicht.

Der deutsche Ethikrat veröffentlichte am 20.03.2023 seine umfassende Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“. Hiernach sollte Ziel der Delegation menschlicher Tätigkeiten an Maschinen prinzipiell die Erweiterung menschlicher Handlungsfähigkeit und Autorschaft sein. Ihre Verminderung sowie eine Diffusion oder Evasion von Verantwortung gilt es hingegen zu verhindern.


Für den Bereich Medizin lautet ein zentrales Fazit der Stellungnahme: „Eine vollständige Ersetzung der ärztlichen Fachkraft durch ein KI-System gefährdet das Patientenwohl und ist auch nicht dadurch zu rechtfertigen, dass schon heute in bestimmten Versorgungsbereichen ein akuter Personalmangel besteht. Gerade in komplexen Behandlungssituationen bedarf es eines personalen Gegenübers, das durch technische Komponenten zwar immer stärker unterstützt werden kann, dadurch selbst als Verantwortungsträger für die Planung, Durchführung und Überwachung des Behandlungsprozesses aber nicht überflüssig wird.“

Verordnungsentwurf der EU. Die Europäische Kommission hat 2021 einen Verordnungsentwurf zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (KI) unterbreitet. Diese beruht auf einem risikobasierten Ansatz. KI-Systeme mit einem hohen Risiko unterliegen einem strengen Regelungsrahmen, solche mit einem unannehmbaren Risiko sogar einem Verbot. Vorgesehen sind weiterhin Transparenzvorgaben für bestimmte KI-Systeme sowie die Schaffung eines behördlichen Aufsichtsrahmens sowie hohe Sanktionsandrohungen.

Ministerrat und europäisches Parlament haben sich nunmehr am 14.06.23 über die KI-Verordnung geeinigt. Ein neuer Passus (Art. 28b) verpflichtet die Entwickler, die Systeme im Vorfeld ausführlich auf die von ihnen ausgehenden Risiken für die Gesundheit, die Sicherheit, die Grundrechte, die Umwelt und die Demokratie zu prüfen und im Zweifel für Abhilfe zu sorgen.

Zudem müssen Entwickler sicherstellen, dass die KI-Systeme sicher sind, z.B. gegen Cyberangriffe, und dokumentieren, welche Daten sie zum Training genutzt haben. Nun beginnen Gespräche zwischen Parlamentsvertretern, den EU-Mitgliedstaaten und der Europäischen Kommis­sion (Trilog). Eine Einigung ist bis zum Jahresende möglich. Übergangsfristen laufen bis Mitte 2026.


Rechtsrahmen – Urheberrecht. KI-gestützte Programme zur Textproduktion können im Sinne des Gesetzes über Urheberrecht und verwandte Schutzrechte (UrhG) nicht als Autoren bzw. Urheber des von ihnen generierten Textes gelten, da das deutsche Urheberrecht ausschließlich persönliche geistige Schöpfungen schützt.

Daraus resultiert, dass nur ein Mensch urheberrechtlich geschützte Werke schaffen kann (menschlicher Schöpfungsakt). Daher können ein Computerprogramm, wie eine KI, sowie der Hersteller solcher KI-Tools, der nur die Software zur Verfügung stellt, keine Urheber sein.

Gegen die Qualifikation des Software-Nutzers als Urheber spricht, dass sich hinter ChatGPT ein komplexer Algorithmus verbirgt, dessen Wirken dem Nutzer unbekannt ist. Jedoch bietet ChatGPT die Option, einmal generierte Texte weiter zu bearbeiten. Nutzer derartiger Programme können daher die Urheberschaft an den generierten Texten dann beanspruchen, wenn sie das Tool als Hilfsmittel für eigene gestalterische Tätigkeit genutzt haben. Entscheidend und maßgeblich ist dabei ein signifikantes Maß an geistiger Eigenleistung, die die Gestalt des KI-generierenden Textes in den wesentlichen Aspekten vorherbestimmt.

Weiterhin kann jedoch zulasten des Nutzers der Software eine Urheberrechtsverletzung z.B. dann nicht ausgeschlossen werden, wenn

  • bereits Dritte Urheberrechte an den generierten Text haben,
  • der von ChatGPT generierte Text lediglich eine leicht abgewandelte Version eines bereits existierenden Textes ist oder
  • KI-gestützte Bildgeneratoren die Bilder unberechtigt nutzen und bearbeiten.

Es wird sicherlich einige Zeit in Anspruch nehmen, bis (kunst-)urheberrechtliche Fragen sowie der Status von generativer KI im Allgemeinen geklärt werden können.

Gerade deswegen ist wegen der potenziellen rechtlichen Risiken anzuraten, kein urheberrechtlich geschütztes Material, personenbezogene Daten oder Geschäftsgeheimnisse in der Interaktion mit ChatGPT zu verwenden, insbesondere, wenn man den privaten Bereich verlässt! Die Nutzer riskieren erhebliche Haftungs-, Unterlassungs-, Beseitigung- und Schadensersatzansprüche.

Rechtsrahmen – Datenschutz. ChatGPT & Co. erfordern die Einhaltung datenschutzrechtlicher Vorgaben bei der Verarbeitung von personenbezogenen Daten, wie der Datenschutz-Grundverordnung (DSGVO). Verantwortliche i.S. des Art 4 Nr.7 DSGVO sind die Unternehmen, die hinter ChatGPT und Co. stehen, wie z.B. Open AI. Aber auch wenn die Technik z.B. in Produkten von Microsoft, Google, Meta, SAP oder einem beliebigen Anbieter verwendet wird, sind diese Unternehmen die Verantwortlichen nach der DSGVO. Mit dieser werden große Verantwortlichkeiten und enorme Haftungsrisiken für die Unternehmen begründet, insbesondere bezüglich der Persönlichkeits-, Urheber- sowie nicht zuletzt der Datenschutzrechte.

Für die Einhaltung des Schutzes von personenbezogenen Daten nach der DSGVO sind v.a. folgende Vorgaben zu beachten:

  • Kontrolle der Software setzt Transparenz über ihre Vorgehensweise und ihre Datenbasis bei jedem Anwender voraus (Transparenzgrundsatz),
  • für die Verarbeitung von personenbezogenen Daten gilt ein grundsätzliches Verbot mit Erlaubnisvorbehalt,
  • Rechenschaftspflichten,
  • Zwecke der Anwendung (Zweckbindungsgrundsatz),
  • Datenschutzfolgenabschätzung,
  • komplexe Technikfolgenabschätzung,
  • Anonymisierung von Daten,
  • Diskriminierungsverbote etc.

Wichtig: Nach der DSGVO hat zudem jeder das Recht, einer automatisierten Verarbeitung, einschließlich einer Profilbildung, nicht unterworfen zu werden, wenn es um „Maschinenentscheidungen“ geht, die rechtliche oder ähnliche Wirkungen an den Tag legen.

Nutzung von KI in Texten. Bei der Nutzung von KI in Texten sind die Grundsätze des wissenschaftlichen Arbeitens und der wissenschaftlichen Redlichkeit zu beachten. Dies bedeutet, dass Plagiate zu vermeiden sind und keine Täuschung über Autorenschaft stattfinden darf. Insofern ist es angeraten, bei Verwendung von Textpassagen, die von generativer KI erzeugt wurden, diese zu markieren und mit einer Zitationsform zu versehen.

Einige Wissenschaftseinrichtungen schlagen vor, die übernommen Textpassagen als „PWK – Persönliche wissenschaftliche Kommunikation“ zu bezeichnen und nach APA-, Harvard- oder deutscher Zitierweise zu zitieren. Dabei sind der Name des Tools (ChatGTP, GTP4, BING u.a.), die Art der durchgeführten Kommunikation (Rechercheanfrage, Begriffsdefinition, Fallsuche u.a.) und das Datum anzugeben, an dem man die Texte angefertigt hat. Zudem wird angeraten, die Verwendung von KI-Werkzeugen (Tool-Name, Hersteller, Software-Zweck) unter Material und Methoden anzugeben und die weiteren Rahmenbedingungen zu beachten (Bild- sowie Urheberrechte, Terms of Use, Lizenzvereinbarungen des jeweiligen KI-Programms). Bild- und Urheberrechte sowie Terms of Use sind vor allem bei bild- und grafikgenerativer KI zu berücksichtigen. Daher ist die KI als Quelle beispielsweise folgendermaßen anzugeben:

PWK Rechercheanfrage: Bei der Herstellung dieses Textes (oder Bildes oder Programmiercodes etc.) wurde X (= Name des KI-gestützten Werkzeuges) des Herstellers Y eingesetzt. Mit folgenden Promts (= Anweisungen oder Fragen an die KI) habe ich am XX.XX.XXX die KI gesteuert: 1. xxxxxx, 2. xxxxx.“

Vorschlag für einen Disclaimer. Ein Beispiel für die Formulierung eines Disclaimers könnte sein: Der veröffentlichte Text wurde von einer künstlichen Intelligenz verfasst und gibt nicht die Meinung des Referenten/Autors etc. wieder, sondern die Ergebnisse des Computerprogramms.

AGBs etc. Der Anbieter einer KI-Anwendung – hier: ChatGPT & Co. – muss transparent informieren. Dies geschieht insbesondere durch AGBs, Nutzungsbedingungen, Lizenzerteilungen, Datenschutzerklärung sowie Auftragsverarbeitungsverträge. Nutzer sollten diese Regelungsvorgaben aufmerksam prüfen.

Kommentar

Künstliche Intelligenzen und insbesondere generative KI mit ChatGPT wird von Version zu Version immer besser. Viele Menschen haben jedoch eine ambivalente Beziehung zu den vielschichtigen Rechts- und Themenfeldern der künstlichen Intelligenz. Einerseits sind die Chancen und Optionen der neuen Technologien äußerst positiv, andererseits lassen die vielfältigen Risiken kritisch zweifeln.

Zu den Risiken generativer KI wie ChatGPT & Co. zählen insbesondere die unendliche Menge an Informationen, die nicht unbedingt mit Wissen oder Know-how gleichgesetzt werden können: Plagiarismus, Persönlichkeits-, Urheberrechts- und Datenschutzverletzungen, fehlende Security, Deepfakes. Bilder, Tonaufnahmen sowie Videos von Personen und Ereignissen, die es so nicht gibt oder so nicht stattgefunden haben, die jedoch wie echt aussehen.

Open AI warnt selbst davor, dass GPT-4 weiterhin halluzinieren, also wie sein Vorgänger GPT-3 Fakten erfinden kann. Wenn es um wichtige Angelegenheiten geht, solle man mit äußerster Sorgfalt vorgehen und Menschen kontrollieren lassen, den Kontext berücksichtigen oder insgesamt auf die Anwendung verzichten, wenn die tatsächlichen, ökonomischen sowie rechtlichen Risiken zu groß werden.

Die Entwicklung ist da und wird nicht mehr abzuwenden sein. Wir werden sowohl mit den positiven wie auch mit den negativen Folgen leben müssen. Rechtspolitik sowie der ordnungsrechtliche Rahmen werden sich in Deutschland, Europa und weltweit dynamisch weiterentwickeln. Bleiben Sie neugierig und kritisch!

Prof. Dr. iur. Heinrich Hanika forscht und lehrt an der Semmelweis Universität Budapest sowie an den Hochschulen Berlin, Stuttgart sowie Ludwigshafen. An der Hochschule Ludwigshafen leitet er das Zentrum für Digitalisierung im Gesundheitswesen. Das Zentrum ebnet den Weg zu Datenschutz-Audits für Einrichtungen und Unternehmen im Gesundheitswesen und bietet Praxisseminare mit den Themenfeldern Künstliche Intelligenz, Digitale Transformation, Datenschutz sowie Informationssicherheit an.
Informationen: www.h-hanika.eu


Literatur

  1. Deutscher Ethikrat, Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz
    Stellungnahme, 20.03.2023
  2. Dönch J, Schmitt: R: ChatGPT ist urheberrechtlich ein Minenfeld, FAZ, 8.2.23: S. 16
    Europäische Kommission, Ethik-Leitlinien für eine vertrauenswürdige KI, Publikations Office, 2019
  3. Europäische Kommission, Vorschlag für eine Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz, 21.04.2021
  4. Fulterer R: GPT-4 ist da: Was kann die neue künstliche Intelligenz von Open AI?, NZZ: 15.03.23
  5. Hanika H: Künstliche Intelligenz, Robotik, und autonome Systeme, in: Hanika (Hrsg.), Digitalisierung und Big Data im Universum des Rechts, 2. Aufl. 2021, S. 267 ff.
  6. Hanika H: ChatGPT & Co. – Künstliche Intelligenz (KI) in der Pflege, PflegeRecht 2023: S. 190–199
  7. Hoeren T: Rechtsgutachten zum Umgang mit KI-Software im Hochschulgesetz, S. 22ff., in: Salden P, Leschke J: Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung, März 2023: S. 1 ff.
  8. Ministerium für Schule und Bildung des Landes Nordrhein-Westfalen, Umgang mit textgenerie­renden KI-Systemen – Ein Handlungsleitfaden, 02/2023
  9. Schwartmann R: Welche Regeln für ChatGPT & Co. gelten – und was wir noch tun müssen, FAZ, 16.02.2023: S. 16
  10. Zaiser LP: Generative AI, Fallstudie HdM Stuttgart, 3.9.2022: S. 5 u. 15

Weitere Angaben und Literatur dazu beim Verfasser.


(Stand: 29.08.2023)

DGI Nachrichten aktuell

In Memoriam an Karl-Ludwig Ackermann. Ein Nachruf von Prof. Dr. Günter Dhom und Gedenken an einen ganz „Großen“ der Zahnmedizin. 

zum Nachruf an Dr. Ackermann

Aktuelle Ausgabe 3/2023

Im Fokus

  • Komplexe Implantatversorgung im Praxisalltag
  • Die Freilegungs-OP nach gedeckter Implantateinheilung
  • Retinierte Unterkieferprothese in der Altersheilkunde

FORTBILDUNGSANGEBOTE DGI

Die DGI bietet ein umfassendes und überregionales Fortbildungsangebot an. 

WERDEN SIE AUTOR

Sie haben ein spannendes Thema aus dem Bereich der Implantologie und würden gerne einen Artikel dazu in der ZZI veröffentlichen? Dann nutzen Sie unseren Editorial Manager und reichen Sie ihr Manuskript direkt bei uns ein.

Manuskript einreichen