Bereits heute zeigt sich, dass der Einsatz von KI sowohl positive als auch negative Auswirkungen auf unsere Arbeitswelt hat. Steigerung der Effizienz und Verbesserung der Produktivität auf der einen Seite stehen den Sorgen um die Auswirkungen auf uns Menschen selbst und dem Verlust von Arbeitsplätzen gegenüber. KI verändert nicht nur die Art, wie wir Menschen leben und arbeiten, sondern auch viele unserer Produkte und Dienstleistungen. Der Einsatz von KI-Systemen mit ihren spezifischen Merkmalen (z. B. Abhängigkeit von Daten, autonomes Verhalten, Komplexität, Undurchsichtigkeit) kann sich aber auch sehr nachteilig auf eine Reihe von menschlichen Grundrechten auswirken, die in der Charta der Grundrechte der EU verankert sind.
Vertrauen schaffen
„Wohltätig ist des Feuers Macht, wenn sie der Mensch bezähmt, bewacht“, heißt es in Schillers „Lied von der Glocke“. Daran hat sich nichts geändert: Die Regulierung von KI-Systemen ist ein sehr wichtiges Thema, sowohl aus wirtschaftlich-technischer als auch aus ethischer Sicht. Dieses Ziel verfolgt die EU mit ihren geplanten Regeln für KI. Derzeit erarbeitet die Europäische Kommission dafür einen umfassenden Regulierungsrahmen. Bereits im April 2021 veröffentlichte die Kommission dazu einen Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union – auch „KI-Gesetz“ bzw. „AI-Act“ genannt. Grundsätzlich hat sich die Europäische Kommission vorgenommen, vertrauenswürdige KI in der gesamten EU voranzutreiben und damit auch weltweit Maßstäbe für die Entwicklung KI-basierter Systeme zu setzen. Mitte Juni dieses Jahres soll der Gesetzesentwurf zum „AI-Act“ im Plenum behandelt werden.
Europa positioniert sich mit seiner KI-Strategie und der geplanten Gesetzgebung in der Mitte zwischen den USA, welche im Wesentlichen auf das freie Spiel der Marktkräfte setzen, und China, das eine zentralisierte staatliche Strategie verfolgt. Der europäische Ansatz hingegen fokussiert sich auf den Schutz grundlegender europäischer Werte und menschlicher Grundrechte sowie auf die Kontrolle hoher Risiken bei gleichzeitiger Förderung von Innovationen im Interesse der Menschen. Transparenz und Vertrauen in die neuen intelligenten Technologien sollen hier insofern ermöglicht werden, als die Nachvollziehbarkeit von KI-generierten Entscheidungen bzw. Ergebnissen ein zentrales Erfordernis ist. Dabei sollen Diskriminierung und Voreingenommenheit vermieden sowie menschliche Privatsphäre und Persönlichkeitsrechte respektiert werden. Wichtig ist, stets darauf zu achten, dass die menschliche Entscheidungsfreiheit immer so weit wie möglich gewahrt bleibt. Damit geht einher, dass auch die menschliche Kontrolle, Rechenschaftspflicht und Verantwortung rechtlich zu verankern sind.
Der Vorschlag des „AI-Act“ enthält harmonisierte Vorschriften für die Entwicklung, das Inverkehrbringen und die Nutzung von KI-Systemen in der EU nach einem verhältnismäßigen risikobasierten Ansatz. Bestimmte besonders schädliche KI-Praktiken sollen überhaupt verboten sein.
Über den „AI-Act“ hinaus ist die Förderung von KI-gesteuerten Innovationen eng mit dem „Data Governance Act“, der „Open-Data-Richtlinie“ und anderen Initiativen im Rahmen der EU-Datenstrategie verknüpft, mit denen vertrauenswürdige Mechanismen und Dienste für die Weiterverwendung, den Austausch und die Bündelung von Daten geschaffen werden, die für die Entwicklung datengesteuerter KI-Systeme von hoher Qualität unerlässlich sind. Unternehmen müssen bei der Nutzung von KI jedenfalls viele verschiedene rechtliche Aspekte berücksichtigen, etwa Datenschutz, Vertragsrecht, Haftung und Arbeitsrecht.
Arbeitsrechtliche Implikationen
Die Verwendung von KI-Systemen in der Arbeitswelt wirft arbeitsrechtliche Fragen auf, vor allem in Hinblick auf deren Potenzial, Arbeitsplätze zu verändern oder letztlich gar zu ersetzen. Für Unternehmen ist es deshalb wichtig, deren Arbeitsverhältnisse in dieser Hinsicht zu evaluieren und darauf abzustimmen, insbesondere durch
• Anpassung von Arbeitsverträgen und Arbeitsbedingungen,
• Schulung und Information der Mitarbeiter,
• Einhaltung von Mitbestimmungsrechten der Arbeitnehmervertretung,
• Beachtung der Vorschriften zum Arbeitsschutz, zur Arbeitszeit und Homeoffice.
Obwohl sich aktuelle Arbeitsgesetze nicht explizit auf KI-Systeme beziehen, gelten die allgemeinen arbeitsrechtlichen Grundsätze natürlich weiterhin auch für den Einsatz von KI in der Arbeitswelt.
Datenschutz
Die Verarbeitung von personenbezogenen Daten durch KI-Systeme kann zu Datenschutzverletzungen führen, wenn die jeweilige Datenverarbeitung nicht den datenschutzrechtlichen Grundsätzen entspricht. Unternehmen müssen daher sicherstellen, dass sie die Grundsätze der Datenverarbeitung einhalten, wie sie in der DSGVO festgelegt sind. Schlagwortartig ist dabei Folgendes zu beachten:
• Dokumentations- und Rechenschaftspflicht
• Transparenz, Zweckbindung und Rechtmäßigkeit
• Datenminimierung und zeitliche Speicherbegrenzung
• Integrität und Vertraulichkeit der Daten
Unternehmen sind zudem verpflichtet, adäquate technische und organisatorische Maßnahmen (TOM) zu ergreifen, um einen angemessenen Schutz personenbezogener Daten zu gewährleisten. Solche Maßnahmen können zum Beispiel Geheimhaltungsvereinbarungen, regelmäßige Sicherheitsüberprüfungen, Datenverschlüsselung, Zugangs- und Zugriffskontrollen sein. Darüber hinaus sollten Unternehmen ein Risikomanagement etablieren, mit dem mögliche Datenschutzverletzungen evaluiert werden können. Diese so genannte Compliance in Unternehmen erfordert beim Einsatz von KI-Systemen diverse Maßnahmen, wie
• die ständige Evaluierung der Qualität und Zuverlässigkeit der jeweils genutzten KI,
• eine Datenschutz-Folgenabschätzung, um die potenziellen Auswirkungen der Datenverarbeitung durch die im Unternehmen genutzte KI zu identifizieren und zu bewerten,
• ein dahingehend adaptiertes Datenverarbeitungsverzeichnis bzw. eine entsprechende Datenschutzerklärung, die über die jeweils genutzte KI transparent informiert,
• die Einholung allenfalls erforderlicher Zustimmungen der Betroffenen, wenn es keine andere rechtmäßige Grundlage für die Datenverarbeitung gibt,
• Schulung der Mitarbeiter über die Nutzung der KI-Systeme und Erarbeitung von verständlichen internen Richtlinien,
• gegebenenfalls Information der Kunden und Geschäftspartner über allfällige Implikationen einer Nutzung von KI-Systemen.
Haftung
Haftungsrisiken bestehen, wenn durch den Einsatz von KI-Systemen Schäden verursacht werden können, etwa durch fehlerhafte Informationen oder Handlungen. Die Haftung für Schäden, die dadurch verursacht werden, kann je nach Umständen sowohl den Hersteller der KI-Software als auch den Anwender treffen. Um Haftungsrisiken zu minimieren, sollten Unternehmen sowohl die Haftung des Herstellers als auch ihre eigene Haftung im Blick behalten. Dies kann gelingen durch
• angemessene Risikomanagementmaßnahmen zur Vermeidung eventueller Schadensfälle (z. B. Implementierung von Kontrollmechanismen und regelmäßige Überprüfung des KI-Systems, Abschluss einer Haftpflichtversicherung) sowie
• klare Haftungsregelungen etwa in Allgemeinen Geschäftsbedingungen bzw.
• vertragliche Haftungsbeschränkungen im gesetzlich zulässigen Ausmaß.
Geistiges Eigentum
Geistiges Eigentum bezieht sich auf durch einen menschlichen Geist geschaffene immaterielle Werte wie Erfindungen, Designs, Texte, Bilder und Software. Zu Vermögenswerten werden sie durch ein jeweiliges gesetzliches Monopolrecht, das diesen „Immaterialgütern“ unter bestimmten Bedingungen (z. B. bei Neuheit, Originalität, Registereintragung) zukommen kann. Die Verwendung von KI-Systemen hat tatsächlich ein sehr großes Potenzial, die Schaffung und den Schutz von geistigem Eigentum grundlegend zu verändern. Es gibt derzeit sehr viele offene Herausforderungen und Fragen im Zusammenhang mit geistigem Eigentum und KI.
Um geistiges Eigentum zu schützen, stehen verschiedene rechtliche Instrumente zur Verfügung. Dazu gehören insbesondere Urheberrechte, Patente, Geschmacksmuster (Designs) und Know-how-Schutz. Das Urheberrecht schützt Werke eines Schöpfers (= Menschen) vor unerlaubter Nutzung durch andere. Durch die zur Verfügung stehenden KI-Systeme kann es aber in der Praxis schwierig werden, nachzuvollziehen, wer ein Werk tatsächlich geschaffen hat – Mensch oder Maschine? Zudem ergibt sich die Problematik, dass KI-Systeme oft auf fremde Vorlagen bzw. Datenbanken zurückgreifen, wodurch wiederum unzulässige Nutzungen fremder Werke „verschleiert“ werden könnten. Gleiches gilt im Wesentlichen für das Patentrecht: Patente schützen technische Erfindungen von Menschen vor unerlaubter Nutzung durch andere. Auch in diesem Zusammenhang kann es durch das Erfordernis, dass geistige Eigentumsrechte nur von menschlichen Schöpfungen ausgehen können, zu einem Spannungsverhältnis mit KI-Schöpfungen kommen.
Die derzeit aktuelle Rechtslage schließt es im Grunde aus, dass an von einer KI erzeugten Ergebnissen (Texte, Bilder, Videos, Software usw.) geistige Eigentumsrechte zuerkannt werden, was sich an folgenden Beispielen zeigt:
• Im Fall „Naruto v. Slater“ wurde entschieden, dass ein Selfie, das von einem Affen aufgenommen wurde, nicht urheberrechtlich schützbar ist, weil das Foto von einem Tier und nicht von einem Menschen aufgenommen wurde.
• Im Fall von „Next Rembrandt“ wurde entschieden, dass ein von einer KI erstelltes Kunstwerk nicht urheberrechtlich schützbar ist, weil das Urheberrecht nur Werke von menschlichen Urhebern schützt.
• Im Fall von „Thaler v. Commissioner of Patents“ wurde entschieden, dass ein KI-System nicht als Erfinder angesehen werden kann und daher eine KI-generierte Erfindung nicht patentierbar ist.
Dies setzt aber voraus, dass sich kein Mensch bei einer KI-Kreation als Urheber ausgibt. In diesem Sinne hat die Europäische Kommission 2020 ein Weißbuch zur KI veröffentlicht, in dem die Notwendigkeit betont wird, den rechtlichen Rahmen für KI und geistiges Eigentum anzupassen und zu harmonisieren. Auch die Weltorganisation für geistiges Eigentum (WIPO) hat eine Studie veröffentlicht, in der sie die Auswirkungen von KI auf das geistige Eigentum untersucht und Empfehlungen für Gesetzgeber und politische Entscheidungsträger gibt. Es ist daher absehbar, dass sich das Recht des geistigen Eigentums im massiven Umbruch befindet.
Wenngleich derzeit noch nicht davon ausgegangen werden kann, dass durch KI-Systeme geistiges Eigentum kreiert werden kann, können hingegen durch diese sehr wohl Schutzrechtsverletzungen vorkommen. Zum Beispiel dann, wenn ein KI-System Bilder oder Texte generiert, indem bereits bestehende urheberrechtlich geschützte Werke kopiert werden. Um solche Verletzungen zu vermeiden, sollten Unternehmen:
• geeignete Kontrollmechanismen implementieren, um urheberrechtliche Verstöße zu erkennen,
• gegebenenfalls Lizenzen für die Nutzung urheberrechtlich geschützter Werke erwerben,
• sich über freie Werknutzungen informieren, die bestimmte Nutzungen urheberrechtlich geschützter Werke erlauben.
Verbraucherschutz
Die Verwendung von KI-Systemen für Geschäftspraktiken mit Konsumenten, zum Beispiel bei Geschäftsabschlüssen oder der Gestaltung von Konditionen, insbesondere im Zusammenhang mit einer automatisierten Entscheidungsfindung und Profiling (Preisgestaltung, Kreditvergabe usw.), der Bewerbung von Produkten oder Dienstleistungen wirft auch Fragen des Verbraucherschutzes auf. Zu den wichtigsten verbraucherrechtlichen Themen im Zusammenhang mit KI gehören:
• Transparenz und Informationspflichten,
• vertragliche Rechte und Pflichten,
• Haftung und Gewährleistung,
• unlauterer Wettbewerb und irreführende Werbung,
• Verbraucherbeschwerden und Streitbeilegung.
Die Verwendung von KI-Systemen wirft eine Reihe von rechtlichen Fragen auf, die in einigen Fällen auch richtige Herausforderungen darstellen könnten. Weil es derzeit noch kaum spezifische Gesetze für KI gibt, werden künftige Entwicklungen voraussichtlich dazu führen, dass eine mannigfaltige Adaptierung von Gesetzen im Zusammenhang mit dem Einsatz solcher Technologien erforderlich wird. Mit der zunehmenden Verbreitung und Verfügbarkeit von KI-Systemen spielt heute auch die Frage eine zentrale Rolle, wo und wann welche KI zum Einsatz kommen und welche Eigenschaften das jeweilige KI-System hat. Selbst für Fachleute ist es von außen oft nicht leicht ersichtlich, welche KI-Methode eine bestimmte Anwendung nutzt bzw. wie diese sachgerecht getestet werden könnte.
Bei vielen anderen Wirtschaftsgütern wird einem ungewollten „Blackbox“-Zustand bereits längst begegnet: Man denke hierbei zum Beispiel an die Kennzeichnung von Lebensmitteln und die verpflichtenden Angaben zu ihren jeweiligen Inhaltsstoffen. So wie es etwa bei Lebensmitteln schon lange Standard ist, dass Konsumenten ein Lebensmittelprodukt nach dessen individuellen Risiken und Nutzen (z. B. in Hinblick auf Unverträglichkeiten oder Allergien bzw. Nährwerte) einschätzen und mit anderen Produkten vergleichen können, wäre eine entsprechende Klassifizierung von KI-Systemen und eine einheitliche Taxonomie der absehbare Weg, für Rechtssicherheit, Verlässlichkeit, Transparenz und Nutzerakzeptanz in diesem Bereich zu sorgen.
Text: Stefan Warbek, Rechtsanwalt, www.warbek.at