Google schließt sich Microsoft an, um Nutzer vor Urheberrechtsklagen wegen KI zu schützen
Google hat angekündigt, seinen Cloud-Kunden, die seine Dienste für künstliche Intelligenz (KI) nutzen, nach einem ähnlichen Schritt rechtlichen Schutz zu bieten Microsoft zu Beginn dieses Jahres. Das Unternehmen sagte, es werde Nutzer der Google Cloud Platform (GCP) von allen Ansprüchen im Zusammenhang mit der Verletzung von Rechten des geistigen Eigentums (IPR) entschädigen, die sich aus der Nutzung der Technologien der künstlichen Intelligenz von Google ergeben.
Das heißt, wenn ein Dritter einen GCP-Kunden wegen der Nutzung der künstlichen Intelligenzdienste von Google, wie etwa seiner Tools zur Verarbeitung natürlicher Sprache, Computer Vision oder Spracherkennung, verklagt, übernimmt Google die Rechtskosten und etwaige Schadensersatzansprüche bis zu einer bestimmten Grenze. Das Limit variiert je nach Art und Umfang der vom Kunden genutzten KI-Dienste, kann aber zwischen 500.000 und 1,5 Millionen US-Dollar pro Kunde und Jahr liegen.
Google sagte, diese Initiative sei Teil seines Engagements für „verantwortungsvolle KI“ und ziele darauf ab, seinen Kunden „Sorgenfreiheit“ zu bieten, die die Vorteile der KI nutzen möchten, ohne sich über potenzielle rechtliche Risiken Gedanken machen zu müssen. Das Unternehmen sagte außerdem, dass es weiterhin in Forschung und Entwicklung investieren werde, um sicherzustellen, dass seine KI-Dienste vertrauenswürdig, fair und ethisch seien.
Die Ankündigung von Google erfolgt, nachdem Microsoft im Januar 2021 eine ähnliche Entschädigungsrichtlinie für seine Azure-Kunden eingeführt hat. Microsoft gab bekannt, dass es Azure-Kunden verteidigen und entschädigen wird, die mit Klagen wegen der Nutzung seiner Dienste für künstliche Intelligenz wie Azure Cognitive Services, Azure Machine Learning oder Azure konfrontiert sind Bot-Service. Die Police von Microsoft deckt auch Rechtskosten und Schadensersatz bis zu einer bestimmten Grenze ab, die von der Abonnementstufe des Kunden und der Art des genutzten KI-Dienstes abhängt.
Sowohl Google als auch Microsoft gehören zu den führenden Anbietern cloudbasierter KI-Dienste, die es Unternehmen und Organisationen ermöglichen, auf fortschrittliche KI-Funktionen zuzugreifen, ohne eine eigene Infrastruktur oder Fachwissen aufbauen zu müssen. Allerdings birgt der Einsatz von KI auch einige Herausforderungen und Unsicherheiten, insbesondere im Hinblick auf den Besitz und den Schutz geistiger Eigentumsrechte im Zusammenhang mit Inhalten oder Produkten, die durch KI generiert oder unterstützt werden.
Laut einem Bericht der Weltorganisation für geistiges Eigentum (WIPO) gibt es keinen klaren Konsens oder internationalen Rahmen darüber, wie mit Fragen des geistigen Eigentums im Zusammenhang mit KI umgegangen werden soll. Beispielsweise ist nicht klar, wer die Rechte an einem KI-generierten Werk, etwa einem Text, einem Bild oder einem Lied, besitzt oder ob ein solches Werk möglicherweise urheberrechtlich geschützt ist. Ebenso ist nicht klar, wer für Schäden oder Schäden verantwortlich ist, die durch ein KI-System oder eine KI-Anwendung verursacht werden, beispielsweise eine fehlerhafte Diagnose, eine voreingenommene Empfehlung oder eine irreführende Übersetzung.
Durch das Angebot von Entschädigungsrichtlinien versuchen Google und Microsoft, einige dieser Unsicherheiten auszuräumen und ihren Cloud-Kunden, die ihre KI-Dienste nutzen, mehr Vertrauen und Sicherheit zu bieten. Diese Richtlinien unterliegen jedoch auch einigen Einschränkungen und Ausschlüssen, z. B. decken sie keine Ansprüche im Zusammenhang mit Patentverletzungen, der widerrechtlichen Aneignung von Geschäftsgeheimnissen oder Datenschutzverletzungen ab. Darüber hinaus lösen diese Richtlinien nicht die zugrunde liegenden rechtlichen und ethischen Probleme im Zusammenhang mit dem Einsatz von KI in verschiedenen Umgebungen und Kontexten.
Daher sind die Initiativen von Google und Microsoft zwar willkommene Schritte zur Förderung von mehr Vertrauen und Verantwortung im KI-Ökosystem, sie reichen jedoch nicht aus, um sicherzustellen, dass KI legal und ethisch eingesetzt wird. Es bedarf noch eines stärkeren Dialogs und einer stärkeren Zusammenarbeit zwischen Interessengruppen, darunter politischen Entscheidungsträgern, Regulierungsbehörden, Forschern, Entwicklern, Nutzern und der Zivilgesellschaft, um klare und konsistente Regeln und Standards für die KI-Governance festzulegen.
Kunden von Google Cloud und Workspace, die die generativen KI-Tools des Unternehmens verwenden, können sicher sein, dass Google sie vor allen möglichen rechtlichen Problemen schützt, die sich aus der Verwendung dieser Tools ergeben.
Das haben Neal Suggs, VP Legal bei Google Cloud, und Phil Venables, VP IT Security und CISO bei Google Cloud, diese Woche in einem Blogbeitrag angekündigt.
Sie schrieben: „Wir möchten unseren Mandanten klar machen: Wenn sie mit einer rechtlichen Herausforderung aufgrund einer Urheberrechtsverletzung konfrontiert werden, übernehmen wir die Verantwortung für die damit verbundenen potenziellen rechtlichen Risiken.“
Dies ähnelt dem, was Microsoft letzten Monat in Bezug auf sein Copilot AI-Tool versprochen hat, sowie Adobe und Shutterstock für ihre Unternehmenskunden.
Diese Schutzmaßnahmen sind eine Reaktion auf Bedenken, dass KI unbeabsichtigt urheberrechtlich geschützte Werke kopieren oder wiederverwenden und den Benutzer oder das Unternehmen rechtlichen Schritten aussetzen könnte. Beispielsweise wurde Google Anfang des Jahres in einer Sammelklage verklagt, weil es angeblich öffentliche Daten zum Trainieren seines Bard-Chatbots verwendet hatte.
Die Schutzmaßnahmen von Google decken mehrere Produkte ab, beispielsweise Google Workspace, Google Cloud und die Vertex AI-Plattform. Sie bieten ihren Kunden eine Vergütung in zweierlei Hinsicht: Trainingsdaten und generierte Ergebnisse.
Auf der Seite der Trainingsdaten wurden Google und andere Chatbot-Entwickler von Autoren, Künstlern, Publikationen und anderen kritisiert, weil sie ihre Online-Inhalte zum Trainieren ihrer KI-Chatbots nutzten. Und obwohl Google bereits eine Entschädigung für geistiges Eigentum Dritter erhält, haben Kunden laut Google um „ausdrückliche Klarstellungen“ zu den KI-Tools von Google gebeten.