Non classifié(e)

Le New York Times poursuit OpenAI et Microsoft pour violation du droit d’auteur

Le New York Times, l’un des journaux les plus prestigieux et les plus influents au monde, a intenté une action en justice contre OpenAI et Microsoft, les accusant de violer ses droits de propriété intellectuelle en utilisant ses articles pour entraîner et tester leurs systèmes d’intelligence artificielle.

OpenAI et Microsoft
OpenAI et Microsoft

Selon la plainte, OpenAI et Microsoft ont utilisé le contenu du New York Times sans autorisation ni compensation pour développer et améliorer leurs modèles de génération de langage naturel, tels que GPT-3 et GPT-4. Selon la plainte, ces modèles sont capables de produire des textes impossibles à distinguer des articles originaux et constituent une menace pour la qualité, la crédibilité et la rentabilité du journalisme.

Le New York Times soutient que ses articles sont protégés par la loi sur le droit d’auteur et qu’OpenAI et Microsoft ont enfreint ses droits en copiant, distribuant, affichant et créant des œuvres dérivées de son contenu. L’action en justice vise à obtenir une injonction pour empêcher OpenAI et Microsoft d’utiliser ses articles, ainsi que des dommages-intérêts et des honoraires d’avocat.

OpenAI et Microsoft n’ont pas encore répondu à l’action en justice, mais ont déjà défendu leur utilisation de données accessibles au public pour entraîner leurs systèmes d’intelligence artificielle. Ils ont également affirmé que leurs modèles étaient destinés à la recherche et à l’innovation, et qu’ils avaient mis en place des lignes directrices et des garanties éthiques pour prévenir les abus et les utilisations abusives de leur technologie.

Ce procès soulève d’importantes questions sur les implications juridiques et éthiques de la génération de langage naturel, un domaine de l’intelligence artificielle qui progresse rapidement et dont les applications et les défis potentiels sont nombreux. Elle met également en évidence les tensions entre les intérêts des créateurs de contenu et ceux des développeurs de technologies, qui peuvent avoir des points de vue différents sur la manière d’équilibrer l’innovation et la protection à l’ère numérique.

OpenAI et Microsoft poursuivis en justice par le New York Times au sujet de données d’entraînement à l’IA

El New York Times ha presentado una demanda contra OpenAI y Microsoft, acusándolos de utilizar millones de sus artículos para entrenar sus modelos de inteligencia artificial sin autorización. La demanda alega que los grandes modelos de lenguaje (LLM) de las empresas, que pueden producir textos en lenguaje natural sobre diversos temas, han copiado, resumido e imitado el contenido y el estilo del Times.

Les LLM sont à la base des produits de chatbot des entreprises, ChatGPT et Copilot, qui peuvent respectivement interagir avec les utilisateurs et générer des extraits de code. L’action en justice affirme que les entreprises ont violé les droits d’auteur et de marque du Times, ainsi que ses droits moraux, en utilisant ses œuvres pour former ses LLM.

L’action en justice affirme que les entreprises ont utilisé du contenu provenant de diverses sources pour alimenter leurs LLM, mais qu’elles ont accordé une importance particulière au contenu du Times, reconnaissant ainsi sa qualité et sa valeur. L’action en justice affirme qu’il s’agit d’une utilisation déloyale des œuvres du Times et que les entreprises ont bénéficié de la réputation et de l’investissement du Times.

L’action en justice vise à empêcher les entreprises d’utiliser le contenu du Times pour former leurs étudiants en droit à l’avenir et à supprimer le contenu du Times de leurs ensembles de données existants. Elle exige également que les entreprises paient «des milliards de dollars de dommages et intérêts statutaires et réels» pour leur infraction.

Cette action en justice est l’une des premières contestations juridiques de l’utilisation du web scraping à grande échelle pour former des modèles d’IA et soulève d’importantes questions sur les implications éthiques et juridiques de telles pratiques. L’affaire pourrait avoir des conséquences importantes pour l’avenir du journalisme et le développement de l’IA.