OpenAI foi obrigada por um tribunal a entregar 20 milhões de registos do ChatGPT, processo de direitos de autor do The New York Times entra numa fase crucial

Um juiz federal de primeira instância em Nova Iorque decidiu recentemente que a OpenAI deve entregar ao The New York Times e a outros queixosos cerca de 20 milhões de registos de utilizadores do ChatGPT, devidamente anonimizados, representando um avanço importante neste processo de grande notoriedade sobre direitos de autor na área da IA. A ordem rejeita o pedido da OpenAI para limitar o âmbito da recolha de provas e sublinha que estes registos são essenciais para avaliar se o ChatGPT reproduz conteúdos protegidos por direitos de autor.

O The New York Times processou a OpenAI em dezembro de 2023, acusando-a de utilizar conteúdos jornalísticos sem autorização para treinar os seus modelos. Em janeiro deste ano, a OpenAI apresentou uma contestação, alegando que o jornal “não contou toda a verdade”. Esta decisão agrava ainda mais o conflito entre as partes no que diz respeito a direitos de autor, governação de dados e legalidade dos dados usados para treinar IA.

A deliberação foi emitida pela juíza de primeira instância Ona T. Wang. Segundo a magistrada, apesar da privacidade dos utilizadores merecer consideração, esse fator não é suficiente, à luz do princípio da proporcionalidade da recolha de provas, para impedir o acesso às provas relevantes. O tribunal considerou que as 20 milhões de amostras são “manifestamente relevantes” para determinar se as respostas do ChatGPT são semelhantes ao conteúdo do The New York Times, e que a entrega destas amostras anonimizadas não representa um encargo excessivo para a OpenAI.

A OpenAI manifestou-se contra a decisão e afirmou, em documentos recentemente apresentados, que a ordem é “claramente errada” e “desproporcional”, argumentando que a divulgação em grande escala de conversas de utilizadores pode aumentar os riscos de privacidade. Em junho deste ano, o tribunal já tinha exigido à OpenAI que preservasse grandes volumes de dados de utilizadores, incluindo registos de conversas apagadas, o que gerou controvérsia adicional.

Numa altura em que a transparência dos dados usados para treinar IA está sob crescente escrutínio, este processo é visto como um importante indicador para o futuro enquadramento legal do setor. Casos semelhantes estão em curso nos EUA e na Europa, com editoras, titulares de direitos de música e responsáveis por repositórios de código a procurarem clarificar os limites da eventual violação de propriedade intelectual pelos modelos de IA.

Esta decisão não afeta apenas a OpenAI, podendo também ter repercussões para empresas de IA de grande dimensão como a Anthropic e a Perplexity, trazendo implicações profundas sobre a forma como o setor recolhe, utiliza e divulga dados de treino.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Tópicos relacionados
#
ai
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)