OpenAI publica un plan de seguridad infantil para abordar la explotación impulsada por la IA

Decrypt

En resumen

  • OpenAI publicó su “Child Safety Blueprint”, que aborda la explotación sexual de menores habilitada por IA.
  • El marco se centra en reformas legales, una coordinación de reporte más sólida y salvaguardas integradas en los sistemas de IA.
  • La propuesta se desarrolló con aportes de grupos de seguridad infantil, fiscales generales y organizaciones sin fines de lucro.

Con el objetivo de abordar el aumento de la explotación sexual de menores habilitada por IA, OpenAI publicó el miércoles un esquema de políticas que describe nuevas medidas de seguridad que la industria puede adoptar para ayudar a frenar el uso de la IA en la creación de material de abuso sexual infantil. En el marco, OpenAI enumera medidas legales, operativas y técnicas destinadas a reforzar las protecciones contra el abuso habilitado por IA y a mejorar la coordinación entre las empresas tecnológicas y los investigadores. “La explotación sexual de menores es uno de los desafíos más urgentes de la era digital”, escribió la empresa. “La IA está cambiando rápidamente tanto la forma en que estos daños surgen en toda la industria como la manera en que pueden abordarse a escala”.

OpenAI dijo que la propuesta incorpora aportes de organizaciones que trabajan en protección infantil y seguridad en línea, incluidos el National Center for Missing and Exploited Children y la Attorney General Alliance y su fuerza de trabajo de IA. “La IA generativa está acelerando el crimen de la explotación sexual de menores en línea de maneras profundamente preocupantes, al reducir las barreras, aumentar la escala y habilitar nuevas formas de daño”, dijo Michelle DeLaune, presidenta y CEO del National Center for Missing & Exploited Children, en un comunicado. “Pero al mismo tiempo, el National Center for Missing & Exploited Children se siente alentado de ver que empresas como OpenAI reflexionan sobre cómo pueden diseñarse estas herramientas de manera más responsable, con salvaguardas incorporadas desde el principio”.  OpenAI dijo que el marco combina estándares legales, sistemas de reporte de la industria y salvaguardas técnicas dentro de los modelos de IA. La compañía dijo que estas medidas tienen como objetivo ayudar a identificar riesgos de explotación antes y mejorar la rendición de cuentas en todas las plataformas en línea.

El blueprint identifica áreas de acción, incluida la actualización de leyes para abordar el material de abuso sexual infantil generado o alterado por IA, mejorar la forma en que los proveedores en línea reportan señales de abuso y coordinan con los investigadores, y construir salvaguardas en los sistemas de IA diseñados para prevenir el uso indebido. “Ninguna intervención puede abordar este desafío por sí sola”, escribió la empresa. “Este marco reúne enfoques legales, operativos y técnicos para identificar mejor los riesgos, acelerar las respuestas y respaldar la rendición de cuentas, al tiempo que se asegura de que las autoridades de aplicación mantengan su fortaleza a medida que evoluciona la tecnología.” El blueprint surge en un momento en que defensores de la seguridad infantil han planteado preocupaciones de que los sistemas de IA generativa capaces de producir imágenes realistas podrían usarse para crear representaciones manipuladas o sintéticas de menores. En febrero, UNICEF pidió a los gobiernos de todo el mundo que aprueben leyes que criminalicen el material de abuso infantil generado por IA. En enero, la Comisión Europea lanzó una investigación formal para determinar si X, antes conocido como Twitter, violó las normas digitales de la UE al no impedir que su modelo de IA nativo, Grok, generara contenido ilegal, ya que los reguladores del Reino Unido y Australia también han abierto investigaciones. Al señalar que las leyes por sí solas no detendrán la plaga del material de abuso generado por IA, OpenAI dijo que será necesario que la industria adopte estándares más sólidos a medida que los sistemas de IA se vuelvan más capaces. “Al interrumpir antes los intentos de explotación, mejorar la calidad de las señales enviadas a las fuerzas del orden y fortalecer la rendición de cuentas en todo el ecosistema, este marco busca prevenir el daño antes de que ocurra y ayudar a garantizar una protección más rápida para los niños cuando surjan riesgos”, dijo OpenAI.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios