Acabo de ver que OpenAI suspendió su función de chat para adultos en ChatGPT después de que salieron resultados de pruebas bastante cuestionables. Aparentemente, su sistema de verificación de edad estaba identificando incorrectamente a adolescentes como adultos en un 12% de los casos, lo cual... no es ideal cuando intentas mantener a los menores alejados del contenido para adultos. Su consejo de ética lo alertó en enero, diciendo que podría ser arriesgado para usuarios vulnerables, y la verdad es que tiene sentido. Todo esto me hizo pensar en lo difícil que es en realidad construir funciones de IA seguras, especialmente las que manejan verificación de edad y contenido para adultos. Básicamente están diciendo "esto hay que hacerlo bien antes de lanzarlo", lo cual supongo que es lo responsable, pero también muestra cuántos casos límite existen en la seguridad de la IA. ¿Alguien más está siguiendo esto? Parece que cada movimiento importante en IA ahora es sometido a escrutinio.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado