Esta noticia fue publicada previamente por Biometric Update.com.
El Instituto Nacional de Estándares y Tecnología de E.E.U.U. (NIST, por sus siglas en inglés) ha presentado una nueva iniciativa, el programa de Evaluación de Riesgos e Impactos de la IA (ARIA, por sus siglas en inglés), diseñado para evaluar las interacciones entre los sistemas de IA y los usuarios humanos para comprender cómo estos sistemas impactan y se ven influenciados por factores sociales.
Según el NIST, el programa ofrecerá métricas medibles para evaluar el rendimiento de estos sistemas, con un enfoque en aspectos como la validez, la confiabilidad, la seguridad, la privacidad y la equidad. El objetivo es apoyar los esfuerzos del Instituto de Seguridad de IA de EE. UU. para establecer sistemas de IA confiables.
Consulte la noticia original si desea conocer más.
- Reflexión sobre el incidente de Amazon Web Services
- Joint Venture tecnológica en España: claves legales para compartir IP y beneficios
- Cómo las brechas de datos afectan a marcas como Mango y a sus clientes
- España lanza la primera norma para medir la sostenibilidad ambiental de la inteligencia artificial
- El Gobierno impulsa una ley para reforzar la transparencia institucional
- La EBA advierte sobre el uso generalizado del white labelling en banca y pagos