Esta noticia fue publicada previamente por Biometric Update.com.
El Instituto Nacional de Estándares y Tecnología de E.E.U.U. (NIST, por sus siglas en inglés) ha presentado una nueva iniciativa, el programa de Evaluación de Riesgos e Impactos de la IA (ARIA, por sus siglas en inglés), diseñado para evaluar las interacciones entre los sistemas de IA y los usuarios humanos para comprender cómo estos sistemas impactan y se ven influenciados por factores sociales.
Según el NIST, el programa ofrecerá métricas medibles para evaluar el rendimiento de estos sistemas, con un enfoque en aspectos como la validez, la confiabilidad, la seguridad, la privacidad y la equidad. El objetivo es apoyar los esfuerzos del Instituto de Seguridad de IA de EE. UU. para establecer sistemas de IA confiables.
Consulte la noticia original si desea conocer más.
- La ICO británica multa a LastPass con 1,2 millones de euros por una brecha masiva de datos
- Anticorrupción investiga si Plus Ultra desvió fondos del rescate para blanquear dinero venezolano
- AESIA publica sus primeras guías para el desarrollo ético y seguro de la inteligencia artificial
- El Tribunal Constitucional de Eslovaquia suspende la disolución del órgano de protección a denunciantes
- La AMLA da un paso clave hacia la supervisión armonizada contra el blanqueo en la UE
- El GAFI detecta deficiencias en la lucha contra el blanqueo de capitales en Bélgica