Esta noticia fue publicada previamente por Biometric Update.com.
El Instituto Nacional de Estándares y Tecnología de E.E.U.U. (NIST, por sus siglas en inglés) ha presentado una nueva iniciativa, el programa de Evaluación de Riesgos e Impactos de la IA (ARIA, por sus siglas en inglés), diseñado para evaluar las interacciones entre los sistemas de IA y los usuarios humanos para comprender cómo estos sistemas impactan y se ven influenciados por factores sociales.
Según el NIST, el programa ofrecerá métricas medibles para evaluar el rendimiento de estos sistemas, con un enfoque en aspectos como la validez, la confiabilidad, la seguridad, la privacidad y la equidad. El objetivo es apoyar los esfuerzos del Instituto de Seguridad de IA de EE. UU. para establecer sistemas de IA confiables.
Consulte la noticia original si desea conocer más.
- COSO publica una guía sobre riesgos de la inteligencia artificial generativa
- FinCEN retira la advertencia sobre pasaportes dorados de St. Kitts y Nevis
- La SEC flexibiliza sus políticas de enforcement y refuerza la transparencia
- La autoridad británica multa a Reddit con casi 17 millones de euros por vulnerar la privacidad infantil
- La UE y Reino Unido firman un acuerdo de cooperación en competencia
- Gobierno británico acusado de bloquear un informe independiente sobre fraude