Esta noticia fue publicada previamente por Biometric Update.com.
El Instituto Nacional de Estándares y Tecnología de E.E.U.U. (NIST, por sus siglas en inglés) ha presentado una nueva iniciativa, el programa de Evaluación de Riesgos e Impactos de la IA (ARIA, por sus siglas en inglés), diseñado para evaluar las interacciones entre los sistemas de IA y los usuarios humanos para comprender cómo estos sistemas impactan y se ven influenciados por factores sociales.
Según el NIST, el programa ofrecerá métricas medibles para evaluar el rendimiento de estos sistemas, con un enfoque en aspectos como la validez, la confiabilidad, la seguridad, la privacidad y la equidad. El objetivo es apoyar los esfuerzos del Instituto de Seguridad de IA de EE. UU. para establecer sistemas de IA confiables.
Consulte la noticia original si desea conocer más.
- La AMLA fija sus prioridades estratégicas para el periodo 2026-2028
- El Gobierno da luz verde al estatuto de la Agencia Estatal de Evaluación de Políticas Públicas
- La policía italiana registra un club de fútbol vinculado a Doge por blanqueo de capitales
- La Comisión Europea incumple el plazo para guiar sistemas de alto riesgo en la ley de IA
- El Reino Unido publica la lista de empresas que incumplieron la normativa antiblanqueo
- La SFO archiva un caso de soborno extranjero vinculado a Sierra Leona