Esta noticia fue publicada previamente por Biometric Update.com.
El Instituto Nacional de Estándares y Tecnología de E.E.U.U. (NIST, por sus siglas en inglés) ha presentado una nueva iniciativa, el programa de Evaluación de Riesgos e Impactos de la IA (ARIA, por sus siglas en inglés), diseñado para evaluar las interacciones entre los sistemas de IA y los usuarios humanos para comprender cómo estos sistemas impactan y se ven influenciados por factores sociales.
Según el NIST, el programa ofrecerá métricas medibles para evaluar el rendimiento de estos sistemas, con un enfoque en aspectos como la validez, la confiabilidad, la seguridad, la privacidad y la equidad. El objetivo es apoyar los esfuerzos del Instituto de Seguridad de IA de EE. UU. para establecer sistemas de IA confiables.
Consulte la noticia original si desea conocer más.
- Transferencias internacionales de datos personales: retos y aspectos clave
- La autoridad de privacidad holandesa pide a los usuarios de LinkedIn que rechacen el uso de sus datos para IA
- Renfe despide a un directivo por gastar 28.200 euros en viajes de lujo
- Una investigación por blanqueo de capitales destapa una trama urbanística en Sevilla
- Transparency International España propone 100 medidas para combatir la corrupción
- Bruselas busca reformar la ley de cookies tras años de críticas