Esta noticia fue publicada previamente por la CNIL.
El desarrollo de la IA va acompañado de retos en el ámbito de la protección de datos y las libertades individuales que la CNIL se esfuerza por abordar desde hace varios años. Desde la publicación en 2017 de su informe sobre los desafíos éticos de los algoritmos y la inteligencia artificial, la CNIL se pronunció en repetidas ocasiones sobre las cuestiones planteadas por las nuevas herramientas que trae consigo esta nueva tecnología.
En particular, la inteligencia artificial generativa (véase el recuadro a continuación) se ha desarrollado rápidamente durante varios meses, ya sea en el campo del texto y la conversación, a través de grandes modelos de lenguaje (LLMsen inglés), como GPT-3, BLOOM o Megatron NLG y chatbots derivados (ChatGPT o Bard), pero también en los de la imagen (Dall-E, Midjourney, Stable Diffusion, etc.) o el habla (Vall-E).
Consulte la noticia original si desea conocer más.
- COSO publica una guía sobre riesgos de la inteligencia artificial generativa
- FinCEN retira la advertencia sobre pasaportes dorados de St. Kitts y Nevis
- La SEC flexibiliza sus políticas de enforcement y refuerza la transparencia
- La autoridad británica multa a Reddit con casi 17 millones de euros por vulnerar la privacidad infantil
- La UE y Reino Unido firman un acuerdo de cooperación en competencia
- Gobierno británico acusado de bloquear un informe independiente sobre fraude