Esta noticia fue publicada previamente por la CNIL.
El desarrollo de la IA va acompañado de retos en el ámbito de la protección de datos y las libertades individuales que la CNIL se esfuerza por abordar desde hace varios años. Desde la publicación en 2017 de su informe sobre los desafíos éticos de los algoritmos y la inteligencia artificial, la CNIL se pronunció en repetidas ocasiones sobre las cuestiones planteadas por las nuevas herramientas que trae consigo esta nueva tecnología.
En particular, la inteligencia artificial generativa (véase el recuadro a continuación) se ha desarrollado rápidamente durante varios meses, ya sea en el campo del texto y la conversación, a través de grandes modelos de lenguaje (LLMsen inglés), como GPT-3, BLOOM o Megatron NLG y chatbots derivados (ChatGPT o Bard), pero también en los de la imagen (Dall-E, Midjourney, Stable Diffusion, etc.) o el habla (Vall-E).
Consulte la noticia original si desea conocer más.
- La AEPD advierte sobre los riesgos visibles e invisibles del uso de tecnologías de IA en reconocimiento facial
- El Grupo Egmont publica informe clave para mejorar la eficacia en la lucha contra el blanqueo de capitales
- La agencia antiblanqueo impone sanciones récord a CaixaBank por deficiencias en la venta de productos
- Seis detenidos por un presunto fraude de 300 millones en viviendas sociales en Reino Unido
- La CNMC multa a I.C.O.N. y evidencia la falta de programas de compliance en competencia
- DeepSeek, bajo creciente escrutinio de gobiernos y reguladores internacionales