Esta noticia fue publicada previamente por ElPais.
La rápida evolución de las nuevas tecnologías hace que, cada vez con más frecuencia, sea prácticamente imposible distinguir si un contenido ha sido generado por un ser humano o por una máquina. Italia acaba de prohibir el uso de ChatGPT alegando que no cumple la normativa europea de protección de datos, pero los riesgos de estas y otras nuevas tecnologías generativas pueden ser más sofisticados aún. Bruselas quiere asegurarse de que haya la confusión mínima posible y, para ello, recuerda que busca, entre otros, que todo contenido generado por inteligencia artificial (IA) esté, de manera obligatoria, debidamente advertido.
“En todo lo que sea generado por inteligencias artificiales, ya sean textos —todo el mundo conoce ahora ChatGPT— o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial”, ha dicho este lunes el comisario de Mercado Interior, Thierry Breton, en la emisora gala Franceinfo. El alto responsable europeo ha recordado al respecto que el Ejecutivo europeo presentó, hace ahora casi exactamente dos años, una propuesta de reglamento sobre inteligencia artificial que busca “proporcionar a los desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claros en relación con los usos específicos de la IA”, según resume la propia Comisión su propuesta.
Consulte la noticia original si desea conocer más.
- La AMLA fija sus prioridades estratégicas para el periodo 2026-2028
- El Gobierno da luz verde al estatuto de la Agencia Estatal de Evaluación de Políticas Públicas
- La policía italiana registra un club de fútbol vinculado a Doge por blanqueo de capitales
- La Comisión Europea incumple el plazo para guiar sistemas de alto riesgo en la ley de IA
- El Reino Unido publica la lista de empresas que incumplieron la normativa antiblanqueo
- La SFO archiva un caso de soborno extranjero vinculado a Sierra Leona