Esta noticia fue publicada previamente por ElPais.
La rápida evolución de las nuevas tecnologías hace que, cada vez con más frecuencia, sea prácticamente imposible distinguir si un contenido ha sido generado por un ser humano o por una máquina. Italia acaba de prohibir el uso de ChatGPT alegando que no cumple la normativa europea de protección de datos, pero los riesgos de estas y otras nuevas tecnologías generativas pueden ser más sofisticados aún. Bruselas quiere asegurarse de que haya la confusión mínima posible y, para ello, recuerda que busca, entre otros, que todo contenido generado por inteligencia artificial (IA) esté, de manera obligatoria, debidamente advertido.
“En todo lo que sea generado por inteligencias artificiales, ya sean textos —todo el mundo conoce ahora ChatGPT— o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial”, ha dicho este lunes el comisario de Mercado Interior, Thierry Breton, en la emisora gala Franceinfo. El alto responsable europeo ha recordado al respecto que el Ejecutivo europeo presentó, hace ahora casi exactamente dos años, una propuesta de reglamento sobre inteligencia artificial que busca “proporcionar a los desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claros en relación con los usos específicos de la IA”, según resume la propia Comisión su propuesta.
Consulte la noticia original si desea conocer más.
- Transferencias internacionales de datos personales: retos y aspectos clave
- La autoridad de privacidad holandesa pide a los usuarios de LinkedIn que rechacen el uso de sus datos para IA
- Renfe despide a un directivo por gastar 28.200 euros en viajes de lujo
- Una investigación por blanqueo de capitales destapa una trama urbanística en Sevilla
- Transparency International España propone 100 medidas para combatir la corrupción
- Bruselas busca reformar la ley de cookies tras años de críticas