Esta noticia fue publicada previamente por The Conversation.
ChatGPT ha arrasado en todo el mundo. A los dos meses de su lanzamiento alcanzó los 100 millones de usuarios activos, lo que la convierte en la aplicación de consumo de más rápido crecimiento jamás lanzada. Los usuarios se sienten atraídos por las avanzadas capacidades de la herramienta, y preocupados por su potencial para causar trastornos en diversos sectores.
Una implicación mucho menos discutida son los riesgos para la privacidad que ChatGPT supone para todos y cada uno de nosotros. Ayer mismo, Google presentó su propia IA conversacional, llamada Bard, y seguramente le seguirán otras. Las empresas tecnológicas que trabajan en IA han entrado de lleno en una carrera armamentística.
ChatGPT se basa en un gran modelo lingüístico que requiere grandes cantidades de datos para funcionar y mejorar. Cuantos más datos se utilicen para entrenar el modelo, mejor podrá detectar patrones, anticipar lo que vendrá a continuación y generar textos plausibles.
OpenAI, la empresa que está detrás de ChatGPT, alimentó la herramienta con unos 300.000 millones de palabras extraídas sistemáticamente de Internet: libros, artículos, sitios web y mensajes, incluida información personal obtenida sin consentimiento.
Si alguna vez has escrito una entrada en un blog o una reseña de producto, o has comentado un artículo en Internet, es muy probable que ChatGPT haya consumido esa información.
Consulte la noticia original si desea conocer más.
- El índice de percepción de la corrupción 2025 agrava el deterioro en España
- Sanción al CNIO por despedir a denunciantes de corrupción
- Hackeo al regulador de privacidad neerlandés compromete datos de empleados
- España propone prohibir las redes sociales a menores de 16 años
- El Tribunal de Cuentas Europeo alerta de debilidades antifraude en España con los fondos UE
- La modernización del derecho de rectificación impulsa su adaptación al entorno digital