Esta noticia fue publicada previamente por The Conversation.

ChatGPT ha arrasado en todo el mundo. A los dos meses de su lanzamiento alcanzó los 100 millones de usuarios activos, lo que la convierte en la aplicación de consumo de más rápido crecimiento jamás lanzada. Los usuarios se sienten atraídos por las avanzadas capacidades de la herramienta, y preocupados por su potencial para causar trastornos en diversos sectores.

Una implicación mucho menos discutida son los riesgos para la privacidad que ChatGPT supone para todos y cada uno de nosotros. Ayer mismo, Google presentó su propia IA conversacional, llamada Bard, y seguramente le seguirán otras. Las empresas tecnológicas que trabajan en IA han entrado de lleno en una carrera armamentística.
ChatGPT se basa en un gran modelo lingüístico que requiere grandes cantidades de datos para funcionar y mejorar. Cuantos más datos se utilicen para entrenar el modelo, mejor podrá detectar patrones, anticipar lo que vendrá a continuación y generar textos plausibles.

OpenAI, la empresa que está detrás de ChatGPT, alimentó la herramienta con unos 300.000 millones de palabras extraídas sistemáticamente de Internet: libros, artículos, sitios web y mensajes, incluida información personal obtenida sin consentimiento.

Si alguna vez has escrito una entrada en un blog o una reseña de producto, o has comentado un artículo en Internet, es muy probable que ChatGPT haya consumido esa información.

Consulte la noticia original si desea conocer más.