Esta noticia fue publicada previamente por The Conversation.
ChatGPT ha arrasado en todo el mundo. A los dos meses de su lanzamiento alcanzó los 100 millones de usuarios activos, lo que la convierte en la aplicación de consumo de más rápido crecimiento jamás lanzada. Los usuarios se sienten atraídos por las avanzadas capacidades de la herramienta, y preocupados por su potencial para causar trastornos en diversos sectores.
Una implicación mucho menos discutida son los riesgos para la privacidad que ChatGPT supone para todos y cada uno de nosotros. Ayer mismo, Google presentó su propia IA conversacional, llamada Bard, y seguramente le seguirán otras. Las empresas tecnológicas que trabajan en IA han entrado de lleno en una carrera armamentística.
ChatGPT se basa en un gran modelo lingüístico que requiere grandes cantidades de datos para funcionar y mejorar. Cuantos más datos se utilicen para entrenar el modelo, mejor podrá detectar patrones, anticipar lo que vendrá a continuación y generar textos plausibles.
OpenAI, la empresa que está detrás de ChatGPT, alimentó la herramienta con unos 300.000 millones de palabras extraídas sistemáticamente de Internet: libros, artículos, sitios web y mensajes, incluida información personal obtenida sin consentimiento.
Si alguna vez has escrito una entrada en un blog o una reseña de producto, o has comentado un artículo en Internet, es muy probable que ChatGPT haya consumido esa información.
Consulte la noticia original si desea conocer más.
- El Parlamento Europeo aprueba una nueva directiva común contra la corrupción
- La CNMC actualiza el cálculo de multas por infracciones de competencia
- AMLA avanza en el desarrollo del nuevo marco europeo de PBC/FT
- Canadá revoca decenas de registros de firmas cripto por riesgo de blanqueo
- El Gobierno sitúa las sanciones financieras en el centro del sistema de PBC/FT
- Reino Unido probará vetos y toques de queda digitales para adolescentes