Esta noticia fue publicada previamente por The Conversation.
ChatGPT ha arrasado en todo el mundo. A los dos meses de su lanzamiento alcanzó los 100 millones de usuarios activos, lo que la convierte en la aplicación de consumo de más rápido crecimiento jamás lanzada. Los usuarios se sienten atraídos por las avanzadas capacidades de la herramienta, y preocupados por su potencial para causar trastornos en diversos sectores.
Una implicación mucho menos discutida son los riesgos para la privacidad que ChatGPT supone para todos y cada uno de nosotros. Ayer mismo, Google presentó su propia IA conversacional, llamada Bard, y seguramente le seguirán otras. Las empresas tecnológicas que trabajan en IA han entrado de lleno en una carrera armamentística.
ChatGPT se basa en un gran modelo lingüístico que requiere grandes cantidades de datos para funcionar y mejorar. Cuantos más datos se utilicen para entrenar el modelo, mejor podrá detectar patrones, anticipar lo que vendrá a continuación y generar textos plausibles.
OpenAI, la empresa que está detrás de ChatGPT, alimentó la herramienta con unos 300.000 millones de palabras extraídas sistemáticamente de Internet: libros, artículos, sitios web y mensajes, incluida información personal obtenida sin consentimiento.
Si alguna vez has escrito una entrada en un blog o una reseña de producto, o has comentado un artículo en Internet, es muy probable que ChatGPT haya consumido esa información.
Consulte la noticia original si desea conocer más.
- El GAFI alerta sobre riesgos ilícitos con stablecoins y monederos no alojados
- La Audiencia Nacional asume el caso Plus Ultra y mantiene el secreto del sumario
- Las IA de EEUU aceptan su uso para vigilar a no estadounidenses, según Euractiv
- La AEPD sanciona al FC Barcelona por deficiencias en la EIPD biométrica
- La supervisión antilavado en el Reino Unido evidencia la urgencia de una reforma
- COSO publica una guía sobre riesgos de la inteligencia artificial generativa