Este post proviene de esta fuente de noticias

Como bien es sabido, la irrupción a comienzos de año de los chatbots de IA generativos, así como su uso multitudinario ha hecho que nos planteemos qué tipo de información personal estamos compartiendo con estas plataformas.

Hace unas semanas, el popular chatbot ChatGPT agregó opciones de configuración en materia de privacidad en respuesta a la advertencia de la autoridad italiana de protección de datos.

El principal motivo por el que los chatbots generan preocupación es su naturaleza conversacional, que hace que los usuarios confíen más y compartan más información sensible sin ser conscientes de cómo se trata.

En muchas ocasiones, los usuarios comparten datos de naturaleza sensible, sin que seamos muy conscientes de los términos en los que son tratados.

A este respecto, la AEPD ha emitido una serie de recomendaciones generales para todos aquellos usuarios que se dispongan a utilizar estas herramientas:

  • En primer lugar, verificar que los chatbots cuentan con una Política de Privacidad y/o Aviso Legal que incluya:
    • Una identificación clara y precisa del responsable del tratamiento, y de sus datos de localización, fiscales y contacto.
    • Información clara de protección de datos con referencia al RGPD.
    • Información para poder ejercer los derechos de protección de datos.
    • Información sobre si el chatbot continúa aprendiendo de las conversaciones mantenidas con los usuarios y qué operaciones realiza con esos datos una vez mejorado.

Además, se recomienda no aceptar solicitudes de datos innecesarios, consentimiento sin definición clara, transferencias a países sin garantías suficientes y limitar la exposición de datos personales.

Puedes consultar la noticia completa, haciendo clic aquí.