Este post proviene de esta fuente de noticias

Es el tema del momento. La capacidad de la inteligencia artificial generativa para crear cualquier tipo de contenido resulta deslumbrante. Sin embargo, empieza a ser vox populi que esta tecnología también está llena de sombras.

A finales del año pasado, varios usuarios web publicaron en el popular foro de hacking BreachForums, de qué forma utilizaron el famoso chatbot de IA para  generar un código malicioso o malware, que es como se conoce al software diseñado para robar datos o dañar ordenadores.

En la misma línea del anterior ejemplo, a principios del pasado verano, la startup Stability AI fue capaz de generar una cantidad ingente de deepfakes de contenido pornográfico de supuestas personalidades famosas, inundando el foto de debate 4chan.

Y sin embargo, y a pesar de estas preocupaciones, las valoraciones y el bombo mediático en torno a este ámbito parecen explotar sin fin a la vista, lo que plantea la siguiente pregunta: ¿quién es responsable de vigilar esta tecnología?

En respuesta a esta pregunta, diversas startups vinculadas a esta tecnología se han encargado de garantizar que sus productos no son utilizados para fines indebidos. Así, la empresa Resemble AI, una empresa dedicada a la generación de voces mediante el uso de la IA, lanzó un paquete de código abierto para verificar a hablantes. Otro ejemplo es el de Synthesia, una empresa dedicada a la generación de videos a través de la inteligencia artificial, que lanzó una base de datos públicas de deepfakes con el objetivo de proporcionar a los reguladores y al público un conocimiento básico sobre esta tecnología.

Iniciativas de este tipo han conseguido reducir el estigma y el miedo a muchas de las funcionalidades vinculadas a la IA. No obstante, la autorregulación resulta del todo insuficiente, y parece claro que el sector necesita unos protocolos de seguridad hasta el momento inexistentes.

Ahora bien, no sólo el estado debe asumir responsabilidades en este sentido. Los propios inversores de capital riesgo han reconocido la responsabilidad que tienen en dar una forma ética a la IA generativa, por ejemplo, respaldando a aquellas empresas de IA con una importante dedicación a la seguridad.

En resumen, parece evidente la predominancia que van a tener las IA en la próxima década, lo que va a implicar una verdadera red de acciones gubernamentales que permitan que esta siga funcionando correctamente.

Puedes consultar la noticia completa haciendo clic aquí.