El auge de la inteligencia artificial generativa ha traído consigo herramientas de uso masivo, desde generadores de imágenes hasta asistentes conversacionales. Sin embargo, la seguridad de los datos en este sector sigue siendo una preocupación creciente.
Un reciente incidente expuso información sensible de millones de usuarios de ImagineArt, Chatly y Chatbotx, aplicaciones de la empresa Vyro AI, con sede en Pakistán. La magnitud de la filtración pone de relieve la fragilidad con la que muchas compañías de IA gestionan la privacidad en plena carrera por conquistar mercado, según informó CyberNews.
La filtración en detalle
Investigadores de Cybernews descubrieron una instancia de Elasticsearch sin protección, vinculada a Vyro AI, que estaba filtrando en tiempo real 116 GB de registros de usuario.
Los datos expuestos incluían:
- Prompts (instrucciones) que los usuarios enviaban a los chatbots.
- Tokens de autenticación (bearer tokens).
- User agents (información sobre el dispositivo y navegador del usuario).
La filtración afectó tanto a entornos de desarrollo como de producción, almacenando entre 2 y 7 días de registros. Según los investigadores, la base de datos pudo estar expuesta durante meses, siendo indexada por motores de búsqueda en febrero.
Impacto potencial
El alcance del incidente es preocupante:
- ImagineArt acumula más de 10 millones de descargas en Android y más de 30 millones de usuarios activos.
- Vyro AI asegura haber superado los 150 millones de instalaciones en todo su portafolio y generar 3,5 millones de imágenes semanales.
Con esta filtración, los atacantes podrían:
- Secuestrar cuentas utilizando los tokens expuestos.
- Acceder al historial completo de chats e imágenes generadas.
- Realizar compras fraudulentas de créditos de IA.
Lo más grave es que los prompts filtrados pueden contener información íntima o confidencial, ya que los usuarios suelen compartir datos personales o sensibles en sus conversaciones con la IA.
La brecha de seguridad en la IA
Este caso no es aislado. En los últimos meses:
- Conversaciones de ChatGPT y Grok aparecieron indexadas en Google debido a enlaces compartibles inseguros.
- Un chatbot de Expedia mostró cómo fabricar cócteles Molotov, revelando los riesgos legales y reputacionales de sistemas sin barreras de seguridad adecuadas.
- Incluso OpenAI sufrió vulnerabilidades: su modelo GPT-5 fue jailbreakeado en menos de 24 horas tras su lanzamiento.
Estos ejemplos reflejan un patrón: la falta de guardrails (medidas de protección) en los chatbots de IA, priorizando velocidad y expansión de mercado sobre seguridad y privacidad.
Reflexiones
La filtración de Vyro AI revela una verdad incómoda: el sector de la IA aún no está preparado para gestionar de forma responsable los datos sensibles de millones de usuarios.
Este tipo de incidentes debe impulsar:
- Mejores prácticas de ciberseguridad en startups de IA.
- Auditorías externas obligatorias en sistemas que manejan datos masivos.
- Protocolos de privacidad robustos, similares a los exigidos en sectores financieros o médicos.
La confianza del público en los chatbots y asistentes de IA dependerá, en gran medida, de que las compañías demuestren estar a la altura de la protección que sus usuarios merecen.
Fuente: somoslibres