La Inteligencia Artificial (IA) ha experimentado un auge significativo en los últimos años, con herramientas como ChatGPT y Gemini ganando popularidad por su capacidad para agilizar tareas y automatizar procesos en diversos ámbitos laborales. Sin embargo, el uso generalizado de estas tecnologías también ha traído consigo preocupaciones sobre la seguridad de la información.
Noticia relacionada: Google: Guía de uso gratuito de Gemini, inteligencia artificial
Una de las principales inquietudes es la privacidad de los datos. Amado explicó que aplicaciones como ChatGPT requieren grandes cantidades de información para entrenarse, la cual se almacena en la nube y está fuera del control del usuario. “Cada vez que utilizamos estas herramientas, estamos proporcionando datos que pueden quedar accesibles en la nube”, alertó.
Advertencia de utilizar Inteligencia Artificial en reportes
Amado ilustró el riesgo con un ejemplo práctico: Un colaborador que utiliza ChatGPT para resumir un reporte ejecutivo puede estar exponiendo información confidencial de la empresa. “El reporte, que contiene datos sensibles, se almacena en la nube y puede ser accesible para terceros”, advirtió.
Para mitigar estos riesgos, Amado enfatizó la importancia de capacitar a los empleados sobre el uso seguro de la IA y la necesidad de evitar compartir información sensible con estas aplicaciones. Una vez que los datos se han compartido, no pueden ser recuperados o eliminados.
Vulnerabilidades en el Código Generado por IA
El uso de IA en la programación ha facilitado la creación de aplicaciones y sitios web, pero también ha planteado nuevos desafíos de seguridad. Según Amado, más del 65% del código de las aplicaciones se genera actualmente con IA. “El problema es que la IA tiende a generar código similar o idéntico para diferentes usuarios, lo que significa que varias organizaciones podrían estar utilizando el mismo software o aplicación, compartiendo las mismas vulnerabilidades”, explicó.
Amado recomendó a las organizaciones que eviten depender exclusivamente de la IA para la generación de código y que consideren métodos tradicionales de programación para una mayor seguridad, aunque estos sean más lentos.
El Lado Oscuro de la IA
Mientras herramientas como ChatGPT y Gemini buscan facilitar tareas diarias, también existen aplicaciones de IA con fines maliciosos. Amado alertó sobre ejemplos como WormGPT, FraudGPT y PoisonGPT, que pueden ser utilizadas para llevar a cabo ataques de phishing y desarrollar software maligno para extraer información.
“Es crucial estar al tanto de estas aplicaciones maliciosas, ya que aumentan el riesgo de ataques cibernéticos y ransomware”, subrayó Amado.
Para organizaciones que utilizan IA en la programación o en otras áreas, Amado recomendó contactar a empresas especializadas en ciberseguridad, como SISAP, para realizar análisis de vulnerabilidades y reforzar las defensas contra posibles ciberataques.