Actualidad Tecnología - 

La Inteligencia Artificial: Ventajas, riesgos y medidas de seguridad

El uso de Inteligencia Artificial en la programación ha facilitado la creación de aplicaciones y sitios web, pero plantea nuevos desafíos de seguridad.

Noemí Ruíz
Por Noemí Ruíz

La Inteligencia Artificial (IA) ha experimentado un auge significativo en los últimos años, con herramientas como ChatGPT y Gemini ganando popularidad por su capacidad para agilizar tareas y automatizar procesos en diversos ámbitos laborales. Sin embargo, el uso generalizado de estas tecnologías también ha traído consigo preocupaciones sobre la seguridad de la información.

José Amado, gerente de la Práctica de Identidades Digitales de SISAP, advirtió sobre los riesgos asociados con el manejo de datos privados al utilizar aplicaciones de IA. “La tecnología nos brinda una ventana al mundo, pero también puede abrir puertas a la vulnerabilidad de nuestra información personal y organizacional”, señaló Amado.

Noticia relacionada: Google: Guía de uso gratuito de Gemini, inteligencia artificial

Una de las principales inquietudes es la privacidad de los datos. Amado explicó que aplicaciones como ChatGPT requieren grandes cantidades de información para entrenarse, la cual se almacena en la nube y está fuera del control del usuario. “Cada vez que utilizamos estas herramientas, estamos proporcionando datos que pueden quedar accesibles en la nube”, alertó.

Advertencia de utilizar Inteligencia Artificial en reportes

image.png

Amado ilustró el riesgo con un ejemplo práctico: Un colaborador que utiliza ChatGPT para resumir un reporte ejecutivo puede estar exponiendo información confidencial de la empresa. “El reporte, que contiene datos sensibles, se almacena en la nube y puede ser accesible para terceros”, advirtió.

Para mitigar estos riesgos, Amado enfatizó la importancia de capacitar a los empleados sobre el uso seguro de la IA y la necesidad de evitar compartir información sensible con estas aplicaciones. Una vez que los datos se han compartido, no pueden ser recuperados o eliminados.

Vulnerabilidades en el Código Generado por IA

El uso de IA en la programación ha facilitado la creación de aplicaciones y sitios web, pero también ha planteado nuevos desafíos de seguridad. Según Amado, más del 65% del código de las aplicaciones se genera actualmente con IA. “El problema es que la IA tiende a generar código similar o idéntico para diferentes usuarios, lo que significa que varias organizaciones podrían estar utilizando el mismo software o aplicación, compartiendo las mismas vulnerabilidades”, explicó.

Amado recomendó a las organizaciones que eviten depender exclusivamente de la IA para la generación de código y que consideren métodos tradicionales de programación para una mayor seguridad, aunque estos sean más lentos.

image.png

El Lado Oscuro de la IA

Mientras herramientas como ChatGPT y Gemini buscan facilitar tareas diarias, también existen aplicaciones de IA con fines maliciosos. Amado alertó sobre ejemplos como WormGPT, FraudGPT y PoisonGPT, que pueden ser utilizadas para llevar a cabo ataques de phishing y desarrollar software maligno para extraer información.

“Es crucial estar al tanto de estas aplicaciones maliciosas, ya que aumentan el riesgo de ataques cibernéticos y ransomware”, subrayó Amado.

Para organizaciones que utilizan IA en la programación o en otras áreas, Amado recomendó contactar a empresas especializadas en ciberseguridad, como SISAP, para realizar análisis de vulnerabilidades y reforzar las defensas contra posibles ciberataques.