VISMA es una compañía que provee soluciones de software para entornos empresariales en la nube, garantizando altos niveles de seguridad y cumplimiento regulatorio. La protección de la infraestructura en la nube es un pilar fundamental en nuestro negocio, donde aplicamos las mejores prácticas de ciberseguridad empresarial y promovemos un enfoque de seguridad proactiva para la protección de datos.
En Latinoamérica, el grupo está compuesto por ocho compañías en las que trabajan 750 personas distribuidas entre Argentina, Chile, Perú, Colombia y Uruguay. Contamos con más de 55.000 clientes y casi 3.5 millones de usuarios recurrentes entre todas nuestras soluciones digitales.
En Latinoamérica, el grupo está compuesto por ocho compañías en las que trabajan 750 personas distribuidas entre Argentina, Chile, Perú, Colombia y Uruguay. Contamos con más de 55.000 clientes y casi 3.5 millones de usuarios recurrentes entre todas nuestras soluciones digitales.
Tenemos definido un programa completo que abarca todos los aspectos esenciales a cubrir en cuestiones de seguridad. Dado que en Latinoamérica también crecemos a través de una estrategia de adquisición de empresas, los altos estándares de seguridad son fundamentales para la compañía; por eso, apenas se incorpora una nueva empresa, trabajamos para alcanzar esas rigurosas pautas de seguridad que exige casa matriz desde Noruega.
El rol de la inteligencia artificial en la seguridad en la nube
Tanto para todo lo que se refiere a seguridad como para el ciclo de vida de desarrollo de nuestras aplicaciones utilizamos una serie de herramientas que en su mayoría ya tienen adaptados mecanismos de machine learning e Inteligencia Artificial (IA), lo que nos sirve para mejorar y actualizar nuestras soluciones permanentemente.
Ya hay IA aplicada en muchos aspectos dentro de la empresa. Utilizamos soluciones de terceros con IA e implementamos IA en los procesos que nosotros mismos llevamos adelante, por ejemplo: implementar un chatbot para la mesa de ayuda o utilizar una solución de terceros con soporte de IA en el ciclo de vida de los desarrollos.
La IA es algo muy potente, pero aún no se tiene plena dimensión de sus alcances. Estamos adoptando esta tecnología de manera muy consciente, de lo contrario, se podrían cometer grandes errores. Por eso, hemos trabajado meticulosamente en la definición e implementación de políticas y procedimientos para una utilización cuidadosa de la IA en la empresa y en la concepción de nuestras soluciones. Si esta tecnología no se maneja de forma consciente, puede llegar a traer dificultades que -hoy en día- no hay manera de calcular.
Específicamente, en cuestiones de seguridad, usamos herramientas de IA para monitoreo de actividades e información en la dark web, lo que nos permite detectar patrones o comportamiento de actividades sospechosas en la red, en los end points, y mitigar riesgos.
Algunas de las herramientas que estamos utilizando son, por ejemplo, Darktrace, que utilizando algoritmos de machine learning realiza ese monitoreo permanente de todo el tráfico de la red buscando patrones y tratando de identificar actividades sospechosas.
Además, usamos SentinelOne, una plataforma con tecnología XDR que adopta IA para prevenir, detectar y responder a las amenazas modernas. Se instala como un agente en los servidores o laptops; tiene una consola sincronizada para hacer seguimiento de las alertas que se detectan. Funciona como un antivirus, pero además tiene otros features que analizan determinadas acciones de modo que, si se detectan actividades sospechosas, se generen alertas para efectuar una investigación o poner en cuarentena determinados archivos.
En cuanto a cuestiones de seguridad en materia de desarrollo de soluciones, Copilot es una herramienta muy útil, sin embargo, hay que tener cuidado, ya que la primera devolución puede llegar a ser algo totalmente inseguro. Si en una organización se va a usar IA en el ciclo de vida de desarrollo, se debe estandarizar y regular muy bien cómo utilizar estas herramientas. Por ejemplo, supervisar el código generado por las IAs por un rol senior.
Retos y oportunidades de la inteligencia artificial en la seguridad en la nube
Hoy en día, uno de los problemas con la IA Generativa se refiere a la falta de legislación para regular las distintas etapas involucradas en la implementación de dichas tecnologías. Por ejemplo, al consultar a la IA qué tipo de material se puede utilizar en el entrenamiento de un modelo de IA; una respuesta podría incluir material con copyright.
Otra situación podría estar asociada a cómo la IA hace uso de la información que los mismos usuarios le proporcionan durante la utilización de la IA. Si un usuario ingresa a la IA datos personales propios o ajenos, dichos datos pueden ser utilizados posteriormente por la IA en alguna respuesta. Por eso la utilización de la IA tiene que ser consciente, no pasar por alto estas cuestiones “nuevas” (porque la tecnología es también nueva) que a muchos se les están escapando.
Por otra parte, en VISMA utilizamos software para hacer Inteligencia de amenazas, como SOC Radar o Recorded Future. Una de sus funciones radica en recorrer distintas fuentes de información utilizadas por los hackers para intercambiar opiniones, herramientas y comercializar información exfiltrada, como por ejemplo foros en la dark web, canales de telegram o de discord, etc. Estas herramientas generalmente buscan si existen determinadas menciones de información clave de la organización para establecer si, por ejemplo, hubo robo de tarjetas de crédito o datos personales o corporativos.
Se trata de tecnología que usa machine learning o deep learning para aprender de los datos y de las acciones humanas. Otra funcionalidad que normalmente incluyen es la capacidad de detectar cuáles son las vulnerabilidades que los hackers están compartiendo, las que más suenan entre ellos, lo que permite poner especial atención en eso y solucionarlo. Si la información ya está en esos canales, probablemente esos datos estén a la “venta”, pero el descubrirlo rápidamente sirve para mitigar posibles amenazas.
A nivel de potencialidad de la IA y de legislación sobre el tema, todavía queda mucho por recorrer. Mientras tanto, debemos ser muy cautelosos.