Seguridad informática

Ciberseguridad e Inteligencia Artificial: cuáles son los puntos fuertes y débiles

  • Home
  • Ciber Seguridad Informatica

El uso de la inteligencia artificial, y en particular de la inteligencia generativa, está resultando muy eficaz para elevar la ciberseguridad de las empresas frente a las amenazas de los ciberataques. Pero junto a tantas luces persisten algunas sombras, de las que es necesario ser conscientes.

Publicado el 21 Dic 2023

Federica Maria Rita Livelli

Business Continuity & Risk Management Consultant

Ciberseguridad e Inteligencia Artificial

En el contexto en constante evolución de la inteligencia artificial (IA), tanto los equipos de ciberseguridad como los piratas informáticos están explotando esta tecnología en su beneficio, en una competición continua. Por lo tanto, es de vital importancia comprender plenamente las diversas implicaciones de la IA para abordar de forma global y holística los desafíos relacionados con ella.

Ciberseguridad e Inteligencia Artificial: luces y sombras

Con la creciente adopción de tecnologías de IA generativa, nos dirigimos hacia una era en la que las medidas de seguridad deben ser tan dinámicas, inteligentes y adaptables como las propias tecnologías que pretenden proteger.

Según un reciente informe de investigación de Acumen Research & Consulting, el uso combinado de soluciones de ciberseguridad e IA en el mercado mundial ha creado un mercado valorado en 15.000 millones de dólares en 2021 y que crecerá hasta unos 135.000 millones de dólares en 2030.

De hecho, la IA está llamada a convertirse cada vez más en un elemento clave para reducir los riesgos para los usuarios y aumentar la concienciación sobre la seguridad en las organizaciones. Sin embargo, tiene luces y sombras, que resaltamos a continuación.

Puntos fuertes de la IA para la seguridad

La IA mejora y complementa herramientas tradicionales como la protección antivirus, la prevención de pérdida de datos, la detección de fraudes, la gestión de identidades y accesos, la detección de intrusiones, la gestión de riesgos y otras áreas clave de la seguridad. 

En particular, la IA demuestra ser un valioso aliado que puede analizar enormes cantidades de datos y encontrar patrones. El beneficio es prevenir las brechas, actuar antes de que se produzcan y, de este modo, garantizar la salvaguarda de los datos de particulares y empresas, así como reducir los costos de TI. Veamos las tareas específicas en las que resulta especialmente adecuada:

-Detección de ataques con mayor precisión que los humanos, para generar menos falsos positivos y priorizar las respuestas en función de los riesgos reales.

Identificación y notificación de correos electrónicos y mensajes sospechosos utilizados con frecuencia en campañas de phishing.

-Simulación de ataques de ingeniería social (estafas que engañan a los humanos), que ayudan a los equipos de seguridad a identificar posibles vulnerabilidades antes de que los ciberdelincuentes las exploten.

-Análisis de cantidades masivas de datos sobre incidentes para que los equipos de seguridad puedan actuar con rapidez para contener la amenaza.

Phishing simulations
Hacker using keyboard typing phishing on the internet

-Análisis predictivo mediante el examen de datos históricos y tendencias actuales. De hecho, la IA puede predecir posibles vectores de ataque y vulnerabilidades que los ciberdelincuentes podrían explotar en el futuro, lo que permite a las organizaciones priorizar las medidas de seguridad y asignar los recursos de forma eficaz, reduciendo las posibilidades de éxito de los ciberataques.

-Detección de malware, que sigue siendo una amenaza persistente que evoluciona continuamente para evadir el software antivirus tradicional. Los sistemas de análisis de malware basados en IA utilizan técnicas sofisticadas como el análisis del comportamiento, la heurística y el sandboxing para detectar y aislar el código malicioso, ayudando a las organizaciones a ir un paso por delante de los ciberdelincuentes.

-Remediación automatizada, aprovechando el potencial de la IA para automatizar las respuestas a los incidentes de seguridad, reduciendo significativamente el tiempo de contención y mitigación. Mediante herramientas de orquestación y automatización basadas en la IA, los equipos de seguridad pueden abordar automáticamente los problemas de seguridad más comunes. Por ejemplo, si la IA identifica un puerto de red vulnerable, puede cerrarlo rápidamente o, si detecta un dispositivo comprometido, puede aislarlo, todo ello mientras bloquea las direcciones IP maliciosas. Esto no sólo mejora el tiempo de respuesta, sino que también minimiza el riesgo de error humano.

CloudSecOps y DevSecOps proactivas ante la creciente adopción de la computación en nube y las prácticas DevOps por parte de las organizaciones. Las herramientas CloudSecOps y DevSecOps basadas en IA integran la seguridad en los procesos de desarrollo y despliegue de software y de gestión de la nube, identificando las vulnerabilidades en las primeras fases.

-La Arquitectura de Confianza Cero (ZTA), que funciona según el principio “nunca confíes, siempre verifica” y utiliza la IA para supervisar y analizar continuamente el comportamiento de los usuarios, los dispositivos y el tráfico de red para garantizar la fiabilidad. Cuando se detecta una actividad inusual o sospechosa, la IA puede restringir el acceso hasta que se restablezca la confianza.

Debilidades de la Inteligencia Artificial para la seguridad.

Por desgracia, los ciberdelincuentes son implacables e ingeniosos y pueden utilizar la IA en su beneficio. Veamos algunos ejemplos a continuación.

Esquemas de ingeniería social

Son esquemas que se basan en la manipulación psicológica para inducir a las personas a revelar información sensible o a cometer otras acciones que comprometen la seguridad. Incluyen una amplia gama de categorías de actividades fraudulentas, como el phishing, el vishing y las estafas que crean acceso al correo electrónico corporativo.

La IA permite a los ciberdelincuentes automatizar muchos de los procesos utilizados en los ataques de ingeniería social, así como crear mensajes más personalizados, sofisticados y eficaces para engañar a las víctimas desprevenidas. Esto significa que los ciberdelincuentes pueden generar un mayor volumen de ataques en menos tiempo y experimentar una mayor tasa de éxito.

Pirateo de contraseñas

Los ciberdelincuentes explotan la IA para mejorar los algoritmos que utilizan para descifrar contraseñas con mayor rapidez y precisión, lo que permite a los piratas informáticos convertirse en más eficientes y rentables. Esto podría conducir a un mayor énfasis en el pirateo de contraseñas por parte de los ciberdelincuentes.

Deepfake

Esta técnica explota la capacidad de la IA para manipular fácilmente contenidos visuales o sonoros y hacer que parezcan reales, por ejemplo, para hacerse pasar por otro individuo. Como resultado, el contenido manipulado puede distribuirse ampliamente online en cuestión de segundos, incluso en plataformas de medios sociales influyentes, para generar estrés, miedo o confusión. Además, los ciberdelincuentes pueden utilizar deepfakes junto con ingeniería social, extorsión y otros tipos de esquemas.

Envenenamiento de datos

Los piratas informáticos “envenenan” o alteran los datos de entrenamiento utilizados por un algoritmo de IA para influir en las decisiones. Si el algoritmo recibe información engañosa, genera una entrada incorrecta que conduce a una salida poco fiable. Además, el envenenamiento de datos puede ser difícil de detectar rápidamente y, como consecuencia, generar graves daños.

Las limitaciones de la IA: cosas que hay que saber

Aunque, como se ha visto, la inteligencia artificial es un recurso valioso para aumentar la ciberseguridad, tiene limitaciones que deben tenerse muy en cuenta, como la dependencia de los datos, las falsas alarmas y la falta de transparencia. Veámoslo en detalle.

Datos

Para seguir siendo eficaz, la IA requiere enormes cantidades de datos y un entrenamiento continuo. La disponibilidad limitada de datos o su obsolescencia la hacen menos fiable en un entorno en el que las amenazas evolucionan rápidamente.

Falsas alertas

En ocasiones, la IA puede producir falsas alertas, comprometiendo a los equipos de seguridad con un gran volumen de alertas. Esto corre el riesgo de generar un estado de alerta reducido, en el que pueden pasarse por alto amenazas reales.

Ciberseguridad e Inteligencia Artificial: implicaciones éticas y legales

Las implicaciones éticas y legales del uso de la IA en la ciberseguridad son complejas y polifacéticas, sobre todo en lo que respecta al desarrollo y la aplicación de algoritmos de IA. Veamos algunas de ellas.

Sesgo de los algoritmos

Una de las principales preocupaciones es el sesgo potencial de los algoritmos de IA debido a datos de entrenamiento no representativos o incompletos, que pueden conducir a resultados discriminatorios. Esto puede ser especialmente problemático en el contexto de la ciberseguridad, donde la detección y la prevención de las ciberamenazas requieren un análisis de datos imparcial y preciso.

Transparencia

La transparencia es otro factor crítico: con los modelos de IA, puede resultar difícil comprender cómo se toman las decisiones, lo que puede generar desconfianza en el sistema y obstaculizar la capacidad de identificar y reducir eficazmente las ciberamenazas. Para abordar este problema, los investigadores están analizando métodos para mejorar la interpretabilidad y la transparencia de los algoritmos de IA, como el uso de técnicas de inteligencia artificial Explicable (XAI) para hacer más transparente la toma de decisiones.

Implicaciones legales

El uso de algoritmos de IA puede plantear problemas de protección de datos y privacidad, sobre todo en los casos en los que se analiza información sensible. De hecho, las organizaciones europeas deben cumplir el Reglamento General de Protección de Datos (RGPD).

Responsabilidad

El uso de la IA en ciberseguridad también puede plantear cuestiones de responsabilidad. Es decir, si un sistema de IA no identifica una ciberamenaza o identifica erróneamente a un usuario legítimo como una amenaza, se hace difícil identificar a quién se debe responsabilizar de cualquier daño. Así pues, se resalta la necesidad de contar con normativas y directrices claras que regulen el uso de la IA en la ciberseguridad para garantizar que las organizaciones utilicen estas tecnologías de forma ética y responsable.

Ciberseguridad e Inteligencia Artificial: conclusiones

La integración de las herramientas de ciberseguridad e Inteligencia Artificial representa un punto de inflexión crucial, ya que ofrece niveles de eficacia sin precedentes, sobre todo teniendo en cuenta la creciente prevalencia de la IA generativa. Las implicaciones son extremadamente significativas.

Las organizaciones deben adoptar una estrategia integral de ciberseguridad para lograr la resiliencia cibernética, combinando la eficacia de la IA con la experiencia humana, la formación continua y los mecanismos de defensa adaptativos. Es decir, deben aplicar una estrategia que surja de la intersección de la gestión de riesgos, la continuidad empresarial y los principios de ciberseguridad para cumplir la normativa de la Unión Europea, que cada vez se basa más en un enfoque basado en el riesgo y la resiliencia.

El desarrollo y la implementación de algoritmos de IA en la ciberseguridad presentan complejos desafíos éticos y legales que requieren una cuidadosa consideración y un cambio de paradigma tanto a nivel tecnológico como organizativo. Además, la seguridad ya no puede considerarse una cuestión secundaria, sino que debe estar integrada en el tejido mismo de los sistemas de IA y los procesos empresariales. Solo mediante la vigilancia, la coordinación y la adaptación proactiva podremos aprovechar al máximo el potencial de la IA, en particular de la IA generativa, para mejorar las capacidades humanas, al tiempo que desarrollamos salvaguardas para evitar su uso indebido.

Se trata de liderar esta transformación con sabiduría y responsabilidad para construir un futuro basado en la IA que sitúe la seguridad, la ética y los intereses humanos en el centro.

Por lo tanto, esperamos que los investigadores, los responsables políticos y los profesionales trabajen cada vez más en sinergia para desarrollar marcos éticos y normas que promuevan la transparencia, la equidad y la responsabilidad en los algoritmos de IA. Solo así podremos aprovechar todo el potencial de la IA en la ciberseguridad al tiempo que nos protegemos de posibles consecuencias negativas. En conclusión, adelante con el juicio.

Prohibida su reproducción total o parcial.

¿Qué te ha parecido este artículo?

¡Su opinión es importante para nosotros!

Federica Maria Rita Livelli
Business Continuity & Risk Management Consultant

En posesión de la certificación de Continuidad de Negocio - AMBCI BCI, UK y CBCP DRI, USA, Risk Management FERMA Rimap, consultor de Business Continuity & Risk Management, realiza actividades de difusión y desarrollo de la cultura de resiliencia en diversas instituciones y universidades

Temas principales

Especificaciones

I
IA
I
Internet
S
seguridad

Nota 1 de 3