IA en Ciberseguridad: Riesgos de la IA
La inteligencia artificial (IA) ha mejorado las herramientas de ciberseguridad durante años. Por ejemplo, herramientas de aprendizaje automático han hecho que la seguridad de redes, el software anti-malware y la detección de fraudes sean más potentes al encontrar anomalías mucho más rápido que los humanos. Sin embargo, la IA también ha presentado un riesgo para la ciberseguridad. Ataques de fuerza bruta, denegación de servicio (DoS) y ataques de ingeniería social son algunos ejemplos de amenazas que utilizan IA.
Se espera que los riesgos de la inteligencia artificial para la ciberseguridad aumenten rápidamente a medida que las herramientas de IA se vuelvan más baratas y accesibles. Por ejemplo, puedes engañar a ChatGPT para que escriba código malicioso o una carta de Elon Musk solicitando donaciones.
También puedes usar una serie de herramientas deepfake para crear pistas de audio o clips de video falsos sorprendentemente convincentes con muy poco datos de entrenamiento. También hay crecientes preocupaciones de privacidad a medida que más usuarios se sienten cómodos compartiendo información sensible con IA.
Lee esta guía completa para más información sobre:
- Definición de IA.
- Riesgos de la inteligencia artificial.
- IA en la ciberseguridad.
- IA y riesgos de privacidad.
¿Qué es la IA: Inteligencia Artificial?
IA, o Inteligencia Artificial, se refiere al desarrollo de sistemas informáticos que pueden realizar tareas y tomar decisiones que generalmente requieren inteligencia humana. Involucra la creación de algoritmos y modelos que permiten a las máquinas aprender de datos, reconocer patrones y adaptarse a nueva información o situaciones.
En términos simples, la IA es como enseñar a las computadoras a pensar y aprender como los humanos. Permite a las máquinas procesar y analizar grandes cantidades de datos, identificar patrones o anomalías, y hacer predicciones o decisiones basadas en esa información. La IA puede ser utilizada en varias aplicaciones, como el reconocimiento de imágenes y voz, procesamiento de lenguaje natural, robótica, y ciberseguridad, por nombrar algunas.
En general, la IA tiene como objetivo imitar la inteligencia humana para resolver problemas complejos, automatizar tareas y mejorar la eficiencia y precisión en diferentes campos.
Aprendizaje automático y aprendizaje profundo
El aprendizaje automático (ML) es un subconjunto comúnmente utilizado de la IA. Los algoritmos y técnicas de ML permiten a los sistemas aprender de datos y tomar decisiones sin ser programados explícitamente.
El aprendizaje profundo (DL) es un subconjunto de ML que utiliza modelos computacionales inspirados en el cerebro humano llamados redes neuronales para tareas más avanzadas. ChatGPT es un ejemplo de IA que utiliza ML para entender y responder a indicaciones generadas por humanos.
IA estrecha e inteligencia general artificial
Todos los tipos de IA se consideran IA estrecha. Su alcance es limitado y no son conscientes de sí mismos. Ejemplos de esta IA son los asistentes de voz, chatbots, sistemas de reconocimiento de imágenes, vehículos autónomos y modelos de mantenimiento.
La inteligencia general artificial (AGI) es un concepto hipotético que se refiere a una IA consciente de sí misma que puede igualar o incluso superar la inteligencia humana. Mientras que algunos expertos estiman que la AGI está a varios años o incluso décadas de distancia, otros creen que es imposible.
¿Qué es la IA generativa?
La IA generativa se refiere a un subconjunto de técnicas de inteligencia artificial que implica la creación y generación de nuevos contenidos, como imágenes, texto, audio o incluso videos. Involucra el entrenamiento de modelos para entender patrones en datos existentes y luego usar ese conocimiento para generar nuevo contenido original que se asemeje a los datos de entrenamiento.
Un enfoque popular de la IA generativa es el uso de redes adversarias generativas (GANs). Las GANs consisten en dos redes neuronales: una red generadora y una red discriminadora. La red generadora crea nuevo contenido, mientras que la red discriminadora evalúa y distingue entre el contenido generado y el real. Las dos redes trabajan de manera competitiva, con el generador intentando producir contenido que el discriminador no pueda distinguir de datos reales.
La IA generativa tiene aplicaciones en varios dominios. Por ejemplo:
-
Generación de Imágenes: La IA generativa puede ser utilizada para generar imágenes realistas, como crear rostros fotorrealistas, paisajes, o incluso nuevos objetos que no existen en el mundo real.
-
Generación de Texto: Los modelos generativos pueden ser entrenados para generar texto coherente y contextualmente relevante, que puede ser utilizado para tareas como chatbots, creación de contenido o traducción de idiomas.
-
Generación de Música y Audio: La IA generativa puede crear nuevas composiciones musicales o generar sonidos y voces realistas.
Si bien la IA generativa tiene muchas aplicaciones positivas, también existen preocupaciones sobre su posible uso indebido, como generar contenido falso o videos deepfake que pueden usarse para engañar o manipular a las personas. Las consideraciones éticas y el uso responsable de la IA generativa son factores importantes para abordar estos riesgos.
En el ámbito de la ciberseguridad, la IA generativa puede ser tanto una herramienta como un desafío. Puede utilizarse para generar datos sintéticos realistas para entrenar modelos y mejorar las medidas de seguridad, pero también puede plantear riesgos cuando se usa con fines malintencionados, como generar correos electrónicos de phishing convincentes o ataques de ingeniería social con deepfake. Esto resalta la importancia de desarrollar defensas y mecanismos de detección robustos para mitigar las posibles amenazas.
¿Cuáles son los riesgos de la IA en la ciberseguridad?
Como cualquier tecnología, la IA puede ser utilizada para buenos o malos propósitos. Los actores maliciosos pueden usar algunas de las mismas herramientas de IA diseñadas para ayudar a la humanidad para cometer fraudes, estafas y otros cibercrímenes.
Examinemos algunos riesgos de la IA en la ciberseguridad:
1: Optimización de ataques cibernéticos
Los expertos dicen que los atacantes pueden usar la IA generativa y modelos de lenguaje grandes para escalar ataques a un nivel de velocidad y complejidad nunca antes visto. Pueden usar la IA generativa para encontrar nuevas formas de socavar la complejidad de la nube y aprovechar las tensiones geopolíticas para ataques avanzados. También pueden optimizar sus técnicas de ataque de ransomware y phishing mejorándolas con IA generativa.
2: Malware automatizado
Una IA como ChatGPT es excelente en el procesamiento preciso de números. Según el profesor Oded Netzer de la Escuela de Negocios de Columbia, ChatGPT ya puede "escribir código bastante bien."
Los expertos dicen que en un futuro cercano, podría ayudar a los desarrolladores de software, programadores y codificadores o reemplazar gran parte de su trabajo.
Aunque software como ChatGPT tiene ciertas protecciones para evitar que los usuarios creen código malicioso, los expertos pueden usar técnicas inteligentes para eludirlo y crear malware. Por ejemplo, un investigador pudo encontrar una brecha y crear un ejecutable de robo de datos complejo y casi indetectable. El ejecutable tenía la sofisticación de un malware creado por un actor de amenazas patrocinado por el estado*.
Esto podría ser solo la punta del iceberg. Las futuras herramientas impulsadas por IA podrían permitir a los desarrolladores con habilidades básicas de programación crear malware automatizado, como un bot malicioso avanzado. Entonces, ¿qué son los bots maliciosos? Un bot malicioso puede robar datos, infectar redes y atacar sistemas con poca o ninguna intervención humana.
* https://www.foxnews.com/tech/ai-created-malware-sends-shockwaves-cyber seguridad-mundo
3: Seguridad física
A medida que más sistemas como vehículos autónomos, equipos de manufactura y construcción, y sistemas médicos utilizan IA, los riesgos de la inteligencia artificial para la seguridad física pueden aumentar. Por ejemplo, un coche verdaderamente autónomo basado en IA que sufre una brecha de ciberseguridad podría resultar en riesgos para la seguridad física de sus pasajeros. De manera similar, el conjunto de datos para herramientas de mantenimiento en un sitio de construcción podría ser manipulado por un atacante para crear condiciones peligrosas.
Riesgos de privacidad de la IA
En lo que fue un error embarazoso para el CEO de OpenAI, Sam Altman, ChatGPT filtró fragmentos de historial de chat de otros usuarios. Aunque el error fue solucionado, existen otros posibles riesgos de privacidad debido a la vasta cantidad de datos que la IA procesa. Por ejemplo, un hacker que violara un sistema de IA podría acceder a diferentes tipos de información sensible.
Un sistema de IA diseñado para marketing, publicidad, perfilado o vigilancia también podría amenazar la privacidad de maneras que George Orwell no podría haber imaginado. En algunos países, la tecnología de perfilado de IA ya está ayudando a los estados a invadir la privacidad de los usuarios.
El robo de modelos de IA
Existen algunos riesgos de robo de modelos de IA a través de ataques de red, técnicas de ingeniería social y explotación de vulnerabilidades por actores de amenazas como agentes patrocinados por el estado, amenazas internas como espías corporativos, y hackers informáticos comunes. Los modelos robados pueden ser manipulados y modificados para ayudar a los atacantes con diferentes actividades maliciosas, lo que agrava los riesgos de la inteligencia artificial para la sociedad.
Manipulación y envenenamiento de datos
Aunque la IA es una herramienta poderosa, puede ser vulnerable a la manipulación de datos. Después de todo, la IA depende de sus datos de entrenamiento. Si los datos son modificados o envenenados, una herramienta impulsada por IA puede producir resultados inesperados o incluso maliciosos.
En teoría, un atacante podría envenenar un conjunto de datos de entrenamiento con datos maliciosos para cambiar los resultados del modelo. Un atacante también podría iniciar una forma más sutil de manipulación llamada inyección de sesgo. Tales ataques pueden ser especialmente dañinos en industrias como la salud, automotriz y transporte.
Suplantación de identidad
No tienes que ir más lejos que el cine para ver cómo las herramientas impulsadas por IA están ayudando a los cineastas a engañar al público. Por ejemplo, en el documental Roadrunner, la voz del fallecido chef famoso Anthony Bourdain fue creada de manera controvertida con audio generado por IA y fácilmente engañó a los espectadores. De manera similar, el veterano actor, Harrison Ford, fue envejecido convincentemente varias décadas con el poder de la inteligencia artificial en Indiana Jones and the Dial of Destiny.
No se necesita un gran presupuesto de Hollywood para realizar una artimaña similar. Con el metraje adecuado, cualquiera puede crear grabaciones deepfake utilizando aplicaciones gratuitas. Las personas también pueden usar herramientas gratuitas con inteligencia artificial para crear voces falsas notablemente realistas entrenadas con solo unos segundos de audio.
Así que no es sorprendente que ahora se esté usando la IA para estafas de secuestro virtual. Jennifer DeStefano experimentó la peor pesadilla de un padre cuando su hija la llamó, gritando y sollozando. Su voz fue reemplazada por la de un hombre que amenazó con drogarla y abusar de ella a menos que se pagara un rescate de $1 millón.
¿La trampa? Expertos especulan que la voz fue generada por IA. Las fuerzas del orden creen que, además de los esquemas de secuestro virtual, la IA podría ayudar a los criminales con otros tipos de fraudes de suplantación de identidad en el futuro, incluidos los estafas al abuelo.
La IA generativa también puede producir texto con la voz de líderes de opinión. Los ciberdelincuentes pueden usar este texto para ejecutar diferentes tipos de estafas, como sorteos fraudulentos, oportunidades de inversión y donaciones a través de medios como el correo electrónico o plataformas de redes sociales como Twitter.
Ataques más sofisticados
Como se mencionó, los actores malintencionados pueden usar la IA para crear malware avanzado, suplantar a otros para estafas y contaminar los datos de entrenamiento de IA. Pueden usar la IA para automatizar ataques de phishing, malware y relleno de credenciales. La IA también puede ayudar a que los ataques evadan los sistemas de seguridad como el software de reconocimiento de voz en ataques llamados ataques adversariales.
Daño reputacional
Una organización que utiliza IA puede sufrir daños reputacionales si la tecnología falla o sufre una violación de ciberseguridad que resulte en pérdida de datos. Tales organizaciones pueden enfrentarse a multas, sanciones civiles y al deterioro de las relaciones con los clientes.
Cómo protegerte de los riesgos de la IA
Aunque la IA es una herramienta poderosa, puede presentar algunos riesgos de ciberseguridad. Tanto individuos como organizaciones deben adoptar un enfoque holístico y proactivo para usar la tecnología de manera segura.
Aquí hay algunos consejos que pueden ayudarte a mitigar los riesgos de la IA:
1: Audita cualquier sistema de IA que uses
Revisa la reputación actual de cualquier sistema de IA que utilices para evitar problemas de seguridad y privacidad. Las organizaciones deben auditar sus sistemas periódicamente para tapar vulnerabilidades y reducir los riesgos de IA. La auditoría puede realizarse con la ayuda de expertos en ciberseguridad e inteligencia artificial que puedan completar pruebas de penetración, evaluaciones de vulnerabilidad y revisiones de sistemas.
2: Limita la información personal compartida a través de la automatización
Más personas están compartiendo información confidencial con inteligencia artificial sin comprender los riesgos de privacidad de la IA. Por ejemplo, se descubrió que personal de organizaciones prominentes estaba poniendo datos sensibles de la empresa en ChatGPT. Incluso un médico presentó el nombre de su paciente y su condición médica en el chatbot para redactar una carta, sin apreciar el riesgo de seguridad de ChatGPT.
Dichas acciones representan riesgos de seguridad y violan las regulaciones de privacidad como HIPAA. Aunque los modelos de lenguaje de IA pueden no ser capaces de divulgar información, las conversaciones se graban para control de calidad y están accesibles a los equipos de mantenimiento del sistema. Por eso es mejor evitar compartir información personal con la IA.
3: Seguridad de datos
Como se mencionó, la IA depende de sus datos de entrenamiento para ofrecer buenos resultados. Si los datos son modificados o contaminados, la IA puede ofrecer resultados inesperados y peligrosos. Para proteger la IA contra la contaminación de datos, las organizaciones deben invertir en tecnología de cifrado de vanguardia, control de acceso y respaldo. Las redes deben protegerse con cortafuegos, sistemas de detección de intrusiones y contraseñas sofisticadas.
4: Optimiza el software
Sigue todas las mejores prácticas de mantenimiento de software para protegerte del riesgo de la IA. Esto incluye actualizar tu software de IA y marcos, sistemas operativos y aplicaciones con los últimos parches y actualizaciones para reducir el riesgo de explotación y ataques de malware. Protege tus sistemas con tecnología antivirus de próxima generación para detener amenazas maliciosas avanzadas. Además, invierte en medidas de seguridad de red y aplicación para fortalecer tus defensas.
5: Entrenamiento adversarial
El entrenamiento adversarial es una medida de seguridad específica de la IA que ayuda a la IA a responder a ataques. El método de aprendizaje automático mejora la resiliencia de los modelos de IA exponiéndolos a diferentes escenarios, datos y técnicas.
6: Capacitación del personal
Los riesgos de la IA son bastante amplios. Consulta con expertos en ciberseguridad e IA para capacitar a tus empleados en la gestión de riesgos de IA. Por ejemplo, deberían aprender a verificar la autenticidad de los correos electrónicos que podrían ser ataques de phishing diseñados por IA. Asimismo, deben evitar abrir software no solicitado que podría ser malware creado por inteligencia artificial.
7: Gestión de vulnerabilidades
Las organizaciones pueden invertir en la gestión de vulnerabilidades de IA para mitigar el riesgo de violaciones de datos y filtraciones. La gestión de vulnerabilidades es un proceso integral que involucra identificar, analizar y priorizar vulnerabilidades y reducir la superficie de ataque relacionada con las características únicas de los sistemas de IA.
8: Respuesta a incidentes de IA
A pesar de tener las mejores medidas de seguridad, tu organización puede sufrir un ataque de ciberseguridad relacionado con la IA a medida que aumentan los riesgos de la inteligencia artificial. Debes tener un plan de respuesta a incidentes claramente definido que cubra la contención, investigación y remediación para recuperarte de tal evento.
El lado positivo: Cómo la IA puede beneficiar la ciberseguridad
Industrias de diferentes tamaños y sectores utilizan la IA para mejorar la ciberseguridad. Por ejemplo, todos los tipos de organizaciones en todo el mundo usan la IA para autenticar identidades, desde bancos hasta gobiernos. Y las industrias financieras e inmobiliarias utilizan la IA para detectar anomalías y reducir el riesgo de fraude.
Aquí tienes más información sobre cómo la IA beneficia a la ciberseguridad:
1: Detección de amenazas cibernéticas
El malware sofisticado puede eludir la tecnología estándar de ciberseguridad utilizando diferentes técnicas de evasión, incluida la modificación de código y estructura. Sin embargo, el software antivirus avanzado puede usar IA y ML para encontrar anomalías en la estructura general, lógica de programación y datos de una amenaza potencial.
Las herramientas de detección de amenazas impulsadas por IA pueden proteger a las organizaciones al cazar estas amenazas emergentes y mejorar las capacidades de advertencia y respuesta. Además, el software de seguridad de endpoints con tecnología de IA puede proteger las laptops, smartphones y servidores en una organización.
2: Modelos predictivos
Los profesionales de la ciberseguridad pueden pasar de una postura reactiva a una proactiva utilizando IA generativa. Por ejemplo, pueden usar la IA generativa para crear modelos predictivos que identifiquen nuevas amenazas y mitiguen riesgos.
Tales modelos predictivos resultarán en:
- Detección de amenazas más rápida
- Ahorro de tiempo
- Reducción de costos
- Mejora en la respuesta a incidentes
- Mejor protección contra riesgos
3: Detección de phishing
Los correos electrónicos de phishing son un vector de amenaza significativo. Con poco riesgo, los actores malintencionados pueden usar expediciones de phishing para robar información sensible y dinero. Además, los correos de phishing son cada vez más difíciles de diferenciar de los correos reales.
La IA puede beneficiar a la ciberseguridad mejorando la protección contra phishing. Los filtros de correo electrónico que utilizan IA pueden analizar el texto para marcar correos con patrones sospechosos y bloquear diferentes tipos de spam.
4: Identificación de bots
Los bots pueden dañar o desactivar redes y sitios web, impactando negativamente en la seguridad, productividad y ingresos de una organización. Los bots también pueden tomar el control de cuentas con credenciales robadas y ayudar a ciberdelincuentes a involucrarse en fraudes y estafas.
El software que aprovecha modelos basados en aprendizaje automático puede analizar el tráfico de red y los datos para identificar patrones de bots y ayudar a los expertos en ciberseguridad a neutralizarlos. Los profesionales de red también pueden usar IA para desarrollar CAPTCHA más seguros contra bots.
5: Seguridad de redes
Los atacantes pueden exfiltrar datos o infectar sistemas con ransomware después de violar una red. Detectar tales amenazas temprano es crítico. La detección de anomalías basada en IA puede escanear el tráfico de red y los registros del sistema en busca de accesos no autorizados, códigos inusuales y otros patrones sospechosos para prevenir brechas. Además, la IA puede ayudar a segmentar redes analizando requisitos y características.
6: Respuesta a incidentes
La IA puede potenciar la búsqueda de amenazas, la gestión de amenazas y la respuesta a incidentes. Puede trabajar las 24 horas para responder a amenazas y tomar medidas de emergencia, incluso cuando tu equipo esté desconectado. Además, puede reducir los tiempos de respuesta a incidentes para minimizar el daño de un ataque.
7: Mitigar amenazas internas
Las amenazas internas deben tomarse en serio porque pueden costarle a una organización sus ingresos, secretos comerciales, datos sensibles, y más. Hay dos tipos de amenazas internas: maliciosas e involuntarias. La IA puede ayudar a detener ambos tipos de amenazas internas al identificar comportamientos de usuario riesgosos y bloquear la salida de información sensible de las redes de una organización.
8: Fortalecer el control de acceso
Muchas herramientas de control de acceso utilizan IA para mejorar la seguridad. Pueden bloquear inicios de sesión desde direcciones IP sospechosas, marcar eventos sospechosos y solicitar a los usuarios con contraseñas débiles que cambien sus credenciales de acceso y actualicen a autenticación multifactor.
La IA también ayuda a autenticar a los usuarios. Por ejemplo, puede utilizar datos biométricos, información contextual y datos de comportamiento del usuario para verificar con precisión la identidad de los usuarios autorizados y mitigar el riesgo de uso indebido.
9: Identificación de falsos positivos
Los falsos positivos pueden ser agotadores para que los equipos de TI los gestionen. El gran volumen de falsos positivos puede resultar en desafíos de salud mental. También pueden hacer que los equipos pasen por alto amenazas legítimas. Sin embargo, este volumen puede reducirse con herramientas de ciberseguridad que utilizan inteligencia artificial para mejorar la precisión en la detección de amenazas. Estas herramientas también pueden programarse para gestionar automáticamente amenazas de baja probabilidad que consumen el tiempo y los recursos de un equipo de seguridad.
10: Eficiencia y costos de personal de TI
Muchas empresas pequeñas y medianas no pueden permitirse el lujo de invertir en un gran equipo de ciberseguridad interno para gestionar las amenazas cada vez más sofisticadas las 24 horas del día. Sin embargo, pueden invertir en tecnología de ciberseguridad con IA que funciona 24/7 para ofrecer vigilancia continua, mejorar la eficiencia y reducir costos. Esta tecnología también puede escalar con el crecimiento de la empresa de manera rentable.
Además, la IA mejora la eficiencia del personal porque no se cansa. Ofrece la misma calidad de servicio en todas las horas del día, reduciendo el riesgo de error humano. La IA también puede gestionar significativamente más datos que un equipo de seguridad humano.