Robert Calva, Automation GTM & Tech Leader Latin America, Red Hat.
La Inteligencia Artificial (IA) se incorpora a casi todos los aspectos de nuestras vidas y no hay miras de que desaparezca en el corto plazo.
Sus aplicaciones se entrelazan con una gama de sistemas para automatizar, analizar y mejorar los procesos actuales. Los profesionales de ciber seguridad la usan para mejorar sus sistemas y productos como: analizar registros, predecir amenazas, leer códigos fuente, identificar vulnerabilidades y hasta para sacar provecho de puntos débiles.
Los sistemas de IA realizan varias tareas, como el reconocimiento de patrones, el aprendizaje y la resolución de problemas. Por ello se ha divido su impacto en áreas de: Aprendizaje Automático (Machine Learning o ML), Procesamiento de lenguaje natural (NLP), imita el habla humana; y Visión por computadora, utiliza cámaras como fuentes de información para realizar diversas tareas.
El reconocimiento de patrones permite que la detección de anomalías sea un caso de uso lógico. Mediante el uso de ML, se identifican desvíos en el comportamiento de un sistema, se registran posibles ataques y aquellos sistemas que no funcionan como deberían.
Caso de uso 1: Detección de anomalías
La detección de anomalías y patrones inusuales es un excelente ejemplo de la capacidad de reconocimiento de patrones del ML. Este método, basado en normas preestablecidas como tráfico de red o registros, usa análisis estadístico para monitorear el comportamiento del sistema y activar alertas ante actividades extrañas. La IA y el ML categorizan estos patrones, asignan prioridades y evitan la «fatiga de alertas», brindando información para tomar decisiones más fundamentadas.
Caso de uso 2: Inteligencia de ciberamenazas impulsada por IA
La IA y el ML refuerzan la seguridad de los sistemas anticipando eventos. La Inteligencia de Amenazas Cibernéticas (CTI) recopila información sobre ataques y eventos de ciberseguridad para preparar a los equipos ante posibles ataques, ayudando a comprender mejor las amenazas actuales o emergentes.
El uso de IA para prevenir vulnerabilidades
La IA y el ML son clave para prevenir vulnerabilidades en el software, aliviando tareas repetitivas, permitiendo que los equipos se enfoquen en proyectos e innovaciones. Aunque la revisión de código es crucial, puede optimizarse con pruebas estáticas de seguridad de aplicaciones (SAST). que históricamente generaban falsos positivos. La IA y el ML ayudan a mejorar la precisión del código fuente, infraestructura y configuración. Además, la IA se utiliza cada vez más para realizar pruebas dinámicas de seguridad de aplicaciones (DAST simulando ataque de aplicaciones en ejecución.
Caso de uso 3: Escaneo de códigos impulsado por IA
Las herramientas SAST han utilizado durante mucho tiempo el enfoque de «fuentes y sumideros» para escanear código y rastrear el flujo de datos en busca de errores comunes, lo que a menudo genera falsos positivos que requieren validación manual. La IA y el ML son útiles en este proceso al aprender y comprender el contexto de los hallazgos, lo que reduce tanto los falsos positivos como los negativos. De esta manera, los desarrolladores, con el apoyo de SAST y asistentes de IA, pueden detectar errores antes de enviarlos.
Caso de uso 4: Automatizar la identificación de vulnerabilidades
La revisión de código es un proceso extenso, y las pruebas no terminan tras el envío. Las DAST se utilizan para probar ataques comunes contra aplicaciones en ejecución, pero requieren tiempo para familiarizarse con ellas. El usuario debe entender los tipos de ataque, cómo replicarlos y automatizarlos. Recientemente, tanto las DAST como las herramientas de prueba de aplicaciones han incorporado IA y ML, directamente en sus plataformas o como plugins, optimizando los escaneos automáticos. Esto libera al personal y permite dedicar más tiempo y recursos a pruebas de penetración completas, que requieren intervención humana para identificar posibles vulnerabilidades.
Proteger la propia IA
Aunque la IA ayuda a eliminar errores humanos, sigue siendo vulnerable. Un problema común es una configuración deficiente o inadecuada. Además, es crucial entrenar y validar el modelo de manera segura; de lo contrario, se corre el riesgo de crear un sistema incomprensible para los usuarios, generando una «caja negra» y un ciclo de vida del modelo mal gestionado.
Uno de los principales problemas de seguridad en IA es el envenenamiento de datos. Al recopilar datos para entrenar algoritmos de IA y ML, los humanos podemos introducir sesgos, y los atacantes también pueden manipular estos conjuntos de datos, afectando la calidad y seguridad de los sistemas. A medida que la IA se generaliza, la capacitación en su seguridad, especialmente en IA y ML, queda rezagada. Muchas personas ajenas a la tecnología no entienden cómo funcionan estos sistemas, lo que puede empeorar si carecen de transparencia.
A medida que dependemos más de la IA y el ML para proteger sistemas, su uso se volverá «imprescindible». Los atacantes también utilizarán IA y ML para sus ataques, por lo que los defensores deben implementar estos sistemas para proteger sus organizaciones.
Es crucial que los estudiantes y profesionales, tanto nuevos como veteranos, adquieran conocimientos básicos en IA, y las empresas deben empezar a explorar cómo integrar la IA y el ML en sus productos, sistemas y seguridad.