El futuro es ahora: IA y Gestión de Riesgos en 2024
Se puede decir con seguridad que 2023 marcó el comienzo de la era de la IA. Aunque se han utilizado diferentes formas de IA desde la década de 1950, la accesibilidad y las innumerables aplicaciones de los grandes modelos de lenguaje (LLM) como ChatGPT han impulsado el rápido ascenso de la tecnología.
Que la IA haya cambiado el mundo no es una exageración: los líderes de todas las industrias pasaron 2023 compitiendo para descubrir cómo integrar la IA en sus flujos de trabajo. En 2024, veremos la proliferación masiva de la IA generativa a medida que los usuarios comiencen a aprovechar al máximo sus capacidades, para bien o para mal.
El año que viene, los profesionales de seguridad y resiliencia deben comprender cómo la IA se integra en sus estrategias de gestión de eventos críticos (CEM). En las manos equivocadas, la IA puede representar una gran amenaza para la resiliencia operacional, pero también tiene el potencial de mejorar la respuesta al riesgo al brindar información específica y procesable a los líderes en materia de riesgos, seguridad y continuidad del negocio.
Los peligros de la IA generativa
Los últimos años han estado marcados por un aumento de las denuncias de desinformación, alcanzando un punto de inflexión en 2023. La creciente disponibilidad de los últimos modelos de IA generativa permite la creación de contenido atractivo y convincente en cuestión de segundos, lo que facilita que los malos actores contaminen el ya congestionado entorno informativo.
Un ejemplo son los delitos cibernéticos, que se han disparado desde la introducción de la IA generativa. Los correos electrónicos de phishing malintencionados aumentaron un asombroso 1,265 por ciento desde el lanzamiento de ChatGPT, con un promedio de 31,000 ataques de phishing enviados diariamente. Los delincuentes están aprovechando herramientas como ChatGPT para crear estafas sofisticadas y plausibles a gran escala, incluso creando imágenes, sitios web y escaparates virtuales convincentes para robar información confidencial.
En una época en la que muchas personas se informan a través de las redes sociales y otras fuentes no verificadas, la desinformación puede proliferar. Por ejemplo, una campaña coordinada difundió una teoría conspirativa sobre los incendios forestales de agosto de 2023 en Maui, aprovechando un desastre natural para crear más caos.
Pero los actores maliciosos no son la única forma en que la IA generativa puede difundir información errónea peligrosa. Un LLM es tan bueno como los datos con los que se entrena. Y es propenso a las alucinaciones, un fenómeno en el que «percibe patrones u objetos que son inexistentes o imperceptibles para los observadores humanos, creando resultados que no tienen sentido o son totalmente inexactos».
Los líderes de agencias y organizaciones tendrán el desafío de definir una “fuente de verdad”, ya que la desinformación y las estafas son más generalizadas y difíciles de detectar que nunca. Cuando se trata de información sobre amenazas potenciales para su personal y sus operaciones, los líderes de riesgo y seguridad necesitan datos en tiempo real en los que puedan confiar. La IA puede ayudar a filtrar y gestionar datos sin procesar, pero aún no sustituye la experiencia y el discernimiento de los analistas humanos.
El lado positivo de la IA generativa
Por supuesto, la IA generativa no es del todo mala. Hemos visto muchas formas en las que la IA puede mejorar todos los aspectos de la vida, desde aplicaciones que salvan vidas, como diagnósticos médicos, hasta usos más lúdicos, como generar cuentos para dormir.
Por ejemplo, la IA generativa ha ayudado a los médicos a llevar la medicina en línea al siguiente nivel. Los chatbots como ChatGPT pueden comunicarse instantáneamente con los pacientes, incluso superando las barreras lingüísticas con la traducción en tiempo real. La colaboración entre médicos e IA también es prometedora en lo que respecta al diagnóstico remoto, ya que la IA proporciona el diagnóstico correcto el 88 por ciento de las veces.
La IA generativa puede escribir código, generar contenido personalizado e incluso componer música. Los líderes del negocio y de TI están incorporando LLM personalizados a sus flujos de trabajo para maximizar la productividad de los trabajadores y agilizar los procedimientos rutinarios.
Los gobiernos están desarrollando regulaciones para el uso de todas las formas de IA, con el objetivo de que sea más seguro para los humanos utilizarlas. Las organizaciones también están redactando pautas internas para aclarar y estandarizar la implementación de la IA en sus propias operaciones. Idealmente, esto ayudará a mitigar algunos de los peligros descritos anteriormente.
Mejora de la gestión de eventos críticos con inteligencia de riesgos basada en IA
Por las razones ya expuestas, la IA generativa aún presenta graves limitaciones en lo que respecta a la gestión de riesgos. La versión actual de esta tecnología aún tiene un largo camino por recorrer antes de que pueda utilizarse exclusivamente en situaciones críticas.
La inteligencia artificial que se utiliza en la gestión de riesgos es diferente de la inteligencia artificial generativa. Se basa en una investigación sólida sobre modelos y tecnología adaptados a las necesidades específicas de la industria. Mediante el uso de algoritmos especializados, la inteligencia de riesgos impulsada por IA puede ingerir miles de fuentes de datos verificadas para analizar rápidamente los eventos y brindar información específica y procesable. Esta inteligencia confiable, respaldada por IA y expertos, permite a los profesionales de la resiliencia y la continuidad responder con confianza y rapidez a las amenazas que representan el mayor riesgo.
La mejor tecnología de gestión de eventos críticos permite a los profesionales de riesgos y resiliencia tomar decisiones estratégicas más informadas con características clave como:
- IA desarrollada específicamente para la gestión de riesgos. La IA genérica y generativa no es confiable, especialmente cuando hay vidas en juego. La IA para la gestión de riesgos está adaptada a las necesidades específicas de la industria, brindando datos precisos y relevantes para permitir decisiones y acciones rápidas. Considera amenazas históricas y ofrece actualizaciones en tiempo real a medida que se desarrollan los eventos. También puede comprender matices lingüísticos específicos de la gestión de riesgos (por ejemplo, distinguir una bomba de baño de una bomba casera).
- Fuentes de datos confiables verificadas por analistas. La inteligencia de riesgos impulsada por IA debe alimentarse continuamente con datos de calidad examinados por científicos de datos expertos que se especializan en aprendizaje automático e inteligencia de riesgos. La tecnología debe ser monitoreada y entrenada por humanos para garantizar que brinde solo la información más precisa y confiable.
- Un proceso probado. La inteligencia de riesgos de alta calidad no surge por casualidad. Todos los datos deben pasar por un riguroso proceso de autenticación, correlación y análisis para producir información específica y en tiempo real sobre las amenazas, filtrando al mismo tiempo el «ruido».
- Una única fuente de información. La sobrecarga de información es real, especialmente cuando las noticias pueden provenir de tantas fuentes diferentes. El software de inteligencia de riesgos adecuado ofrece información útil en un panel intuitivo para que los usuarios puedan visualizar y filtrar fácilmente la información sobre eventos críticos.
La inteligencia de riesgos impulsada por IA es el aliado de IA que necesitas para mejorar tu gestión de eventos críticos, con funciones que permiten a tu organización:
- Concéntrese únicamente en las amenazas relevantes para sus operaciones.
- Identificar amenazas en tiempo real.
- Responder más rápido a las emergencias.
- Mitigar el impacto de eventos críticos.
- Mejorar la continuidad del negocio.
- Proteger a su gente y sus activos, sin importar dónde se encuentren.
- Fortalecer la resiliencia operacional.
La IA ha cambiado el panorama de la gestión de riesgos y seguirá evolucionando a medida que mejore la tecnología. Los profesionales de la seguridad y la resiliencia deben ser conscientes de las formas en que la IA (modelos generativos y otros) afectará su práctica.
CHRIS HURST
Chris Hurst es el vicepresidente de servicios de inteligencia y riesgo global de OnSolve.