¿Has visto el vídeo de David Beckham hablando nueve idiomas? ¿Has recibido un correo electrónico de Taylor Swift vendiendo utensilios de cocina Le Creuset o de Jennifer Aniston regalando MacBooks gratis? Todos estos videos son falsos. Hoy en día los ataques de phishing son cada vez más sofisticados gracias a la rápida evolución y adopción de la inteligencia artificial generativa (GenAI). De hecho, la tecnología se está volviendo terriblemente buena.
Por ello, Bitdefender recientemente publicó los resultados de la encuesta del Informe de Evaluación de Ciberseguridad 2024 donde revela un enigma interesante en la industria de la ciberseguridad. Según el informe, casi tres cuartas partes de los profesionales de la ciberseguridad creen que son lo suficientemente inteligentes como para detectar ataques deepfake. Sin embargo, el 96% dice que GenAI representa una amenaza significativa para su organización. ¿Estamos demasiado confiados o demasiado preocupados?
La explicación simple es que los profesionales de la ciberseguridad confían en sus propias capacidades para detectar y contrarrestar ataques creados por herramientas GenAI, pero tienen menos confianza en la capacidad de sus usuarios para detectar deepfakes. Para las personas con amplia experiencia en ciberseguridad, es fácil pensar que no pueden dejarse engañar, pero la realidad es que la tecnología GenAI se ha vuelto tan buena que es poco probable que incluso los profesionales de ciberseguridad más experimentados distingan cada intento de deepfake de lo real.
Impacto en las organizaciones actuales. Para los equipos de seguridad empresarial, el peligro de ataques de phishing cada vez más sofisticados no podría ser más claro. Los actores de amenazas utilizan GenAI para generar correos electrónicos, fotos, grabaciones de voz y videos increíblemente creíbles basados en una enorme cantidad de información sobre personas y organizaciones. Ahora pueden ir más allá de la voz y la apariencia para incluir comportamientos, sintaxis, preferencias y tendencias específicas. Junto con campañas de ingeniería social que identifican qué software financiero utiliza la organización, los bancos donde tienen cuentas y los procesos y políticas internos, los deepfakes pueden ser increíblemente precisos, personales y difíciles de detectar.
Pero no todo está perdido. Los equipos de seguridad pueden combatir las amenazas que se han creado con la tecnología GenAI con una estrategia que involucra personas, procesos y tecnología. La capacitación puede ayudar a los usuarios a identificar ataques deepfake o al menos hacer una pausa antes de aceptarlos ciegamente como verdad. Esto incluye la construcción de una cultura de rendición de cuentas. Sin duda, las personas deben asumir la responsabilidad de las acciones que realizan, pero también deben estar empoderadas para cuestionar solicitudes sospechosas, especialmente cuando provienen de sus gerentes o personas de alto nivel en la jerarquía corporativa. Esto requiere construir una cultura en toda la organización que desafíe a las personas a hacer preguntas, obtener confirmaciones y responsabilizarse a sí mismas y a otras personas.
Además, los especialistas Bitdefender sugieren implementar procesos que permitan esta cultura de responsabilidad. Esto podría incluir el requisito de obtener la confirmación de dos personas para ejecutar transacciones grandes. O la integración
de barreras de seguridad en los procesos comerciales habituales que puede contribuir en gran medida a proteger a la organización de errores vergonzosos o financieramente desastrosos.
Las organizaciones pueden combatir el fuego con fuego. Existe una serie de herramientas de seguridad impulsadas por IA que pueden ayudar a detectar, erradicar y mitigar el riesgo de los ataques de phishing creados por GenAI. Esto incluye tecnología que puede escanear millones de correos electrónicos entrantes para predecir fraudes de identidad y falsificaciones profundas. Otras herramientas pueden buscar metadatos de imágenes y videos para detectar el origen del archivo y si ha sido modificado. Estas herramientas de seguridad impulsadas por IA pueden calificar el riesgo y alertar a los analistas sobre cualquier señal de alerta que deba investigarse más a fondo.
Los ataques de phishing creados por Deepfakes e Inteligencia Artificial Generativa (GenAI) están cambiando el concepto de realidad para muchas personas en todo el mundo. La confianza excesiva en las propias capacidades para combatir estas amenazas y la preocupación por los usuarios comerciales que ponen en riesgo a la organización no son útiles. Los equipos de seguridad deben proponer soluciones reales centradas en una estrategia de personas, procesos y tecnología para detectar estos ataques y mitigar su impacto en su organización.
Obtenga más información sobre cómo se sienten los profesionales de la seguridad acerca de los deepfakes generados por IA descargando el Informe de evaluación de ciberseguridad 2024 de Bitdefender. Para más información sobre soluciones de ciberseguridad Bitdefender, visite el siguiente enlace: www.bitdefenderperu.com
Más historias
ESET, seguridad digital de vanguardia: comunica las posibles tendencias en ciberseguridad 2025
Seguridad informática Bitdefender: ¿Por qué los internautas deberían preocuparse por las filtraciones de datos?
ESET, empresa de software de ciberseguridad, respalda las normas en materia de ciberseguridad: Una inversión clave