La inteligencia artificial (IA) permea cada aspecto de nuestra vida diaria. Hoy en día, una gran parte de los contenidos disponibles en internet es generada por máquinas. Aaron Harris, CTO de Sage, una multinacional especializada en aplicaciones de IA, advierte que “el auge de los contenidos automatizados y la interacción impulsada por bots hace que cada vez sea más difícil separar lo auténtico del ruido”. Esta preocupación se ha hecho evidente a través de un estudio realizado por The Care Side, una entidad australiana de cuidado domiciliario, que ha evaluado la percepción de más de 3.000 personas sobre los contenidos falsos. Los resultados revelan que los menores de 29 años logran identificar ocho de cada diez contenidos falsos con apariencia real, como los deepfakes, mientras que sólo un poco más de la mitad de los mayores de 65 años puede hacerlo, muchas veces de manera aleatoria.
La proliferación de esta situación no solo acarrea riesgos de manipulación y desinformación, sino que también ha abierto la puerta a un aumento en las estafas y fraudes mediante creaciones artificiales cada vez más sofisticadas. Josep Albors, responsable de Investigación y Concienciación de ESET España, indica que “el fraude es el campo más explotado por los delincuentes apoyados en la IA, creando campañas cada vez más convincentes; resulta cada vez más difícil identificar lo que es real de lo que es fraudulento”.
Hervé Lambert, gerente de operaciones de servicio al cliente en Panda Security, ha experimentado personalmente este tipo de fraude. Recibió una llamada con la voz de un directivo solicitándole una acción sospechosa. Al confirmarlo, descubrió que no era su colega quien había llamado. Este episodio resalta cómo organizaciones de diversos sectores son vulnerables ante estas tácticas.
Lambert, junto a sus hijos, participó en el cuestionario de The Care Side y observó que, pese a ser mayor de 50 años y tener más formación digital, logró una mejor puntuación que los jóvenes. “El riesgo es general”, comenta, subrayando que “la IA es muy inteligente y puede aprovechar contextos donde nuestra concentración es menor para engañarnos”.
Marti DeLiema, doctora en Gerontología de la Universidad de Minnesota, coincide en que “la IA cambia drásticamente el panorama del fraude no solo para los adultos, sino para todos nosotros”. Lambert atribuye la vulnerabilidad al “falta de conocimiento, concienciación y formación” necesarios para identificar el fraude, especialmente en situaciones reales donde se están realizando múltiples tareas a la vez.
Vigilancia y Educación: Estrategias de Prevención
Además, ambos expertos, Lambert y Albors, resaltan la necesidad de que los usuarios tengan mayor disposición para comprobar la veracidad de la información que reciben. DeLiema añade que, a medida que las personas se educan sobre la IA, podría surgir una desconfianza hacia la comunicación digital, lo que podría resultar contraproducente.
Este ambiente de desconfianza ha llevado a Lambert a establecer contraseñas secretas con sus hijos, asegurándose de que las comunicaciones sean auténticas, además de devolver las llamadas para verificar la legitimidad de las solicitudes. A pesar de la existencia de herramientas para detectar la participación de la IA en contenidos, Lambert advierte que estas son insuficientes y enfatiza la importancia de la educación en escenarios reales para saber cuándo actuar.
“Nosotros, incluyendo a los desarrolladores de IA y expertos en ciberseguridad, estamos superados por la rapidez y habilidad de los delincuentes; no respetan normas ni límites”, lamenta Lambert.
Claves para Detectar y Evitar el Fraude con IA
Para prevenir ser víctimas de fraudes impulsados por IA, Albors sugiere distintas estrategias:
- Texto: Desconfía de saludos genéricos y mensajes con urgencias. No proporciones información personal ni realices transacciones sin verificación previa. Revisa bien el contenido buscando errores en la redacción.
- Imagen: Observa simetrías inusuales en los rostros y malformaciones en las manos. También verifica si las sombras y texturas de la piel son coherentes con el entorno.
- Audio: Detecta pausas antinaturales o ritmos robóticos. Las voces artificiales pueden presentar respuestas imprecisas y carecen de errores humanos.
- Vídeo: Busque incoherencias en los gestos faciales o movimientos de labios. Las expresiones antinaturales son señal de contenido manipulado.
En un entorno cada vez más complejo, la vigilancia y la educación se convierten en aliados fundamentales para navegar la veracidad de la información presentada.
