Análisis de susceptibilidad a fraudes por suplantación de voz mediante inteligencia artificial, en personas de la tercera edad.

Authors

  • Andrés Villarreal Instituto Superior Tecnológico de Tecnologías Apropiadas, Quito, Ecuador
  • Stalin Corella Instituto Superior Tecnológico de Tecnologías Apropiadas, Quito, Ecuador
  • Stalin Pilicita Instituto Superior Tecnológico de Tecnologías Apropiadas, Quito, Ecuador
  • Daniel Proaño Instituto Superior Tecnológico de Tecnologías Apropiadas, Quito, Ecuador

DOI:

https://doi.org/10.69583/inndev.v3n2.2024.134

Keywords:

inteligencia artificial, suplantación de voz, vishing, clonación de voz, fraude cibernético

Abstract

El presente artículo aborda la susceptibilidad al fraude por suplantación de voz mediante inteligencia artificial (IA) enfocado en personas de la tercera edad, un grupo particularmente vulnerable a este tipo de estafas debido a su limitada familiaridad con las tecnologías emergentes. Se llevó a cabo un experimento utilizando herramientas de clonación de voz como Speechify y ElevenLabs para replicar las voces de familiares cercanos a los participantes, todos mayores de 65 años. Se realizaron 40 llamadas simuladas con escenarios diseñados para generar urgencia y preocupación, como accidentes de tránsito o problemas legales. Los resultados muestran que un 72% de los participantes no fueron capaces de identificar que la voz escuchada no pertenecía a su familiar, lo que demuestra la alta vulnerabilidad de este grupo ante estafas telefónicas. Solo un 28% de los participantes detectó la falsificación, generalmente al solicitar más información o verificar la llamada directamente con su familiar.

El análisis revela que el componente emocional juega un papel determinante en la efectividad de estas estafas, ya que las víctimas tienden a reaccionar impulsivamente cuando creen que un ser querido está en peligro. Se discuten estrategias de mitigación, como la educación tecnológica para personas mayores, el desarrollo de tecnologías de detección de fraude y la regulación del uso de IA en la clonación de voz. El artículo concluye que es fundamental implementar un enfoque preventivo que combine educación, tecnología y políticas de seguridad para proteger a este grupo de estafas cibernéticas.

References

Anderson, C. (2020). Technological vulnerabilities in aging populations: Fraud and cybersecurity. Journal of Gerontology, 75(6), 1135-1141. https://doi.org/10.1093/geront/gnaa017 DOI: https://doi.org/10.1093/geront/gnaa017

Cabanellas, G. (1993). Diccionario Jurídico Elemental.

Caldwell, T. (2021). The impact of voice cloning on cybersecurity: Threats and opportunities. Journal of Information Security, 15(3), 45-62. https://doi.org/10.1007/s10207-021-00540-1

Caranica, A. (2017). Speech recognition results for voice-controlled assistive applications. Speech Technology and Human-Computer Dialogue (SpeD). DOI: https://doi.org/10.1109/SPED.2017.7990438

Comisión Económica para América Latina y el Caribe (CEPAL). (2017). Derechos de las personas mayores: Retos para la interdependencia y autonomía. Asunción.

Federal Bureau of Investigation (FBI). (2022). Elder fraud report 2021-2022. https://www.fbi.gov/elder-fraud

Federal Trade Commission (FTC). (2022). Protecting older consumers 2021-2022: A report of the Federal Trade Commission. https://www.ftc.gov/reports/protecting-older-consumers-2021-2022-report-federal-trade-commission

Holdings. (2024). Vishing. WhatIsMyIPAddress. https://whatismyipaddress.com/vishing

Instituto Nacional de Estadística y Censos (INEC). (2022). Censo poblacional 2022. https://www.censoecuador.gob.ec/

Larraín, G. (2017). Longevidad y pensiones: Una propuesta de seguro para la cuarta edad.

Mahuad Calderón, P. (2005). Los delitos informáticos: La ineficiente e inadecuada protección penal en el ordenamiento jurídico ecuatoriano. Quito: USFQ.

Mendenhall, R., & Ferris, S. (2020). Elder fraud and the rise of social engineering attacks targeting seniors. Journal of Elder Abuse & Neglect, 32(4), 1-14. https://doi.org/10.1080/08946566.2020.1795558

Montes, M. (2023). Las 10 cosas que más tememos de la inteligencia artificial. La Tercera. https://www.latercera.com/que-pasa/noticia/las-10-cosas-que-mas-tememos-de-la-inteligencia-artificial

Real Academia Española (RAE). (2001). Significados: Estafa. https://www.rae.es/drae2001/estafa

Skiba, M. (2019). Estafa. AARP. https://www.aarp.org/espanol/dinero/estafas-y-fraudes/info-2019/cfpb-adultos-mayores-victimas-abuso-financiero.html

Speechify. (2024). Clonador de voz. https://voiceover.speechify.com/editor/x3efhexvagf5uzff9oqg?cloning=true

Wells-Edwards, B. (2022). What’s in voice? The legal implications of voice cloning. Arizona Law Review, 64, 1213-1235. https://arizonalawreview.org/articles/volume-64

Published

2024-09-22

How to Cite

Villarreal, A., Corella, S., Pilicita, S., & Proaño, D. (2024). Análisis de susceptibilidad a fraudes por suplantación de voz mediante inteligencia artificial, en personas de la tercera edad. InnDev, 3(2), 17–32. https://doi.org/10.69583/inndev.v3n2.2024.134