Análisis de susceptibilidad a fraudes por suplantación de voz mediante inteligencia artificial, en personas de la tercera edad.
DOI:
https://doi.org/10.69583/inndev.v3n2.2024.134Palabras clave:
inteligencia artificial, suplantación de voz, vishing, clonación de voz, fraude cibernéticoResumen
El presente artículo aborda la susceptibilidad al fraude por suplantación de voz mediante inteligencia artificial (IA) enfocado en personas de la tercera edad, un grupo particularmente vulnerable a este tipo de estafas debido a su limitada familiaridad con las tecnologías emergentes. Se llevó a cabo un experimento utilizando herramientas de clonación de voz como Speechify y ElevenLabs para replicar las voces de familiares cercanos a los participantes, todos mayores de 65 años. Se realizaron 40 llamadas simuladas con escenarios diseñados para generar urgencia y preocupación, como accidentes de tránsito o problemas legales. Los resultados muestran que un 72% de los participantes no fueron capaces de identificar que la voz escuchada no pertenecía a su familiar, lo que demuestra la alta vulnerabilidad de este grupo ante estafas telefónicas. Solo un 28% de los participantes detectó la falsificación, generalmente al solicitar más información o verificar la llamada directamente con su familiar.
El análisis revela que el componente emocional juega un papel determinante en la efectividad de estas estafas, ya que las víctimas tienden a reaccionar impulsivamente cuando creen que un ser querido está en peligro. Se discuten estrategias de mitigación, como la educación tecnológica para personas mayores, el desarrollo de tecnologías de detección de fraude y la regulación del uso de IA en la clonación de voz. El artículo concluye que es fundamental implementar un enfoque preventivo que combine educación, tecnología y políticas de seguridad para proteger a este grupo de estafas cibernéticas.
Citas
Anderson, C. (2020). Technological vulnerabilities in aging populations: Fraud and cybersecurity. Journal of Gerontology, 75(6), 1135-1141. https://doi.org/10.1093/geront/gnaa017 DOI: https://doi.org/10.1093/geront/gnaa017
Cabanellas, G. (1993). Diccionario Jurídico Elemental.
Caldwell, T. (2021). The impact of voice cloning on cybersecurity: Threats and opportunities. Journal of Information Security, 15(3), 45-62. https://doi.org/10.1007/s10207-021-00540-1
Caranica, A. (2017). Speech recognition results for voice-controlled assistive applications. Speech Technology and Human-Computer Dialogue (SpeD). DOI: https://doi.org/10.1109/SPED.2017.7990438
Comisión Económica para América Latina y el Caribe (CEPAL). (2017). Derechos de las personas mayores: Retos para la interdependencia y autonomía. Asunción.
Federal Bureau of Investigation (FBI). (2022). Elder fraud report 2021-2022. https://www.fbi.gov/elder-fraud
Federal Trade Commission (FTC). (2022). Protecting older consumers 2021-2022: A report of the Federal Trade Commission. https://www.ftc.gov/reports/protecting-older-consumers-2021-2022-report-federal-trade-commission
Holdings. (2024). Vishing. WhatIsMyIPAddress. https://whatismyipaddress.com/vishing
Instituto Nacional de Estadística y Censos (INEC). (2022). Censo poblacional 2022. https://www.censoecuador.gob.ec/
Larraín, G. (2017). Longevidad y pensiones: Una propuesta de seguro para la cuarta edad.
Mahuad Calderón, P. (2005). Los delitos informáticos: La ineficiente e inadecuada protección penal en el ordenamiento jurídico ecuatoriano. Quito: USFQ.
Mendenhall, R., & Ferris, S. (2020). Elder fraud and the rise of social engineering attacks targeting seniors. Journal of Elder Abuse & Neglect, 32(4), 1-14. https://doi.org/10.1080/08946566.2020.1795558
Montes, M. (2023). Las 10 cosas que más tememos de la inteligencia artificial. La Tercera. https://www.latercera.com/que-pasa/noticia/las-10-cosas-que-mas-tememos-de-la-inteligencia-artificial
Real Academia Española (RAE). (2001). Significados: Estafa. https://www.rae.es/drae2001/estafa
Skiba, M. (2019). Estafa. AARP. https://www.aarp.org/espanol/dinero/estafas-y-fraudes/info-2019/cfpb-adultos-mayores-victimas-abuso-financiero.html
Speechify. (2024). Clonador de voz. https://voiceover.speechify.com/editor/x3efhexvagf5uzff9oqg?cloning=true
Wells-Edwards, B. (2022). What’s in voice? The legal implications of voice cloning. Arizona Law Review, 64, 1213-1235. https://arizonalawreview.org/articles/volume-64
Descargas
Publicado
Cómo citar
Número
Sección
Categorías
Licencia
Derechos de autor 2024 InnDev
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.