The Startup Magazine Cómo la IA podría permitir el crimen financiero y conducir a más devoluciones de cargo y otros problemas


La inteligencia artificial tiene el potencial de ser la próxima tecnología revolucionaria para remodelar la civilización humana. Sin embargo, si bien muchos de los beneficios de la inteligencia artificial pueden resultar positivos, algunas partes sin escrúpulos podrían hacer un mal uso de ella para perpetuar el crimen y participar en otras actividades poco éticas. Por ejemplo, la IA podría resultar una herramienta útil para los ciberdelincuentes, lo que generaría más filtraciones de datos, devoluciones de cargo y otros problemas.

presencia digital
Fuente: Pexels

¿Cómo podría ayudar la inteligencia artificial a los ciberdelincuentes? En última instancia, la IA es una herramienta y, del mismo modo que puede generar enormes ganancias de productividad y análisis de datos perspicaces para las partes éticas, puede hacer lo mismo para los piratas informáticos y otros delincuentes. Veamos algunas formas concretas en que la IA podría impulsar el ciberdelito.

Los exploits de día cero podrían conducir a más filtraciones de datos

Las filtraciones de datos son una de las amenazas de ciberseguridad más graves y persistentes. Las filtraciones de datos no solo pueden dañar la reputación de una empresa y dar lugar a multas por parte de las agencias gubernamentales, sino que también pueden provocar el robo de identidad y la apropiación de cuentas. Estas actividades podrían, a su vez, dar lugar a un aumento de las devoluciones de cargo. Desafortunadamente, la IA podría permitir violaciones de datos al descubrir vulnerabilidades de día cero.

Los exploits de día cero se encuentran entre las amenazas de ciberseguridad más peligrosas. Esencialmente, un exploit de día cero es una vulnerabilidad previamente desconocida o un agujero en el código del software que permite a los piratas informáticos explotar el software en sí, por ejemplo, para ingresar y robar información de las bases de datos.

En el pasado, encontrar exploits de día cero a menudo significaba pasar manualmente por líneas de código en busca de vulnerabilidades. Esto puede llevar mucho tiempo. Fundamentalmente, las herramientas de IA pueden funcionar mucho más rápido que los humanos. Así como la inteligencia artificial ya está entrenada para escribir código, también está entrenada para analizar código y encontrar vulnerabilidades.

Los piratas informáticos éticos podrían usar esto para encontrar lagunas y taparlas, desarrollando inteligencia artificial para detener el fraude. Sin embargo, están en una carrera contra los ciberdelincuentes que pueden usar la IA para identificar exploits de día cero y luego usarlos para entrar en los sistemas de seguridad. Esto podría conducir a violaciones de la privacidad y, una vez que los piratas informáticos tengan los datos, podrían usar la información de la tarjeta de crédito robada y otra información confidencial para realizar compras no autorizadas.

Para los comerciantes, las compras no autorizadas podrían generar quejas de los clientes, pérdida de inventario y, en última instancia, devoluciones de cargo.

La IA podría acelerar el phishing y estrategias similares

Muchos piratas informáticos no tienen ningún código y se centran en la ingeniería social para engañar a las personas para que proporcionen números de tarjetas de crédito, credenciales de inicio de sesión y otra información confidencial. Desafortunadamente, es posible que los piratas informáticos ya estén utilizando IA para impulsar tácticas de ingeniería social y phishing.

Con el phishing, un delincuente se hace pasar por una autoridad legítima, como el equipo técnico o el departamento de servicio al cliente del sitio web de un minorista (por ejemplo, Amazon). El estafador podría afirmar que una cuenta se ha visto comprometida y que un cliente debe proporcionar sus credenciales para que el "equipo técnico" pueda ingresar y asegurar su cuenta.

Los piratas informáticos pueden usar chatbots impulsados ​​​​por IA para comunicarse con clientes potenciales a través de SMS y otros programas de chat. Por ejemplo, un estafador podría configurar un portal de servicio al cliente falso y luego indicar a los clientes que se comuniquen con su departamento de "Servicio al cliente" para resolver el problema. Sin embargo, en lugar de hablar con los representantes de servicio al cliente, los clientes hablan con un programa de chat de IA creado por los estafadores. ChatGPT y otros bots de IA ya pueden imitar el habla humana de manera bastante convincente. Los chatbots de IA similares pueden potencialmente usar un lenguaje persuasivo similar al humano y tácticas de ingeniería social programadas para engañar a las personas para que compartan información confidencial.

La ingeniería social, especialmente a través de programas de chat y mensajes de texto, puede llevar bastante tiempo. Al igual que con las vulnerabilidades de día cero, la IA puede ahorrar tiempo a los estafadores mediante el uso de inteligencia artificial, permitiéndoles en última instancia apuntar a innumerables personas con un mínimo esfuerzo.

Incluso si un cliente proporciona la información de inicio de sesión de su cuenta o los números de su tarjeta de crédito, para bien o para mal, a menudo son los comerciantes quienes pagan la factura. Supongamos que un estafador engaña a un cliente para que revele la contraseña de su cuenta de sitio web minorista y luego usa esa cuenta para realizar una compra no autorizada con la tarjeta de crédito del cliente. Es probable que el comerciante termine consumiendo la factura si el cliente presenta una devolución de cargo con el emisor de su tarjeta.

Las amenazas de IA evolucionarán rápidamente

Los escenarios anteriores son solo algunos ejemplos de cómo los estafadores podrían utilizar la IA. Hay muchos más riesgos y surgirán nuevos riesgos de delitos cibernéticos de IA. Por ejemplo, la IA se ha utilizado para falsificar votos. Es posible que reciba una llamada de un ser querido que parece estar en problemas y le pide que le envíe dinero en efectivo. Sin embargo, puede que no sea tu ser querido en absoluto, sino una voz falsificada por la IA.

También es probable que la IA desempeñe un papel en otros tipos comunes de fraude y, quizás lo más importante, probablemente abra la puerta a nuevos tipos de delitos. Considere que Internet ha brindado una gran comodidad a los consumidores de todo el mundo y también ha creado nuevas industrias, como la venta minorista en línea. Pero ha permitido el fraude por correo electrónico y las filtraciones de datos en línea, entre muchos otros tipos de actividades delictivas.

Incluso los gurús tecnológicos más informados y perspicaces están empezando a comprender el potencial de la inteligencia artificial. La IA puede proporcionar una comodidad increíble y ayudar a abrir industrias completamente nuevas. También podría allanar el camino para varios tipos de delitos financieros. Esto podría ser costoso para los consumidores y los comerciantes, y las empresas pueden enfrentarse a un aumento de las devoluciones de cargo a medida que los estafadores se vuelven más prolíficos en sus actividades delictivas.

Por supuesto, la IA podría usarse para siempre. Por ejemplo, la IA se puede usar para monitorear transacciones y detener transacciones sospechosas. Esto podría evitar contracargos y otros problemas, especialmente cuando se usa junto con una plataforma de gestión de contracargos.


Si quieres conocer otros artículos parecidos a The Startup Magazine Cómo la IA podría permitir el crimen financiero y conducir a más devoluciones de cargo y otros problemas puedes visitar la categoría Startup.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir