21°
jueves 18 de abril del 2024

Estafas a través de redes sociales: qué es la ingeniería social y cómo evitar caer en la trampa

Datos y consejos útiles de un especialista de la Universidad Gran Rosario para no caer en engaños virtuales.

El apagón de Facebook por varias horas despertó la preocupación de miles de millones de personas que se sintieron indefensas ante la imposibilidad de utilizar sus cuentas en las redes sociales. Sin embargo, no es la falla del servicio de la empresa creada Mark Zuckerberg la que pone en riesgo la seguridad de los usuarios sino las diferentes estafas virtuales que se realizan a través de ingeniería social.

Hace algunas semanas, la Unidad Especializada en Cibercrimen y Armas de fuego de la Fiscalía Regional 2 informó que las estafas por redes sociales, Whatsapp y plataformas de e-commerce están al tope de las denuncias de delitos virtuales.

Según el informe del Ministerio Público de la Acusación, los ladrones virtuales estudian previamente a sus víctimas a través de las redes sociales, de donde obtienen información. Luego las contactan, haciéndose pasar por empleados de empresas o entidades bancarias o crediticias, y ofrecen promociones beneficiosas (extensión en el límite de la tarjeta de crédito), premios inexistentes o soluciones ante ciertos problemas (bloqueo de la clave del cajero automático).

Una vez que obtienen la confianza de la víctima, los estafadores solicitan datos confidenciales (como la contraseña de algunas cuentas personales o la clave de seguridad de la tarjeta de crédito) y llevan a cabo la tarea delictiva con esa información personal.

“La ingeniería social es una persona que quiere robarte algo y de alguna manera te lleva a un engaño”, señaló Leonardo Gianzone, coordinador del Programa Online de Ciberseguridad de la Universidad del Gran Rosario (UGR). “No engañan nada más a los desprevenidos, sino a cualquier persona; porque actúan en ese momento que estás apurado o justo tuviste un problema con el banco”, advirtió el especialista en seguridad informática.

“Todos somos vulnerables, por eso es tan importante tener información y desconfiar”, afirmó el abogado y dio algunos consejos para no caer en la trampa.

“Siempre hay que tener un doble factor de identificación, que la mayoría de las aplicaciones la tiene. Es una clave que solo vos sabés y sirve para validar tu identidad”, explicó Gianzone y aclaró que dicho código no debe ser modificado para evitar un movimiento extraño en la app.

En Whatsapp, la manera de activar el segundo factor de verificación es ingresando a Ajustes > Cuenta > Verificación en dos pasos > Activar. Así será más engorroso en el caso de hackearte ya que este pin se le solicita al usuario cada vez que ingresa a la cuenta desde un dispositivo distinto.

Además, el coordinador del Programa Online de Ciberseguridad de la UGR afirmó que “es muy fácil poder ocultar la identidad de una persona detrás de una red social, por eso hay que ser más desconfiado”. “Expuesto uno está siempre, por eso desde hace tiempo insistimos en el cuidado del uso de redes sociales y las apps de mensajería”, reiteró.

Más atrás en el ranking de delitos virtuales de la Fiscalía Regional 2, se encuentran los de ransomware (ataques sufrido por empresas a las que les secuestran los datos y les piden dinero para devolvérselos). Respecto a este delito, Gianzone aconsejó: “Cualquier empresa, de mediana para arriba, debe tener medidas de seguridad serias y fuertes para evitar fuga de datos o caídas de sistemas”.

Según un informe de Cyber Risk Index (CRI) de Trend Micro, el 80% de las organizaciones globales indican que es probable experimentar una violación de datos que afecte la información de sus clientes en los próximos 12 meses. Las regiones participantes fueron Asia-Pacífico, Europa, Latinoamérica y Norteamérica, de las cuales los gerentes TI encuestados parecen estar preocupados de que serán atacados exitosamente en los próximos 12 meses.

Los riesgos de la inteligencia artificial para la privacidad

La Oficina de Derechos Humanos de la ONU publicó, el 15 de septiembre pasado, un informe en el que se analiza cómo la IA -incluidas la elaboración automática de perfiles, la toma de decisiones y otras tecnologías de aprendizaje para las máquinas- afecta al derecho a la intimidad y a otros derechos, incluidos los relativos a la salud, la educación, la libertad de movimiento y de expresión.

“La inteligencia artificial llega ahora a casi todos los rincones de nuestras vidas, e incluso alcanza a nuestros estados emocionales. Los sistemas de IA se usan para decidir quién recibe servicios públicos, quién tiene oportunidad de obtener un empleo y, por supuesto, afectan a la información que la gente ve y que puede compartir en Internet”, señaló la ex presidenta de Chile y Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet.

“Mientras mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA”, indicó la Alta Comisionada, y continuó: “Pero, dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”.

En el informe se describe detalladamente cómo los sistemas de IA se basan en grandes bases de datos, que contienen información personal compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos. Los datos que alimentan y orientan a los sistemas de IA pueden ser deficientes, discriminatorios, obsoletos o poco pertinentes. El almacenamiento de datos a largo plazo entraña también riesgos particulares, ya que en el futuro esa información podría aprovecharse de formas difíciles de prever en la actualidad.

“El riesgo de discriminación inherente a las decisiones basadas en la IA -decisiones capaces de cambiar, definir o perjudicar a las personas- es muy real. Por eso es necesario evaluar y monitorear sistemáticamente las repercusiones de los sistemas de IA, para poder identificar y atenuar los riesgos en materia de derechos humanos”, añadió Bachelet.

“La complejidad del contexto estadístico, los algoritmos y los modelos en los que se basa la elaboración y el funcionamiento de los sistemas de IA, así como el carácter secreto que le confieren los gobiernos y los agentes privados, contribuyen a que la población en general no alcance a comprender la repercusión de los sistemas de IA sobre la sociedad y los derechos humanos”, apuntó el informe de la ONU.

“Es necesario adoptar urgentemente medidas para imponer límites basados en los derechos humanos a la utilización de la IA por el bien de todos”, terminó diciendo Bachelet.