La IA está ahí para ayudarte, ya sea que estés escribiendo un correo electrónico, creando algún arte conceptual o engañando a una persona en crisis haciéndole creer que eres su amigo o familiar. ¡La IA es muy versátil! Pero como algunas personas no quieren dejarse engañar, hablemos un poco de qué tener en cuenta.

En los últimos años se ha visto un enorme aumento no sólo en la calidad del texto, desde el texto hasta el audio, las imágenes y el vídeo, sino también en la forma económica y sencilla de crear medios. Las mismas herramientas que ayudan a un artista conceptual a crear algún monstruo o nave espacial imaginaria, o ayudan a un hablante no nativo a mejorar su inglés comercial, también pueden usarse de manera maliciosa.

No espere que Terminator llame a su puerta y le venda un esquema Ponzi: son las mismas viejas estafas con las que hemos estado lidiando durante años, pero con un toque generativo de IA que las hace más fáciles, más baratas y más confiables.

Esta no es de ninguna manera una lista completa, solo algunos de los trucos más obvios que la IA puede potenciar. Nos aseguraremos de agregar nuevos trucos a medida que aparezcan en la naturaleza, o cualquier medida adicional que puedas tomar para protegerte.

Clonando las voces de familiares y amigos

Los sonidos sintéticos existen desde hace décadas, pero sólo en los últimos dos años los avances tecnológicos han hecho posible crear nuevos sonidos a partir de unos pocos segundos de audio. Esto significa que cualquier persona cuya voz se transmita públicamente (por ejemplo, en un informe de noticias, un video de YouTube o en las redes sociales) corre el riesgo de que le copien la voz.

Los estafadores pueden y han utilizado esta técnica para crear versiones falsas creíbles de sus seres queridos o amigos. Por supuesto, se les puede obligar a decir cualquier cosa, pero en el caso de una estafa, lo más probable es que creen un clip de voz pidiendo ayuda.

Por ejemplo, los padres pueden recibir un mensaje de voz de un número desconocido que suena como el de su hijo, diciéndoles que les robaron el equipaje mientras viajaban, que alguien les permitió usar su teléfono y ¿Pueden mamá o papá enviar algo de dinero a esta dirección, destinatario de Venmo? , negocios, etc Se pueden resolver fácilmente problemas como el del coche («No me entregarán el coche hasta que alguien les pague»), el problema médico («Este tratamiento no está cubierto por el seguro»), etc., me lo puedo imaginar.

¡Este tipo de estafa se ha realizado antes de utilizar la voz del presidente Biden! Han atrapado a las personas detrás de esto, pero los estafadores tendrán más cuidado en el futuro.

¿Cómo se puede luchar contra la clonación de voces?

En primer lugar, no intentes reconocer la voz falsa. Mejoran cada día y hay muchas formas de ocultar cualquier problema de calidad. ¡Hasta los expertos se dejan engañar!

Cualquier cosa que provenga de un número, dirección de correo electrónico o cuenta desconocida debe considerarse automáticamente sospechosa. Si alguien dice que es tu amigo o ser querido, continúa y acércate a esa persona como lo harías normalmente. Probablemente te dirán que están bien y que es (como habrás adivinado) una estafa.

Si se ignora a los estafadores, a menudo no cumplen, mientras que un miembro de la familia probablemente lo haría. Está bien seguir leyendo un mensaje sospechoso siempre que esté atento.

Phishing personal y spam por correo electrónico y mensaje

Todos recibimos spam a veces, pero la IA que genera texto hace posible enviar correos electrónicos masivos personalizados para cada individuo. Dado que las filtraciones de datos ocurren con regularidad, muchos de sus datos personales están disponibles.

Una cosa es ver el mensaje «¡Haga clic aquí para ver su factura!». Como recibir correos electrónicos fraudulentos que obviamente tienen archivos adjuntos aterradores que parecen requerir muy poco esfuerzo. Pero con un poco de contexto, de repente se vuelven bastante creíbles y utilizan ubicaciones, compras y hábitos recientes para que parezca una persona real o un problema real. Armado con algunos datos personales, un modelo de lenguaje puede optimizar uno de estos correos electrónicos para miles de destinatarios en cuestión de segundos.

Entonces, lo que antes era «Estimado cliente, vea su factura adjunta» se convirtió en algo como «¡Hola Doris! Soy del equipo de promociones de Etsy. Recientemente, el artículo que estabas viendo ahora tiene un 50% de descuento. ¡Hay un descuento! Y si usas este enlace para reclamar el descuento, el envío es gratuito a su dirección en Bellingham.» Un ejemplo simple, pero aún así. Nombres reales, hábitos de compra (fáciles de descubrir), ubicaciones generales (iguales), etc., de repente el mensaje se vuelve mucho menos claro.

Al final, sigue siendo sólo spam. Pero este tipo de spam personalizado lo realizaban anteriormente personas con salarios bajos en granjas de contenido en el extranjero. ¡Esto ahora lo pueden hacer a gran escala los LLM con mejores habilidades en prosa que muchos escritores profesionales!

¿Cómo se puede combatir el spam en el correo electrónico?

Al igual que ocurre con el spam tradicional, la vigilancia es su mejor arma. Pero no espere poder distinguir el texto generado del texto escrito por humanos. Hay muy pocos que puedan hacer esto, y ciertamente ningún otro modelo de IA (a pesar de las afirmaciones de algunas empresas y servicios).

No importa cuánto se mejore el texto, este tipo de estafa todavía tiene el desafío básico de obligarte a abrir archivos adjuntos o enlaces sospechosos. Como siempre, no hagas clic ni abras nada a menos que estés 100% seguro de la autenticidad y la identidad del remitente. Si no estás seguro, aunque sea un poco, y eso es entenderlo, no hagas clic, y si tienes a alguien con conocimientos a quien puedas reenviarlo para que lo revise un segundo par de ojos, hazlo.

Fraude de identidad y verificación ‘falso’

Debido a la cantidad de filtraciones de datos en los últimos años (¡gracias, Equifax!), es seguro decir que casi todos tenemos una buena cantidad de datos personales en la web oscura. Si sigue buenas prácticas de seguridad en línea, muchas amenazas se reducen porque cambió sus contraseñas, habilitó la autenticación multifactor, etc. Pero la IA generativa podría presentar una nueva y grave amenaza para el sector.

Con tantos datos disponibles en línea sobre una persona, y para muchas personas incluso uno o dos clips de su voz, se ha vuelto muy fácil crear una persona de IA que suene como la persona objetivo y tenga acceso a la mayoría de los datos utilizados. verificar identidad.

Piensa en esto, de esta manera. ¿Qué pasa si tienes problemas para iniciar sesión, no puedes configurar correctamente tu aplicación de autenticación o pierdes tu teléfono? Tal vez llame al servicio de atención al cliente y «verificarán» su identidad utilizando algún dato trivial como su fecha de nacimiento, número de teléfono o número de seguro social. Los modos más avanzados, como «tomar selfies», son cada vez más fáciles para el juego.

Agente de servicio al cliente: hasta donde sabemos, ¡ella también es una IA! – Esta falsa puede complacerte muy bien y darle todos los privilegios que tendrías si realmente la llamaras. Lo que pueden hacer desde esa posición varía mucho, ¡pero nada de eso es bueno!

Al igual que otros en esta lista, el peligro no está en cuán real parezca esta falsificación, sino en lo fácil que sea para los estafadores llevar a cabo este tipo de ataques de manera amplia y repetida. Hasta hace poco, este tipo de ataque de suplantación de identidad era costoso y requería mucho tiempo y, como resultado, se limitaba a objetivos de alto valor, como personas adineradas y directores ejecutivos. Hoy en día, se puede crear un flujo de trabajo que genere miles de agentes suplantadores con una supervisión mínima, y ​​estos agentes pueden llamar de forma autónoma a los números de servicio al cliente en todas las cuentas conocidas de una persona, ¡o incluso crear otras nuevas! Sólo unos pocos necesitan tener éxito para justificar el coste del ataque.

¿Cómo se puede luchar contra el fraude de identidad?

Al igual que antes de la llegada de la IA para frustrar los esfuerzos de los estafadores, «Cybersecurity 101» es su mejor opción. Tus datos ya están ahí; No se puede volver a poner pasta de dientes en el tubo. Pero tu puede hacer Asegúrese de que sus cuentas estén adecuadamente protegidas contra los ataques más obvios.

La autenticación multifactor es fácilmente el paso más importante que se puede dar aquí. Cualquier actividad grave en la cuenta va directamente a su teléfono y los intentos sospechosos de inicio de sesión o cambio de contraseña aparecerán en los correos electrónicos. No ignore estas advertencias ni las marque como spam, incluso si (¡especialmente!) recibe muchas de ellas.

Deepfakes y chantaje generados por IA

Quizás la estafa de IA emergente más aterradora es la posibilidad de chantaje utilizando fotografías falsas suyas o de un ser querido. ¡Puedes agradecer al vertiginoso mundo de los modelos de imagen abierta por esta posibilidad futurista y aterradora! Las personas interesadas en ciertos aspectos de la generación de imágenes de última generación han creado flujos de trabajo no sólo para representar cuerpos desnudos sino también para conectarlos con cualquier rostro que puedan fotografiar. No necesito explicar en detalle cómo ya se está utilizando.

Pero una consecuencia no deseada es la expansión de un escándalo comúnmente llamado “porno de venganza”, pero que se describe más exactamente como la distribución no consensuada de imágenes íntimas (aunque, al igual que “deepfakes”, el término original puede ser difícil de cambiar). Cuando las imágenes privadas de alguien se publican mediante piratería informática o ex represalias, un tercero puede utilizarlas como chantaje y amenaza con publicarlas ampliamente a menos que se pague una suma de dinero.

¡La IA amplifica esta estafa de una manera que ya no existe ninguna imagen íntima real! Se puede agregar la cara de cualquier persona a un cuerpo creado por IA y, aunque los resultados no siempre son confiables, probablemente sea suficiente para engañarlo a usted o a otros si está pixelado, tiene baja resolución o está parcialmente oscurecido. Y eso es todo lo que se necesita para asustar a alguien y obligarlo a pagar para guardar un secreto, aunque, como en la mayoría de las estafas de chantaje, es poco probable que el primer pago sea el último.

¿Cómo se puede luchar contra los deepfakes generados por IA?

Desafortunadamente, el mundo hacia el que nos dirigimos es uno en el que fotos falsas de desnudos de casi cualquier persona estarán disponibles a pedido. Es aterrador, extraño y repugnante, pero lamentablemente la verdad ha salido a la luz.

Nadie está contento con esta situación excepto los malos. Pero hay algunas cosas para todas las víctimas potenciales. Puede que te parezca poco consuelo, pero estas imágenes no son realmente tuyas y no necesitas fotos reales de desnudos para demostrarlo. Estos modelos de imágenes pueden producir cuerpos realistas de alguna manera, pero al igual que otras IA generativas, solo saben en qué han sido entrenados. Por lo tanto, las imágenes falsas no tendrán marcas distintivas, por ejemplo, y es probable que sean claramente inexactas en otros aspectos.

Y aunque la amenaza probablemente nunca desaparezca por completo, existen soluciones continuas disponibles para las víctimas, que incluyen obligar legalmente a los servidores de imágenes a eliminar fotos o prohibir a los estafadores los sitios donde las publican. A medida que el problema crezca, también lo harán los medios legales y privados para combatirlo.

¡TechCrunch no es un abogado! Pero si eres su víctima, díselo a la policía. Esto no es sólo una estafa, sino acoso, y aunque no se puede esperar que la policía haga un intenso trabajo de detective en Internet para localizar a alguien, a veces estos casos se resuelven o los estafadores tienen miedo de las solicitudes enviadas a su ISP o foro. anfitrión.

Source link