¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Tocar para traducir - grabación

Explorar por región

flag Desde principios de 2024, los hackers han utilizado la IA para impulsar el phishing, las estafas y las operaciones de influencia, apuntando a Taiwán, las escuelas estadounidenses y los críticos chinos, pero no han surgido nuevas amenazas.

flag El último informe de amenazas de OpenAI revela que desde principios de 2024, los actores maliciosos, incluidos los estafadores y los grupos respaldados por el estado, han utilizado cada vez más herramientas de IA como ChatGPT, Claude y DeepSeek para mejorar las tácticas de cibercrimen existentes, como el phishing, la creación de contenido fraudulento y las operaciones de influencia, en lugar de desarrollar otras nuevas. flag La compañía interrumpió más de 40 redes maliciosas, con ataques dirigidos al sector de semiconductores de Taiwán, a instituciones académicas estadounidenses y a críticos del Partido Comunista Chino, a menudo utilizando IA para automatizar mensajes, construir sitios de inversión falsos y fabricar personajes de asesores financieros. flag Si bien la IA mejora la eficiencia y la escala, no ha surgido ninguna amenaza fundamentalmente nueva. flag Algunos actores se están adaptando eliminando marcadores estilísticos como trazos para evadir la detección. flag En particular, la IA se utiliza ahora tres veces más a menudo para detectar estafas que para crearlas, destacando su doble papel tanto en permitir como en combatir el delito cibernético. flag Las salvaguardias de OpenAI siguen bloqueando las solicitudes claramente maliciosas.

10 Artículos