¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Desde principios de 2024, los hackers han utilizado la IA para impulsar el phishing, las estafas y las operaciones de influencia, apuntando a Taiwán, las escuelas estadounidenses y los críticos chinos, pero no han surgido nuevas amenazas.
El último informe de amenazas de OpenAI revela que desde principios de 2024, los actores maliciosos, incluidos los estafadores y los grupos respaldados por el estado, han utilizado cada vez más herramientas de IA como ChatGPT, Claude y DeepSeek para mejorar las tácticas de cibercrimen existentes, como el phishing, la creación de contenido fraudulento y las operaciones de influencia, en lugar de desarrollar otras nuevas.
La compañía interrumpió más de 40 redes maliciosas, con ataques dirigidos al sector de semiconductores de Taiwán, a instituciones académicas estadounidenses y a críticos del Partido Comunista Chino, a menudo utilizando IA para automatizar mensajes, construir sitios de inversión falsos y fabricar personajes de asesores financieros.
Si bien la IA mejora la eficiencia y la escala, no ha surgido ninguna amenaza fundamentalmente nueva.
Algunos actores se están adaptando eliminando marcadores estilísticos como trazos para evadir la detección.
En particular, la IA se utiliza ahora tres veces más a menudo para detectar estafas que para crearlas, destacando su doble papel tanto en permitir como en combatir el delito cibernético.
Las salvaguardias de OpenAI siguen bloqueando las solicitudes claramente maliciosas.
Since early 2024, hackers have used AI to boost phishing, scams, and influence ops, targeting Taiwan, U.S. schools, and Chinese critics, but no new threats have emerged.