¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Zico Kolter, profesor de Carnegie Mellon, dirige el comité de seguridad de OpenAI, que puede detener las liberaciones de IA para garantizar la seguridad durante su transición a una entidad con fines de lucro.
Zico Kolter, un profesor de informática de 42 años de la Universidad Carnegie Mellon, lidera el Comité de Seguridad y Protección de OpenAI, un panel de cuatro miembros con el poder de detener las liberaciones de IA consideradas inseguras.
Nombrado hace más de un año, su papel se convirtió en un requisito clave para la transición de OpenAI en 2025 a una corporación de beneficio público con fines de lucro, mandatada por los reguladores de California y Delaware.
Los acuerdos aseguran que las decisiones de seguridad tengan prioridad sobre los objetivos financieros, otorgando a Kolter plenos derechos de observación en las reuniones de la junta con fines de lucro y acceso a los datos de seguridad.
El comité aborda los riesgos que incluyen el uso indebido de la IA en el desarrollo de armas, ciberataques y daños a la salud mental.
Si bien Kolter se negó a confirmar si el panel ha bloqueado alguna vez una liberación, enfatizó el creciente panorama de amenazas de IA avanzada.
Su liderazgo refleja un mayor escrutinio mientras OpenAI navega por su cambio de misión sin fines de lucro a empresa comercial.
Zico Kolter, a Carnegie Mellon professor, leads OpenAI’s safety committee, which can halt AI releases to ensure safety during its transition to a for-profit entity.