marzo 20, 2026
Portada

Microsoft mantiene equipo de seguridad interno para probar sus propios sistemas de inteligencia artificial

Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft confirmó que mantiene activo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a hackear sus propios productos de inteligencia artificial con el fin de identificar vulnerabilidades antes de su lanzamiento. Esta práctica, que la compañía asegura haber pionerizado desde 2021, forma parte de su estrategia para garantizar la seguridad y alineación ética de sus sistemas.

Brad Smith, presidente de Microsoft, destacó que la operación de este equipo se basa en principios públicos que actúan como límites operativos. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crear guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo. Smith añadió que la gestión de la tecnología no solo implica decidir cuándo utilizarla, sino también determinar cuándo no debe ser usada.

El reporte indica que la metodología del ‘red teaming’ tiene sus orígenes en prácticas militares y se ha aplicado en el campo de la ciberseguridad durante décadas. En el caso de Microsoft, este grupo interno simula ataques y pruebas de estrés contra los modelos de IA para evaluar su comportamiento bajo condiciones adversas o manipuladas.

La existencia de este equipo surge en un contexto de debate global sobre el uso de la inteligencia artificial en sectores sensibles, incluyendo la defensa. Antecedentes relevantes incluyen la cancelación de un acuerdo entre Microsoft y el Pentágono en 2021, así como acciones legales recientes de otras empresas del sector, como Anthropic, que ha demandado al Departamento de Defensa de Estados Unidos por cuestiones relacionadas con el uso de sus tecnologías.

Aunque la compañía no detalló la composición específica del equipo ni los métodos técnicos exactos empleados en las pruebas actuales, la estructura busca integrar diversas perspectivas para anticipar riesgos. La estrategia de seguridad interna refleja un enfoque preventivo ante los posibles impactos sociales y operativos de la IA avanzada.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *