SAIF (Secure AI Framework) es un framework desarrollado por Google que ofrece una guía práctica para gestionar los riesgos de seguridad en la inteligencia artificial. Aborda de forma sistemática amenazas comunes como la manipulación de datos (data poisoning) y la inyección de prompts, mediante un mapa de riesgos claro y análisis de componentes. SAIF también proporciona estrategias prácticas de mitigación para cada una de estas amenazas. Consideramos que su enfoque en los riesgos emergentes relacionados con la construcción de sistemas con agentes resulta especialmente oportuno y valioso. SAIF ofrece un manual conciso y accionable que los equipos pueden utilizar para fortalecer sus prácticas de seguridad en el uso de LLMs y aplicaciones impulsadas por IA.