Flash News

Archivo

"Para que la racionalidad del debate pueda existir, tal y como preconizaba la teoría liberal clásica, no basta la libertad formal de todos los ciudadanos para intervenir. Es preciso también que todos los participantes estén dotados de canales de información eficaces para conocer a fondo la realidad en torno a la que discuten. Requieren además una 'conciencia crítica' que les mantenga alerta y les impulse a aceptar el esfuerzo de analizar con rigor los problemas públicos. Unos ciudadanos despreocupados por la calidad de las informaciones de actualidad que reciben, ignorantes del grado de superficialidad y escasez de las explicaciones de la actualidad pública que llegan a recibir, es un público desposeído de capacidad real de participación" (José Luis Dader)

Mail Instagram Pinterest RSS
Mega Menu

Google refuerza la defensa cibernética con inteligencia artificial: así funcionan CodeMender, SAIF 2.0 y el AI VRP

defensa cibernética con inteligencia artificial

La inteligencia artificial ya no es solo una herramienta de productividad o creatividad. En el terreno de la ciberseguridad, está comenzando a desempeñar un papel fundamental en la defensa contra amenazas cada vez más sofisticadas. Google, consciente de los riesgos emergentes que trae consigo la automatización inteligente, ha presentado una serie de iniciativas para fortalecer la seguridad de los sistemas que utilizan IA, al mismo tiempo que aprovecha su potencial para proteger infraestructuras digitales a gran escala.

CodeMender: el agente que repara vulnerabilidades de forma autónoma

Uno de los desarrollos más relevantes presentados por Google es CodeMender, un agente potenciado por sus modelos Gemini, capaz de detectar y solucionar fallos críticos de seguridad en el código sin intervención humana directa. Este sistema no solo automatiza la generación de parches, sino que también los valida mediante agentes críticos especializados que actúan como revisores automáticos. Esta dinámica es comparable a un equipo de cirujanos robóticos que no solo realizan la operación, sino que también verifican que todo esté correctamente suturado antes de entregar el informe al médico principal.

CodeMender se apoya en técnicas como el fuzzing y los teoremas automáticos, con el objetivo de identificar la causa raíz de los errores, no solo los síntomas superficiales. Esto le permite ser más preciso al corregir los problemas y reducir el riesgo de futuras fallas derivadas de soluciones parciales o mal enfocadas. En el entorno del código abierto, donde la velocidad para corregir errores es crítica, CodeMender acelera notablemente los tiempos de respuesta, ampliando la escala y eficiencia de los equipos de seguridad.

AI VRP: recompensas para quienes detecten vulnerabilidades en IA

Google también ha fortalecido su relación con la comunidad de investigadores en seguridad mediante el lanzamiento del AI Vulnerability Reward Program (AI VRP). Este programa centraliza y clarifica qué tipos de vulnerabilidades relacionadas con la IA están dentro del alcance de recompensas, facilitando el reporte y aumentando los incentivos para hallar y divulgar fallas críticas.

Este enfoque busca canalizar el esfuerzo de los investigadores hacia problemas reales y de alto impacto, integrando ahora también los problemas de abuso que antes estaban bajo programas separados. La idea es sencilla: si alguien encuentra un error grave en un sistema de IA de Google, puede reportarlo bajo normas unificadas y recibir una compensación adecuada. Esta estrategia ha demostrado su efectividad, ya que hasta la fecha, Google ha otorgado más de 430.000 dólares por este tipo de hallazgos.

Un punto clave en el nuevo AI VRP es la diferenciación de canales de reporte. Las preocupaciones relacionadas con el contenido (por ejemplo, respuestas problemáticas de una IA conversacional) deben enviarse mediante los mecanismos integrados en los productos, ya que estos recogen información crítica como el contexto del usuario y la versión del modelo. De esta manera, el equipo de seguridad puede hacer un análisis más preciso y tomar decisiones de mejora estructural.

SAIF 2.0: un nuevo marco para una nueva generación de riesgos

La creciente autonomía de los agentes de IA ha llevado a Google a actualizar su Secure AI Framework (SAIF), que ahora llega a su versión 2.0. Esta nueva iteración introduce orientaciones específicas sobre los riesgos asociados a agentes autónomos y cómo mitigarlos de forma efectiva.

SAIF 2.0 se basa en tres pilares fundamentales: cada agente debe tener un control humano claramente definido, sus capacidades deben estar limitadas de forma precisa, y tanto sus acciones como su planificación deben ser observables y auditables. Es como tener un asistente que puede actuar por sí solo, pero siempre bajo supervisión, con un conjunto claro de reglas y una caja negra que graba cada movimiento para poder revisarlo si algo sale mal.

Como herramienta complementaria, se introduce un mapa de riesgos de agentes, que permite a los equipos de seguridad identificar amenazas específicas en distintos niveles del ecosistema de IA, desde el modelo subyacente hasta la interfaz que interactúa con el usuario final. Esta información se está compartiendo con la iniciativa Coalition for Secure AI Risk Map, lo que demuestra el compromiso de Google por una seguridad colaborativa y transversal en la industria.

Una estrategia compartida entre el sector público y privado

Google no actúa en solitario en esta cruzada. Ha establecido alianzas estratégicas con entidades como DARPA y forma parte de coaliciones como CoSAI (Coalition for Secure AI), donde comparte metodologías y mejores prácticas para la creación de agentes de IA seguros desde su diseño. Este trabajo conjunto con gobiernos y sociedad civil tiene como objetivo principal transformar la IA en un aliado firme contra el cibercrimen, en lugar de una herramienta que pueda ser secuestrada por actores maliciosos.

Con estas iniciativas, Google busca no solo proteger sus propios sistemas, sino también contribuir al fortalecimiento del ecosistema digital global. CodeMender, SAIF 2.0 y el AI VRP son ejemplos concretos de cómo se puede usar la inteligencia artificial para anticiparse a los atacantes, automatizar las respuestas y fomentar una cultura de seguridad compartida.



https://ift.tt/zdb2Ami
by Natalia Polo via WWWhat's new

0 desahogos:

Publicar un comentario

Los comentarios son opiniones personales y no necesariamente coinciden ideológicamente con esta pagina. Tu cosmovisión es única e irrepetible.