Flash News

Archivo

"Para que la racionalidad del debate pueda existir, tal y como preconizaba la teoría liberal clásica, no basta la libertad formal de todos los ciudadanos para intervenir. Es preciso también que todos los participantes estén dotados de canales de información eficaces para conocer a fondo la realidad en torno a la que discuten. Requieren además una 'conciencia crítica' que les mantenga alerta y les impulse a aceptar el esfuerzo de analizar con rigor los problemas públicos. Unos ciudadanos despreocupados por la calidad de las informaciones de actualidad que reciben, ignorantes del grado de superficialidad y escasez de las explicaciones de la actualidad pública que llegan a recibir, es un público desposeído de capacidad real de participación" (José Luis Dader)

Mail Instagram Pinterest RSS
Mega Menu

Google busca fallos en su IA y ofrece hasta 30.000 dólares por detectarlos

fallos en su IA

La inteligencia artificial se ha convertido en el corazón de muchos productos digitales, y Google lo sabe bien. A medida que integra modelos como Gemini en su ecosistema, también crece su preocupación por mantener la seguridad de estos sistemas. Por eso, ha dado un paso firme con un nuevo programa de recompensas que busca incentivar la identificación de fallos y abusos en sus productos impulsados por IA. Las recompensas pueden alcanzar los 30.000 dólares, dependiendo de la gravedad y originalidad del hallazgo.

Una evolución del programa de vulnerabilidades existente

Este nuevo enfoque no parte desde cero. Se trata de una extensión del Abuse Vulnerability Reward Program (VRP) que Google ya ofrecía, pero con un marco más definido para abordar los riesgos que surgen con la adopción de IA. Desde 2023, Google comenzó a aceptar informes sobre problemas relacionados con inteligencia artificial, lo que ya ha generado más de 430.000 dólares en pagos a investigadores. Sin embargo, el crecimiento del uso de IA en productos como Google Search, AI Studio o Workspace motivó la necesidad de crear una iniciativa específica.

Cuáles son los errores que Google quiere encontrar

El nuevo programa especifica claramente qué tipos de vulnerabilidades están dentro del alcance. Se priorizan aquellas que tienen impacto directo en la seguridad o permiten abusos del sistema. Algunos ejemplos incluyen:

  • Acciones deshonestas o «rogue actions»: como el uso de comandos indirectos para que dispositivos como Google Home desbloqueen una puerta sin autorización.
  • Robo de datos sensibles: situaciones en las que se logre extraer información personal sin permiso, como mediante inyecciones de prompt que envíen datos por correo a un atacante.
  • Facilitación de phishing: vulnerabilidades que permitan la inserción de HTML malicioso que afecte a varios usuarios.
  • Robo de modelos: acceso indebido a los parámetros confidenciales de modelos de IA, como si se expusieran a través de una API mal protegida.
  • Manipulación del contexto: interferencias persistentes en el entorno de IA sin que el usuario lo detecte.
  • Evasiones de control de acceso: cuando se logra acceder a información que debería estar restringida.

Google también estará abierto a recibir informes sobre otras formas de abuso relacionadas con IA, como el uso no autorizado de productos o la denegación de servicio entre usuarios.

Lo que no está permitido: exclusiones del programa

Tan importante como saber qué errores reportar es entender cuáles no serán considerados. Google ha sido claro en establecer los límites del programa para evitar confusiones. No se aceptarán:

  • «Jailbreaks» de modelos: a pesar del interés de la comunidad, Google considera que su replicabilidad es baja y muchas veces solo afectan al entorno del propio usuario.
  • Problemas de contenido: errores que generen respuestas incorrectas u ofensivas no se contemplan, ya que suelen estar relacionados con alucinaciones del modelo.
  • Productos de Google Cloud como Vertex AI: para estos casos existe un canal independiente mediante el programa Google Cloud VRP.

Este enfoque busca canalizar los esfuerzos hacia problemas concretos y replicables que tengan un impacto real en la seguridad.

Cuánto se puede ganar según el tipo de error

La recompensa económica varía según la gravedad y la complejidad del hallazgo. Un informe sobre una acción deshonesta de alto impacto puede valer hasta 10.000 dólares, mientras que una vulnerabilidad por acceso indebido puede pagarse con 2.500 dólares. A esto se suma un bono por originalidad que puede agregar hasta 10.000 dólares extra, alcanzando un total máximo de 30.000 dólares por hallazgo.

Es decir, si un investigador logra descubrir una forma novedosa de vulnerar la IA de Google que, por ejemplo, permita el robo encubierto de datos personales mediante una manipulación creativa del contexto, podría llevarse una suma importante.

Por qué Google lanza este programa ahora

La razón es clara: la IA se está integrando de forma profunda y rápida en los productos de Google, y con ello aumentan también los posibles puntos de fallo. Al incentivar a la comunidad de investigadores y expertos en ciberseguridad, Google busca anticiparse a los problemas antes de que se conviertan en incidentes reales.

Es una estrategia que recuerda a lo que hacen algunas empresas de automóviles cuando llaman a revisión ciertos modelos antes de que ocurran accidentes. Detectar vulnerabilidades antes de que sean explotadas permite proteger mejor a los usuarios y evitar crisis de confianza.

Un paso hacia una IA más segura y transparente

La iniciativa también tiene un componente de transparencia. Al publicar los criterios del programa y compartir las áreas de interés, Google reconoce que la IA, por potente que sea, no está libre de errores. Esta apertura a la colaboración externa permite construir sistemas más robustos y resistentes.

Para quienes se dedican al análisis de seguridad, este programa representa una oportunidad real de contribuir al desarrollo responsable de la tecnología, mientras obtienen una recompensa justa por su trabajo.


La noticia Google busca fallos en su IA y ofrece hasta 30.000 dólares por detectarlos fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.

https://ift.tt/iVnOZmF
by Natalia Polo via WWWhat's new

0 desahogos:

Publicar un comentario

Los comentarios son opiniones personales y no necesariamente coinciden ideológicamente con esta pagina. Tu cosmovisión es única e irrepetible.