Flash News

Archivo

"Para que la racionalidad del debate pueda existir, tal y como preconizaba la teoría liberal clásica, no basta la libertad formal de todos los ciudadanos para intervenir. Es preciso también que todos los participantes estén dotados de canales de información eficaces para conocer a fondo la realidad en torno a la que discuten. Requieren además una 'conciencia crítica' que les mantenga alerta y les impulse a aceptar el esfuerzo de analizar con rigor los problemas públicos. Unos ciudadanos despreocupados por la calidad de las informaciones de actualidad que reciben, ignorantes del grado de superficialidad y escasez de las explicaciones de la actualidad pública que llegan a recibir, es un público desposeído de capacidad real de participación" (José Luis Dader)

Mail Instagram Pinterest RSS
Mega Menu

Una nueva vulnerabilidad en chips pone en jaque la privacidad en la inteligencia artificial

vulnerabilidad en chips

Un reciente estudio realizado por investigadores de la Universidad Estatal de Carolina del Norte ha revelado un punto crítico de exposición en los sistemas de inteligencia artificial (IA), esta vez no desde el software, sino desde el propio hardware. La vulnerabilidad, bautizada como GATEBLEED, permite a los atacantes extraer información sobre los datos de entrenamiento utilizados por un modelo de IA, incluso sin tener acceso directo a su memoria. Este hallazgo plantea nuevas preocupaciones en torno a la privacidad y la seguridad de los datos en entornos cada vez más dependientes de aceleradores especializados.

Lo llamativo de esta amenaza es su capacidad para aprovechar una característica de diseño de los chips, conocida como power gating, que en esencia es una técnica para ahorrar energía apagando partes del procesador cuando no están en uso. Pero, como si se tratara de dejar huellas en la arena al caminar descalzo, esta función deja trazas medibles en los tiempos de ejecución que pueden ser analizadas para deducir si ciertos datos estuvieron presentes durante el entrenamiento del modelo.

Cómo funciona el ataque y por qué es tan peligroso

La técnica descrita en el estudio, que será presentada oficialmente en la conferencia IEEE/ACM MICRO 2025, se apoya en las fluctuaciones de consumo energético en los aceleradores del chip, generadas por el uso de power gating. Aunque este mecanismo busca eficiencia, los cambios que introduce en los tiempos de procesamiento actúan como un canal de comunicación encubierto. A través de este canal, un software malicioso, sin privilegios de administrador, puede deducir con gran precisión qué datos fueron utilizados para entrenar un modelo.

Esto tiene implicaciones profundas: por ejemplo, podría servir para comprobar si una empresa ha usado datos sin consentimiento o protegidos por derechos, exponiéndola a litigios y daños reputacionales. Además, podría revelar información privada sobre usuarios cuyos datos fueron incluidos en los conjuntos de entrenamiento.

El ataque puede incluso identificar qué submodelo o “experto” dentro de una arquitectura de IA tomó una decisión, un detalle relevante en sistemas complejos como los modelos Mixture of Experts, que distribuyen tareas entre múltiples módulos especializados. Esta información, en manos equivocadas, podría utilizarse para desarrollar ataques más sofisticados o para manipular el comportamiento del sistema.

Limitaciones de las defensas actuales

A diferencia de otras amenazas comunes en el ámbito digital, como los fallos en el código o los errores de configuración, GATEBLEED no puede ser abordado eficazmente con soluciones tradicionales de software. Esto se debe a que el origen del problema está en el diseño físico del chip. Los expertos advierten que las defensas actuales, centradas en el software, simplemente no son suficientes.

Modificar el diseño del chip para bloquear este tipo de ataques implicaría rediseñar componentes clave, lo cual no es solo costoso, sino que también puede afectar al rendimiento, al consumo energético y a los plazos de entrega de nuevos productos. Otras posibles soluciones como actualizaciones de microcódigo o ajustes a nivel de sistema operativo podrían ayudar, pero no eliminan completamente el riesgo.

Es como si el problema estuviera en los cimientos de una casa ya construida: puedes reforzar las paredes o poner alarmas en las puertas, pero si la grieta está en la base, el riesgo persiste.

Implicaciones legales y éticas

El descubrimiento de GATEBLEED no solo plantea desafíos técnicos, sino que también toca fibras sensibles en el plano legal y ético. Si un atacante puede demostrar que un modelo fue entrenado con datos no autorizados, podría abrirse una caja de Pandora en términos de demandas y regulaciones. Esta posibilidad cambiaría las reglas del juego para muchas empresas tecnológicas, que deberían ser capaces de demostrar con claridad la procedencia y el uso correcto de los datos de entrenamiento.

Además, este tipo de vulnerabilidades podría alimentar las preocupaciones de los usuarios sobre cómo se utilizan sus datos personales en sistemas de IA. Aunque muchos modelos aseguran anonimizar y proteger la información, GATEBLEED sugiere que podría ser posible reconstruir parte de esa información a partir de indicios sutiles en el comportamiento del hardware.

El desafío de proteger toda la cadena de valor de la IA

En los últimos años, la seguridad de los sistemas de IA se ha enfocado principalmente en el software, desde proteger los modelos contra manipulaciones hasta evitar el uso de datos falsificados. Pero este nuevo hallazgo obliga a mirar más allá, hacia una protección integral que incluya el hardware, la infraestructura y los métodos de entrenamiento.

Los especialistas en ciberseguridad ya están alertando sobre la necesidad de adoptar un enfoque transversal, que combine auditorías técnicas, colaboración entre fabricantes de chips, proveedores de servicios en la nube y desarrolladores de modelos, así como una regulación clara sobre responsabilidades en caso de fallos.

En palabras simples, la IA no es solo el cerebro que procesa la información, sino también el cuerpo que lo soporta. Si ese cuerpo tiene puntos débiles, por pequeños que parezcan, pueden convertirse en vías de entrada para amenazas que comprometen todo el sistema.



https://ift.tt/7GX0exf
by Natalia Polo via WWWhat's new

0 desahogos:

Publicar un comentario

Los comentarios son opiniones personales y no necesariamente coinciden ideológicamente con esta pagina. Tu cosmovisión es única e irrepetible.