
Atlas, el nuevo navegador con inteligencia artificial presentado por OpenAI, nació con la promesa de facilitar tareas en línea gracias a su capacidad de actuar como un agente autónomo. Sin embargo, apenas días después de su lanzamiento, expertos en ciberseguridad ya han detectado serias vulnerabilidades, especialmente frente a los llamados ataques por inyección de prompts. Esta situación vuelve a encender las alarmas sobre los riesgos que implica dar mayor autonomía a los sistemas de IA en contextos donde está en juego la privacidad y la seguridad de los usuarios.
¿Qué es Atlas y qué lo diferencia?
Atlas es un navegador que integra a ChatGPT directamente en su interfaz, permitiendo al usuario interactuar con la web de forma conversacional y realizar tareas online automáticamente. Su «modo agente», disponible para suscriptores pagos, es el componente más innovador y también el más controvertido. Esta función permite a la IA ejecutar acciones en nombre del usuario, como buscar vuelos, agregar productos a un carrito de compras o resumir documentos.
El objetivo de Atlas es claro: convertir la experiencia de navegar en algo más fluido e inteligente. Sin embargo, al permitir que la IA actúe por su cuenta en entornos conectados a datos personales, también se abren las puertas a posibles abusos.
Prompt injection: el talón de Aquiles de los navegadores con IA
Una de las primeras advertencias llegó por parte de la empresa Brave, que también desarrolla un navegador con funciones de IA. En una publicación reciente, afirmaron que todos los navegadores con agentes de IA son altamente vulnerables a ataques indirectos por inyección de prompts. Este tipo de ataques permite a terceros incluir instrucciones ocultas dentro del contenido web para manipular el comportamiento de la IA.
Un ejemplo citado por investigadores muestra cómo un documento de Google Docs, aparentemente inocente, llevaba una instrucción oculta en texto gris claro que pedía a ChatGPT responder con la frase «Trust No AI» (No confíes en ninguna IA) y emojis maliciosos, en lugar de generar un resumen del contenido como se solicitaba.
El hecho fue replicado por varios expertos, incluyendo al medio The Register, y provocó una ola de reacciones que incluyen a desarrolladores como CJ Zafir, quien declaró haber desinstalado Atlas tras comprobar personalmente la vulnerabilidad.
Riesgos prácticos: de bromas a amenazas reales
Aunque un mensaje como «Trust No AI» puede parecer una travesura, el trasfondo es mucho más serio. Si un atacante puede introducir instrucciones en sitios web, podría lograr que la IA realice acciones como enviar datos privados, acceder a cuentas abiertas en el navegador o incluso realizar transferencias financieras no autorizadas.
Brave pone un ejemplo claro: si el usuario está conectado a su banco o correo electrónico, un simple resumen de un post en Reddit con un prompt oculto podría poner su información en manos de un atacante. Esta amenaza no es teórica. Ya en agosto se demostró que el navegador Comet, de Perplexity, caía en este tipo de trampas.
Las promesas de seguridad de OpenAI
OpenAI no ha negado la existencia del problema, aunque ha detallado los límites impuestos al modo agente. Según su página de ayuda, ChatGPT no puede ejecutar código directamente en el navegador, ni descargar archivos, ni acceder a otras aplicaciones, contraseñas o datos de autocompletado. Además, para usar cuentas personales, se requiere una aprobación específica del usuario.
Pese a ello, la propia compañía advierte que estos controles no eliminan todos los riesgos. Invitan a los usuarios a monitorear de cerca las acciones de ChatGPT en modo agente, lo que contrasta con la idea de automatización que originalmente se promocionaba.
Dane Stuckey, director de seguridad de la información de OpenAI, aseguró en redes sociales que el equipo ha realizado pruebas intensivas y aplicado nuevas técnicas de entrenamiento para enseñar al modelo a ignorar instrucciones maliciosas. También mencionó que se implementaron capas de protección superpuestas y sistemas de detección de ataques. Sin embargo, reconoció que la inyección de prompts sigue siendo un problema de seguridad sin resolver y en constante evolución.
Críticas a la utilidad del navegador
Más allá de la seguridad, también hay cuestionamientos sobre la necesidad misma de este tipo de navegadores. Simon Willison, reconocido programador británico, expresó que considera este tipo de agentes confusos y que los riesgos en privacidad y seguridad siguen siendo demasiado altos. Otros expertos, como Johann Rehberger, reconocen los esfuerzos de OpenAI, pero señalan que contenidos cuidadosamente diseñados pueden seguir engañando a Atlas para ejecutar acciones bajo el control de atacantes.
Esta situación plantea una pregunta incómoda: ¿vale la pena usar un navegador con IA que puede tardar diez minutos en agregar tres productos al carrito o dieciséis en buscar vuelos, si a cambio el usuario se expone a vulnerabilidades graves?
El futuro incierto de la navegación con IA
La idea de tener un asistente digital que navegue por nosotros, lea por nosotros y ejecute tareas parece sacada de una película de ciencia ficción. Sin embargo, aún falta madurez tecnológica para que esa experiencia sea segura. La IA necesita ser como un amigo de confianza que sepa cuidar nuestras llaves sin meterlas en el buzón de alguien más por error. Hoy por hoy, ese amigo sigue aprendiendo y cometiendo errores.
El caso de Atlas demuestra que avanzar demasiado rápido en la autonomía de las IAs sin resolver problemas estructurales puede tener consecuencias graves. La seguridad, la privacidad y la transparencia deberían estar siempre por delante de la innovación acelerada. Y los usuarios, como parte del ecosistema, necesitan más información y menos promesas.
https://ift.tt/cP5CuJv
by Natalia Polo via WWWhat's new












0 desahogos:
Publicar un comentario
Los comentarios son opiniones personales y no necesariamente coinciden ideológicamente con esta pagina. Tu cosmovisión es única e irrepetible.