Flash News

Archivo

"Para que la racionalidad del debate pueda existir, tal y como preconizaba la teoría liberal clásica, no basta la libertad formal de todos los ciudadanos para intervenir. Es preciso también que todos los participantes estén dotados de canales de información eficaces para conocer a fondo la realidad en torno a la que discuten. Requieren además una 'conciencia crítica' que les mantenga alerta y les impulse a aceptar el esfuerzo de analizar con rigor los problemas públicos. Unos ciudadanos despreocupados por la calidad de las informaciones de actualidad que reciben, ignorantes del grado de superficialidad y escasez de las explicaciones de la actualidad pública que llegan a recibir, es un público desposeído de capacidad real de participación" (José Luis Dader)

Mail Instagram Pinterest RSS
Mega Menu

Nomic Embed: El modelo de embeddings que desafía a OpenAI con apertura total

modelo de generación de imágenes de OpenAI

En el mundo de la inteligencia artificial, la carrera por los mejores modelos de embeddings de texto ha estado dominada por nombres como OpenAI y Jina AI. Sin embargo, una nueva propuesta está marcando un antes y un después: Nomic Embed, un modelo que no solo promete alto rendimiento, sino que se construye sobre una filosofía clara: apertura total.

¿Qué significa esto? Que es un modelo open source, con datos abiertos, código de entrenamiento disponible, y completamente auditables. Pero vayamos paso a paso.

¿Qué son los embeddings de texto y para qué sirven?

Los text embeddings son representaciones numéricas de fragmentos de texto —como frases, párrafos o documentos— en forma de vectores. Estos vectores capturan el significado semántico del contenido y permiten compararlos entre sí, clasificarlos, buscarlos o visualizarlos.

Para visualizarlo con un ejemplo cotidiano, imagina que cada texto se convierte en un punto en un mapa tridimensional, y los textos parecidos entre sí se ubican más cerca unos de otros. Esto es esencial en tareas como búsqueda semántica, clasificación de contenidos, chatbots inteligentes y, sobre todo, en sistemas de RAG (retrieval-augmented generation) usados por modelos como GPT.

El desafío con los modelos actuales

Hasta ahora, modelos como text-embedding-ada-002 de OpenAI han sido los más usados, gracias a su rendimiento y a su capacidad para manejar textos largos (hasta 8192 tokens). Sin embargo, presentan varias limitaciones:

  • Son cerrados, lo que significa que no puedes ver ni auditar los datos ni el proceso con el que fueron entrenados.

  • No son reproducibles por terceros.

  • Dependes completamente del proveedor.

Por otro lado, opciones open source como E5-Mistral o jina-embeddings-v2 ofrecen cierta apertura, pero no logran superar en rendimiento a los modelos de OpenAI, o bien tienen un tamaño que los hace poco prácticos.

Ahí es donde entra en juego Nomic Embed.

¿Qué hace especial a Nomic Embed?

Nomic Embed ha sido entrenado con un contexto largo de 8192 tokens, como los modelos de OpenAI, pero su gran diferencia está en su transparencia y accesibilidad. Está construido con:

  • Modelo y pesos completamente abiertos

  • Código de entrenamiento publicado

  • Datos curados y disponibles públicamente

  • Licencia Apache-2, ideal para uso comercial

Además, ofrece mejor rendimiento en varias métricas clave, como veremos a continuación.

Cómo fue construido Nomic Embed

Para lograr un modelo competitivo, el equipo de Nomic siguió una estrategia de entrenamiento en varias etapas:

1. Entrenamiento inicial con BERT extendido

El modelo parte de una base BERT modificada, al que llamaron nomic-bert-2048, capaz de manejar secuencias más largas que el BERT tradicional (2048 vs 512 tokens). Para esto, utilizaron técnicas como:

  • Rotary Position Embeddings, que ayudan a generalizar a contextos más largos.

  • Activaciones SwiGLU, más eficientes y precisas.

  • FlashAttention y entrenamiento con BF16 para mejorar velocidad y memoria.

  • Un masking del 30%, el doble del tradicional, para aumentar el aprendizaje.

2. Aprendizaje contrastivo a gran escala

Luego, se entrenó el modelo con más de 235 millones de pares de texto, provenientes de fuentes como StackExchange, Quora, Amazon y artículos de noticias. Estos datos fueron validados y organizados usando la plataforma Nomic Atlas.

3. Ajuste fino con datos curados

La etapa final consistió en un ajuste fino con datos de mayor calidad, como preguntas y respuestas de búsquedas web. Aquí se aplicó una estrategia clave: minería de ejemplos difíciles, para forzar al modelo a diferenciar mejor entre casos similares.

¿Qué tan bien funciona?

En pruebas como Massive Text Embedding Benchmark (MTEB), Nomic Embed superó a OpenAI Ada-002 y a Jina V2. Pero el verdadero diferencial aparece en tareas de contexto largo, donde muchos modelos fallan.

En el LoCo Benchmark, diseñado para medir la comprensión de textos extensos, Nomic Embed logró una puntuación de 85.53, superando a Ada-002 (52.7) y posicionándose como el mejor modelo open source de menos de 200M parámetros en tareas no supervisadas.

Incluso se comparó visualmente cómo los modelos organizan la información. Por ejemplo, al analizar artículos de Wikipedia con el texto “may refer to” (que suelen ser páginas de desambiguación), Nomic Embed los agrupó de forma coherente, mientras que Ada los dispersó por todo el espacio vectorial. Esto muestra que Nomic Embed tiene una comprensión estructural más precisa del lenguaje.

¿Dónde y cómo se puede usar?

El modelo está disponible en varias formas:

  • A través de la API de Nomic Atlas, con 1 millón de tokens gratuitos.

  • Integración directa con Python (pip install nomic)

  • Infraestructura dedicada en AWS Marketplace

  • Descarga directa de los pesos y datos para correr localmente, sin restricciones.

Este nivel de accesibilidad y transparencia no tiene precedentes en modelos de su categoría.

¿Qué ventajas ofrece frente a otras alternativas?

 

Modelo Longitud Código Abierto Datos Abiertos Rendimiento Contexto Largo Uso Comercial
Nomic Embed 8192 ✅ Alta
OpenAI Ada-002 8192 Medio
Jina V2 Base 8192 Medio
E5-Mistral (7B) 4096 Muy Alto (pero pesado)

¿Para quién es útil Nomic Embed?

  • Desarrolladores que necesiten modelos auditables sin depender de terceros.

  • Empresas que buscan privacidad, cumplimiento normativo y flexibilidad de despliegue.

  • Investigadores que quieren experimentar y comparar sin restricciones.

  • Startups que necesitan un balance entre rendimiento, coste y apertura.


Nomic Embed representa un nuevo estándar en modelos de embeddings: abierto, potente y confiable. No solo supera a muchas alternativas cerradas, sino que también redefine cómo debería construirse la infraestructura semántica de la IA moderna.


La noticia Nomic Embed: El modelo de embeddings que desafía a OpenAI con apertura total fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.

https://ift.tt/gQaTlEH
by Juan Diego Polo via WWWhat's new

0 desahogos:

Publicar un comentario

Los comentarios son opiniones personales y no necesariamente coinciden ideológicamente con esta pagina. Tu cosmovisión es única e irrepetible.