Back to flin
flin

Búsqueda semántica y almacenamiento vectorial

Cómo el tipo semantic text de FLIN y la palabra clave search permiten búsqueda basada en significado -- generación automática de embeddings, indexación vectorial HNSW y ranking por similitud del coseno integrados en el lenguaje.

Thales & Claude | March 30, 2026 3 min flin
EN/ FR/ ES
flinrust

La búsqueda de texto tradicional coincide palabras. Se busca "silla" y se encuentran documentos que contienen la palabra "silla". Pero se pierden "asiento", "taburete", "sillón" y "butaca" -- palabras que significan lo mismo pero usan diferentes letras. La búsqueda por palabras clave es rápida y predecible, pero no entiende el significado.

La búsqueda semántica coincide significado. Se busca "asiento cómodo para oficina" y se encuentran productos descritos como "silla ergonómica de escritorio", "taburete ajustable giratorio" y "asiento de oficina con soporte lumbar" -- aunque ninguna de estas descripciones contenga las palabras "cómodo" o "asiento". La búsqueda entiende conceptos, no solo caracteres.

FLIN integra la búsqueda semántica en el sistema de tipos. Un campo declarado como semantic text se embebe automáticamente como vector, se indexa para búsqueda rápida por similitud y se puede consultar con la palabra clave search. Sin Pinecone. Sin Elasticsearch. Sin base de datos vectorial que configurar y mantener.

El tipo semantic text

El modificador semantic en un campo de texto le dice a FLIN que genere embeddings automáticamente:

flinentity Product {
    name: text                    // Texto regular -- coincidencia exacta
    description: semantic text    // Semántico -- búsqueda basada en significado
    sku: text                     // Texto regular -- identificadores
}

Cuando se guarda un campo semantic text, FLIN: 1. Almacena el texto original en FlinDB. 2. Genera un embedding vectorial usando el modelo de IA configurado. 3. Indexa el embedding en un índice HNSW (Hierarchical Navigable Small World). 4. Asocia el embedding con la instancia de la entidad.

Los cuatro pasos ocurren atómicamente al hacer save. El desarrollador escribe save product y el embedding se genera. No hay paso de indexación separado, ni trabajo por lotes, ni proceso de sincronización.

La palabra clave search realiza búsqueda por similitud semántica:

flinresults = search "comfortable seating for office"
          in Product
          by description
          limit 10

La sintaxis es: search "consulta" in Entidad by campo [limit N]

La cadena de consulta se embebe usando el mismo modelo que el campo, luego se compara contra todos los embeddings almacenados usando similitud del coseno. Los resultados se clasifican por puntuación de similitud y los N principales se retornan como entidades FLIN tipadas.

Rendimiento

OperaciónTiempoNotas
Generación de embedding (API)100-300 msDepende de longitud del texto y proveedor
Generación de embedding (local)10-50 msCon FastEmbed
Inserción HNSW< 1 msPor documento
Búsqueda HNSW (10K docs)< 2 msTop 10 resultados
Búsqueda HNSW (100K docs)< 5 msTop 10 resultados
Búsqueda HNSW (1M docs)< 15 msTop 10 resultados

La búsqueda semántica transforma cómo los usuarios interactúan con los datos. En lugar de requerir que conozcan las palabras clave exactas, categorías o etiquetas, describen lo que quieren en lenguaje natural y FLIN encuentra las coincidencias más cercanas.


Esta es la Parte 117 de la serie "Cómo construimos FLIN", que documenta cómo un CEO en Abidjan y un CTO de IA diseñaron y construyeron un lenguaje de programación desde cero.

Navegación de la serie: - [116] El motor de intenciones: consultas de base de datos en lenguaje natural - [117] Búsqueda semántica y almacenamiento vectorial (estás aquí) - [118] AI Gateway: 8 proveedores, una API - [119] Integración de FastEmbed para embeddings

Share this article:

Responses

Write a response
0/2000
Loading responses...

Related Articles