La búsqueda de texto tradicional coincide palabras. Se busca "silla" y se encuentran documentos que contienen la palabra "silla". Pero se pierden "asiento", "taburete", "sillón" y "butaca" -- palabras que significan lo mismo pero usan diferentes letras. La búsqueda por palabras clave es rápida y predecible, pero no entiende el significado.
La búsqueda semántica coincide significado. Se busca "asiento cómodo para oficina" y se encuentran productos descritos como "silla ergonómica de escritorio", "taburete ajustable giratorio" y "asiento de oficina con soporte lumbar" -- aunque ninguna de estas descripciones contenga las palabras "cómodo" o "asiento". La búsqueda entiende conceptos, no solo caracteres.
FLIN integra la búsqueda semántica en el sistema de tipos. Un campo declarado como semantic text se embebe automáticamente como vector, se indexa para búsqueda rápida por similitud y se puede consultar con la palabra clave search. Sin Pinecone. Sin Elasticsearch. Sin base de datos vectorial que configurar y mantener.
El tipo semantic text
El modificador semantic en un campo de texto le dice a FLIN que genere embeddings automáticamente:
flinentity Product {
name: text // Texto regular -- coincidencia exacta
description: semantic text // Semántico -- búsqueda basada en significado
sku: text // Texto regular -- identificadores
}Cuando se guarda un campo semantic text, FLIN:
1. Almacena el texto original en FlinDB.
2. Genera un embedding vectorial usando el modelo de IA configurado.
3. Indexa el embedding en un índice HNSW (Hierarchical Navigable Small World).
4. Asocia el embedding con la instancia de la entidad.
Los cuatro pasos ocurren atómicamente al hacer save. El desarrollador escribe save product y el embedding se genera. No hay paso de indexación separado, ni trabajo por lotes, ni proceso de sincronización.
La palabra clave search
La palabra clave search realiza búsqueda por similitud semántica:
flinresults = search "comfortable seating for office"
in Product
by description
limit 10La sintaxis es: search "consulta" in Entidad by campo [limit N]
La cadena de consulta se embebe usando el mismo modelo que el campo, luego se compara contra todos los embeddings almacenados usando similitud del coseno. Los resultados se clasifican por puntuación de similitud y los N principales se retornan como entidades FLIN tipadas.
Rendimiento
| Operación | Tiempo | Notas |
|---|---|---|
| Generación de embedding (API) | 100-300 ms | Depende de longitud del texto y proveedor |
| Generación de embedding (local) | 10-50 ms | Con FastEmbed |
| Inserción HNSW | < 1 ms | Por documento |
| Búsqueda HNSW (10K docs) | < 2 ms | Top 10 resultados |
| Búsqueda HNSW (100K docs) | < 5 ms | Top 10 resultados |
| Búsqueda HNSW (1M docs) | < 15 ms | Top 10 resultados |
La búsqueda semántica transforma cómo los usuarios interactúan con los datos. En lugar de requerir que conozcan las palabras clave exactas, categorías o etiquetas, describen lo que quieren en lenguaje natural y FLIN encuentra las coincidencias más cercanas.
Esta es la Parte 117 de la serie "Cómo construimos FLIN", que documenta cómo un CEO en Abidjan y un CTO de IA diseñaron y construyeron un lenguaje de programación desde cero.
Navegación de la serie: - [116] El motor de intenciones: consultas de base de datos en lenguaje natural - [117] Búsqueda semántica y almacenamiento vectorial (estás aquí) - [118] AI Gateway: 8 proveedores, una API - [119] Integración de FastEmbed para embeddings