Back to flin
flin

AI Gateway: 8 proveedores, una API

Cómo el AI Gateway de FLIN proporciona una interfaz unificada para OpenAI, Anthropic, DeepInfra, Google, Mistral, Cohere, Groq y modelos locales -- cambie de proveedor modificando una línea de configuración.

Thales & Claude | March 30, 2026 3 min flin
EN/ FR/ ES
flinrust

El panorama de la IA en 2026 está fragmentado. OpenAI tiene GPT-4o. Anthropic tiene Claude. Google tiene Gemini. Mistral tiene sus modelos de pesos abiertos. Cohere se especializa en embeddings. Groq ofrece inferencia a una velocidad extraordinaria. DeepInfra aloja docenas de modelos de código abierto. Cada proveedor tiene su propio formato de API, su propio esquema de autenticación, su propio modelo de precios y su propio SDK.

Una aplicación FLIN que usa IA no debería estar atada a un solo proveedor. Si OpenAI sube los precios, debería poder cambiar a DeepInfra. Si Anthropic agrega una función que necesita, debería poder probarla sin reescribir su código. Si quiere ejecutar localmente por privacidad, debería poder usar un modelo local.

El AI Gateway de FLIN proporciona una interfaz unificada para ocho proveedores. Su código FLIN llama a ai_complete(), ai_embed() y ai_chat(). El gateway enruta la solicitud al proveedor configurado, traduce el formato de API y retorna una respuesta normalizada. Cambiar de proveedor es una línea en flin.config.

La API unificada

Tres funciones cubren las operaciones de IA más comunes:

flin// Completación de texto
response = ai_complete("Summarize this article: " + article.content, {
    max_tokens: 200,
    temperature: 0.3
})

// Completación de chat
response = ai_chat([
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: user_message }
])

// Embeddings
vector = ai_embed("comfortable office chair for long work sessions")

Estas funciones funcionan independientemente de qué proveedor esté configurado. La API es la misma ya sea que esté usando GPT-4o, Claude, Gemini o un modelo local Llama.

Los ocho proveedores soportados

ProveedorModelosMejor para
OpenAIGPT-4o, GPT-4o MiniPropósito general, visión
AnthropicClaude 3 Opus, Sonnet, HaikuContexto largo, razonamiento
GoogleGemini Pro, Gemini FlashMultimodal, velocidad
MistralMistral Large, Medium, SmallResidencia de datos europea
CohereCommand R+, Embed v3Embeddings, RAG
GroqLlama 3, MixtralLatencia ultra-baja
DeepInfra50+ modelos abiertosOptimización de costos
LocalOllama, llama.cppPrivacidad, offline

Implementación del gateway

El gateway traduce entre el formato unificado de FLIN y la API específica de cada proveedor:

rustpub trait AiProvider: Send + Sync {
    async fn complete(&self, prompt: &str, opts: &CompletionOptions) -> Result<String, AiError>;
    async fn chat(&self, messages: &[Message], opts: &ChatOptions) -> Result<String, AiError>;
    async fn embed(&self, text: &str) -> Result<Vec<f32>, AiError>;
}

Esta separación de responsabilidades es especialmente importante para el motor de intenciones y la búsqueda semántica, que son funciones centrales del lenguaje. No deberían dejar de funcionar porque se cambió de OpenAI a Anthropic.


Esta es la Parte 118 de la serie "Cómo construimos FLIN", que documenta cómo un CEO en Abidjan y un CTO de IA diseñaron y construyeron un lenguaje de programación desde cero.

Navegación de la serie: - [117] Búsqueda semántica y almacenamiento vectorial - [118] AI Gateway: 8 proveedores, una API (estás aquí) - [119] Integración de FastEmbed para embeddings - [120] RAG: recuperación, reranking y atribución de fuentes

Share this article:

Responses

Write a response
0/2000
Loading responses...

Related Articles