LiteLLM es un paquete que simplifica las llamadas a API de varios proveedores de LLM (Large Language Model), como Azure, Anthropic, OpenAI, Cohere y Replicate, permitiendo realizar llamadas en un formato consistente similar al de la API de OpenAI. Integrado con OpenWebUI permite usar este interfaz de usuario contra cualquier proveedor LLM. En mi caso, uso OpenWebUI+LiteLLM para hacer consultas a groq/llama3-70b, Anthropic Claude Opus 3, GPT-4o y Gemini-1.5-pro, entre otros.
El problema es que la release 0.2.0 de OpenWebUI dejó de integrar una versión de LiteLLM. Eso no quiere decir que no se pueda usar, sino que hay que lanzar LiteLLM aparte, a través de un container Docker, por ejemplo.
Lanzamos LiteLLM:
$ docker run -d --name litellm -v $(pwd)/config.yaml:/app/config.yaml -p 4000:4000 -e LITELLM_MASTER_KEY=sk-12345 ghcr.io/berriai/litellm:main-latest --config /app/config.yaml --detailed_debug
Esa orden lanza LiteLLM a la escucha en el puerto 4000, usando config.yaml como fichero de configuración. El fichero config.yaml puede ser algo como este (no te olvides de introducir tus API Keys):
general_settings: {} litellm_settings: {} model_list: - model_name: claude-3-opus-20240229 litellm_params: api_base: https://api.anthropic.com/v1/messages api_key: sk- model: claude-3-opus-20240229 - model_name: gpt-4-turbo # user-facing model alias litellm_params: api_base: https://api.openai.com/v1 api_key: sk- model: gpt-4-turbo - model_name: gpt-4-vision-preview litellm_params: api_base: https://api.openai.com/v1 api_key: sk- model: gpt-4-vision-preview - model_name: gpt-4o litellm_params: api_base: https://api.openai.com/v1 api_key: sk- model: gpt-4o-2024-05-13 - model_name: gpt-3.5-turbo litellm_params: api_base: https://api.openai.com/v1 api_key: sk- model: gpt-3.5-turbo - model_name: gemini-1.5-pro litellm_params: api_key: AI- model: gemini/gemini-1.5-pro - model_name: groq/llama3-70b-8192 litellm_params: api_key: gsk_ model: groq/llama3-70b-8192 router_settings: {}
Ahora, desde OpenWebUI, entramos en Settings/Connections e introducimos http://host.docker.internal:4000/v1 en el campo host y sk-12345 (o la clave que hayas puesto a LiteLLM cuando lo lanzaste vía docker) en el API-Key.
Un comentario en «OpenWebUI: integración con LiteLLM»