/
/
/
Ansible role that deployes services on my runner machine
1# LLM Stack Unified Environment Configuration
2
3# ==============================================================================
4# OLLAMA CONFIGURATION
5# ==============================================================================
6OLLAMA_HOST=0.0.0.0:11434
7OLLAMA_ORIGINS=*
8OLLAMA_MODELS=/root/.ollama/models
9OLLAMA_KEEP_ALIVE=24h
10OLLAMA_NUM_PARALLEL=1
11OLLAMA_MAX_LOADED_MODELS=2
12OLLAMA_LOG_LEVEL={{ llm_stack_ollama_log_level }}
13
14{% if gpu_enabled %}
15# GPU Configuration
16NVIDIA_VISIBLE_DEVICES=all
17NVIDIA_DRIVER_CAPABILITIES=compute,utility
18{% endif %}
19
20# ==============================================================================
21# OPENWEBUI CONFIGURATION
22# ==============================================================================
23OLLAMA_BASE_URL=http://ollama:11434
24WEBUI_NAME={{ llm_stack_openwebui_name }}
25WEBUI_DESCRIPTION={{ llm_stack_openwebui_description }}
26WEBUI_AUTHOR={{ llm_stack_openwebui_author }}
27LOG_LEVEL={{ llm_stack_openwebui_log_level }}
28PORT=8080
29
30# Database Configuration (OpenWebUI - uses default)
31
32# Features
33ENABLE_SIGNUP=true
34ENABLE_ADMIN=true
35DEFAULT_MODELS={{ llm_stack_openwebui_default_models }}
36DEFAULT_PROMPT_SUGGESTIONS=
37ENABLE_WEB_SEARCH=false
38ENABLE_IMAGE_GENERATION=false
39ENABLE_PDF_EXPORT=true
40ENABLE_MARKDOWN=true
41ENABLE_CODE_HIGHLIGHTING=true
42
43ENABLE_WEB_SEARCH={{ false if vault_runner.tavily_api_key == '' else true }}
44WEB_SEARCH_ENGINE=tavily
45TAVILY_API_KEY={{ vault_runner.tavily_api_key }}
46
47# RAG Configuration
48ENABLE_RAG=false
49RAG_API_URL=http://litellm:4000
50
51# Security
52ALLOWED_HOSTS=*
53CORS_ORIGINS=*
54
55# ==============================================================================
56# LITELLM CONFIGURATION (in separate file)
57# ==============================================================================
58