LLMDockerでサクッと始めるローカルLLM(Ollama + Open WebUI)Docker ComposeでOllamaとOpen WebUIを使ってローカルLLM環境を用意し、ブラウザとAPIから試すまでの手順をまとめました。