ローカルLLMフルスタック環境を構築した(OpenWebUI + Ollama + RAG + SearXNG + MCP)

投稿者: | 5月 2, 2026

実は、最近デビューしたことがあって、大学でAIの授業をやることに。話が進み、ゼミのローカルLLMを置くことになった。文系で9割が女子のその学部最大ゼミ。耐えられるかわからないけど。 フロントエンドはOpen WebUIを… 続きを読む »