文档编辑表格制作工具
63.11M · 2026-04-13
你是否也想拥有一个完全属于自己的 AI 助手?无需担心隐私泄露,无需支付订阅费用,本地部署 Ollama 让你轻松使用开源大模型。本文将带你从零开始搭建 Ollama 环境,并介绍如何使用它进行本地开发。
Ollama 是一个开源的本地 LLM 运行框架,支持各种主流大模型,如 Qwen3.5、Llama3、Mistral 等。它基于 Docker 和 Rust 构建,提供简单的命令行接口和 Web UI。
# 检查 Docker 是否已安装
docker --version
# 未安装时,MacOS 用户可以从 Docker Desktop 官网下载:
#
# macOS
brew install ollama
# Linux (Ubuntu/Debian)
curl -fsSL | sh
# Windows 用户请访问官网下载安装包:
#
# 启动 Ollama
ollama serve
# 后台运行(可选)
ollama serve &
# 查看已安装模型
ollama list
# 拉取模型(默认是 CPU 优化版本)
ollama pull qwen3.5
ollama pull llama3.2:3b
ollama pull mistral
# 开始对话
ollama run qwen3.5
# 退出对话
Ctrl+D 或输入 /exit
# 指定版本
ollama run qwen3.5:7b
# 设置上下文长度(默认 4096)
OLLAMA_NUM_GPU_LAYERS=0 ollama serve
# 设置最大并发请求数
OLLAMA_MAX_CONCURRENT_REQUESTS=4 ollama serve
import requests
from langchain_ollama import ChatOllama
# 创建聊天实例
llm = ChatOllama(model="qwen3.5", base_url="http://localhost:11434")
# 进行对话
response = llm.invoke("你好,请介绍一下 Ollama")
print(response)
// 使用 OpenAI 格式的 Node 客户端
const response = await fetch("http://localhost:11434/api/generate", {
method: "POST",
headers: { "Content-Type": "application/json" },
body: JSON.stringify({
model: "qwen3.5",
prompt: "你好,请介绍一下 Ollama",
stream: false
})
});
const result = await response.json();
console.log(result.response);
安装 Ollama 插件,即可在编辑器中直接使用本地模型进行代码辅助、文档生成等。
| 模型名称 | 适用场景 | 内存需求 |
|---|---|---|
| qwen3.5:7b | 通用对话、代码 | ~7GB |
| qwen3.5:14b | 复杂任务、多模态 | ~14GB |
| llama3.2:3b | 轻量设备、快速响应 | ~3GB |
| mistral | 欧洲用户推荐 | ~4GB |
--num-gpu-layers 参数指定 GPU 层数OLLAMA_MAX_LOADED_MODELS 控制并发模型数量OLLAMA_NUM_PARALLEL 设置并发请求数# 清理缓存
ollama rm <model-name>
ollama pull <model-name>
# 重启服务
ollama serve
# 使用更小的模型
ollama pull llama3.2:3b
ollama run llama3.2:3b
# 设置代理
OLLAMA_ORIGINS="http://localhost" ollama serve
Ollama 是一个简单、高效的本地 LLM 运行框架,无需复杂配置即可快速投入使用。支持多种主流模型,提供丰富的 API 接口,适合开发者和个人用户。
建议:定期更新 Ollama 和模型版本,以获得最佳性能。
作者:AI 阿里西西小编
许可协议:MIT License
联系方式:[your-email@example.com]
推荐阅读:
本文档基于实际部署经验整理,持续更新中。