LM Studio 本地部署大模型指南
# LM Studio 本地部署大模型指南
图形界面本地运行 AI 大模型,易上手、功能强大
LM Studio 简介
LM Studio 是一个本地大语言模型运行工具:
- 🖥️ 图形界面,操作简单
- 🤖 支持多种模型格式 (GGUF, LLama2, Mistral 等)
- ⚡ GPU 加速支持
- 🔌 提供 OpenAI 兼容 API
支持的系统
- macOS 12+ (Apple Silicon 和 Intel)
- Windows 10/11
- Linux (通过 AppImage)
安装
macOS
bash
# 下载 DMG
https://lmstudio.ai/
# 或使用 Homebrew
brew install --cask lm-studioWindows
从官网下载 installer:
https://lmstudio.ai/
Linux
bash
# 下载 AppImage
chmod +x LM-Studio-*.AppImage
./LM-Studio-*.AppImage使用教程
1. 下载模型
打开 LM Studio,在左侧搜索模型:
- llama3
- mistral
- qwen
- deepseek
点击 Download 下载模型。
2. 运行模型
- 1.选择已下载的模型
- 2.点击 Load 加载模型
- 3.在聊天界面开始对话
3. API 服务
- 1.点击左侧 "Developer"
- 2.选择 "OpenAI Compatibility"
- 3.点击 "Start Server"
- 4.默认端口:1234
4. 调用 API
python
import requests
response = requests.post(
"http://localhost:1234/v1/chat/completions",
json={
"model": "llama3",
"messages": [
{"role": "user", "content": "你好!"}
]
}
)
print(response.json())配置选项
GPU 加速设置
点击模型旁边的 ⚙️ 图标:
- GPU Layers:设置为显卡能承受的最大值
- Context Length:默认 4096,可根据显存调整
模型参数调优
- Temperature:创意程度 (0-2)
- Top P:核采样
- Max Tokens:最大输出长度
与 OpenClaw 集成
env
AI_PROVIDER=ollama
OLLAMA_BASE_URL=http://localhost:1234/v1
OLLAMA_MODEL=llama3常见问题
模型加载失败
确保有足够内存:
- 7B 模型需要约 8GB RAM
- 13B 模型需要约 16GB RAM
GPU 未被调用
检查设置:
- 1.Settings → GPU Acceleration → Enabled
- 2.确认 NVIDIA Driver / ROCm 已安装
API 调用失败
确认服务器已启动:
bash
curl http://localhost:1234/v1/models对比 Ollama
| 特性 | LM Studio | Ollama |
|------|-----------|--------|
| 界面 | 图形界面 | 命令行 |
| 模型格式 | GGUF | 原始格式 |
| API | OpenAI 兼容 | 部分兼容 |
| 易用性 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
---
相关教程:
- [Ollama 本地部署](/post/ollama-local-llm)
- [llama.cpp 部署](/post/llama-cpp-deployment)