🦴Ollama
约 268 字小于 1 分钟
OllamaLLM
2025-12-20
本地大模型运行工具,支持 Llama 3、Qwen 2.5/3、Mistral 等多种模型。
核心功能
- 本地运行:无需依赖云端 API
- 隐私安全:数据完全保留在本地
- 模型丰富:支持海量开源模型
快速开始
下载安装
Ollama 下载支持 macOS, Windows, Linux
验证安装
ollama --version运行模型
# 示例:运行 Qwen 3 (0.6b) ollama run qwen3:0.6b
常用命令
| 命令 | 说明 |
|---|---|
ollama run <model> | 下载并运行模型 |
ollama list | 列出本地模型 |
ollama rm <model> | 删除模型 |
ollama pull <model> | 仅下载不运行 |
模型探索
Ollama 模型库
查找并下载各类开源模型
Desktop UI
Ollama 官方桌面端(macOS/Windows)已于 2025 年 7 月推出内置 UI 版本,支持直接对话、多模态输入及文件投喂,无需额外配置第三方客户端。
