ollama 是什么?
Ollama 是一个开源工具,让你能在自己的电脑上安装和运行一个“人工智能大脑” 和运行 Llama、DeepSeek、Qwen 等主流大模型,无需依赖云端服务。它的核心价值在于隐私保护和数据主权, 所有数据和对话都在本地处理,非常适合处理敏感信息或进行本地 AI 应用开发
基本操作
- 启动并聊天
ollama run 模型名字(假设你想运行一个名为 deepseek-r1:7b 的国产模型(体积小、中文好、免费)
[root@localhost ~]# ollama run deepseek-r1:7b
- 单独下载模型 (避免等待)
ollama pull 模型名字
[root@localhost ~]# ollama pull qwen2.5:3b # 下载通义千问 3B 模型
- 看看家里有哪些模型 (管理库存)
ollama list
- 删除不需要的模型 (腾出硬盘空间)
ollama rm 模型名字
- 查看模型详细信息
[root@localhost ~]# ollama show deepseek-r1:7b
基于docker下面操作方式微调
| 你要做的事情 | 普通安装的命令 | Docker 安装的命令 |
|---|---|---|
| 运行模型 | ollama run deepseek | docker exec -it ollama ollama run deepseek |
| 下载模型 | ollama pull qwen | docker exec -it ollama ollama pull qwen |
| 查看列表 | ollama list | docker exec -it ollama ollama list |
| 退出对话 | /bye | /bye (一样) |
- 走捷径
alias ollama='docker exec -it ollama ollama'
- demo
[root@localhost ~]# ollama run deepseek-r1:7b
>>> 用 Python 写一个计算 1 到 100 累加的程序
... (AI 开始哗啦啦写代码) ...
>>> /bye
[root@localhost ~]#
