外观
🚀 Ollama 本地快速安装
ollama 官方提供了安装配置脚本,但下载通常会很慢。这是因为 ollama 把 1.5G 的二进制安装包放到了 github release 里。众所周知国内到 github 线路不是很通畅,时常会遇到无法安装或者速度太慢的问题。
解决方法如下:
- 无需安装,直接使用公开存储的 ollama 包。
- 使用丹摩提供的下载好的包进行安装。
- 科学上网,通过隧道下载 github 资源。
- 使用 github 代理,直接解压即可。
提示
🌈 丹摩不仅提供了最新的 ollama 本地安装包,也会周期更新下载热门的 ollama 模型到公开数据盘。
建议启动 ollama 服务时指定丹摩提供的 ollama 模型库。这样不仅避免了下载的耗时,且可以节省实例的根存储空间。
🔥 ollama 模型缓存库路径:
/root/public-storage/ollama
/root/public-storage/ollama
/root/public-storage/ollama
安装 ollama 的几种方式
🚀 免安装直接用 (推荐)
丹摩默认会对所有的实例挂载公开数据盘,存储中已存放 ollama 的 bin/lib 相关文件。
无需单独安装,只需指定环境变量即可直接使用 ollama !!!
bash
PATH=$PATH:/root/public-storage/package/ollama/bin/ # 指定 ollama bin 位置
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/public-storage/package/ollama/lib/ # 指定 ollama 依赖的动态链接库位置
export OLLAMA_MODELS=/root/public-storage/ollama # 指定公开预置的 ollama 模型库,只读.
nohup ollama serve &查看当前的模型列表:
bash
PATH=$PATH:/root/public-storage/package/ollama/bin/ # 指定 ollama bin 位置
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/public-storage/package/ollama/lib/ # 指定 ollama 依赖的动态链接库位置
ollama list命令返回当前已缓存的模型.
bash
NAME ID SIZE MODIFIED
glm-4.7-flash:q8_0 a035bf4bc812 31 GB 8 days ago
glm-4.7-flash:q4_K_M d1a8a26252f1 19 GB 9 days ago
minimax-m2.5:cloud c0d5751c800f - 10 days ago
qwen3-next:latest b2ebb986e4e9 50 GB 10 days ago
lfm2.5-thinking:latest 95bd9d45385f 731 MB 10 days ago
kimi-k2.5:cloud 6d1c3246c608 - 10 days ago
deepseek-ocr:latest 0e7b018b8a22 6.7 GB 10 days ago
glm-ocr:latest 6effedd0dc8a 2.2 GB 10 days ago
qwen3-vl:latest 901cae732162 6.1 GB 10 days ago
glm-5:cloud c313cd065935 - 10 days ago
qwen3:32b 030ee887880f 20 GB 3 months ago
qwen3:14b bdbd181c33f2 9.3 GB 3 months ago
qwen3:8b 500a1f067a9f 5.2 GB 3 months ago
qwen3:4b 359d7dd4bcda 2.5 GB 3 months ago
qwen3:1.7b 8f68893c685c 1.4 GB 3 months ago
qwen3:0.6b 7df6b6e09427 522 MB 3 months ago
deepseek-ocr:3b 0e7b018b8a22 6.7 GB 3 months ago
llama3.2:1b baf6a787fdff 1.3 GB 3 months ago
qwen3-vl:8b 901cae732162 6.1 GB 3 months ago
qwen3-vl:2b 0635d9d857d4 1.9 GB 3 months ago
qwen3-vl:4b 1343d82ebee3 3.3 GB 3 months ago
gemma3:27b a418f5838eaf 17 GB 5 months ago
gemma3:12b f4031aab637d 8.1 GB 5 months ago
gemma3:4b a2af6cc3eb7f 3.3 GB 5 months ago
gemma3:1b 8648f39daa8f 815 MB 5 months ago
gemma3:270m e7d36fb2c3b3 291 MB 5 months ago
deepseek-r1:8b 6995872bfe4c 5.2 GB 5 months ago
phi4:14b ac896e5b8b34 9.1 GB 5 months ago
embeddinggemma:300m 85462619ee72 621 MB 5 months ago
qwen2.5vl:72b 05ea68274581 48 GB 5 months ago
qwen2.5vl:32b 3edc3a52fe98 21 GB 5 months ago
qwen3-coder:30b ad67f85ca250 18 GB 5 months ago
qwen2.5vl:7b 5ced39dfa4ba 6.0 GB 5 months ago
qwen2.5vl:3b fb90415cde1e 3.2 GB 5 months ago
qwen3-coder:latest ad67f85ca250 18 GB 5 months ago
qwen3-coder:30b-a3b-fp16 e481f3891b3e 61 GB 6 months ago
gpt-oss:120b 735371f916a9 65 GB 6 months ago
gpt-oss:20b f2b8351c629c 13 GB 6 months ago
deepseek-coder-v2:16b 63fb193b3a9b 8.9 GB 12 months ago
deepseek-r1:671b 739e1b229ad7 404 GB 12 months ago
deepseek-r1:7b 0a8c26691023 4.7 GB 12 months ago
deepseek-r1:1.5b a42b25d8c10a 1.1 GB 12 months ago
deepseek-r1:32b 38056bbcbb2d 19 GB 12 months ago
...
more
...🌈 五秒极速本地安装 (推荐)
丹摩已经把 ollama 的安装包下载到公开数据盘里,只需要切换到目录,安装即可。
如需最新的版本,可联系客户同学。
v0.16.1
by github cache.
bash
# 切换目录,安装部署
cd /root/public-storage/package/ollama/v0.16.1
ls -h
bash install.sh
# 启动 ollama 服务
export OLLAMA_MODELS=/root/public-storage/ollama # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0
nohup ollama serve > /root/ollama.log 2>&1 &v0.15.6
by modelscope cache.
bash
# 切换目录,安装部署
cd /root/public-storage/package/ollama/v0.15.6
bash 02-ollama-modelscope-install.sh
# 启动 ollama 服务
export OLLAMA_MODELS=/root/public-storage/ollama # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0
nohup ollama serve > /root/ollama.log 2>&1 &通过 ModelScope 安装(推荐)
ModelScope 提供了 Ollama 的国内镜像,下载后无需网络即可完成安装,是最稳定可靠的安装方式。
👉🏻 https://www.modelscope.cn/models/modelscope/ollama-linux
提示
ModelScope 提供多个 Ollama 版本(如 v0.14.1、v0.15.6 等),可通过 --revision 参数切换。版本可能略滞后于官方最新版,但通常保持较新。更多信息请访问 ModelScope Ollama 仓库。
- 安装依赖工具:
bash
apt update && sudo apt install -y pciutils lshw zstd- 安装 ModelScope CLI 并下载 Ollama 安装包:
bash
pip install modelscope -U
oversion=v0.15.6
modelscope download --model=modelscope/ollama-linux --local_dir ./ollama-linux-$oversion --revision $oversion- 运行安装脚本:
bash
cd ollama-linux
chmod +x ollama-modelscope-install.sh
./ollama-modelscope-install.sh- 启动服务:
bash
export OLLAMA_MODELS=/root/public-storage/ollama # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0
nohup ollama serve > /root/ollama.log 2>&1 &安装完成后,即可使用 ollama 命令。
通过 GitHub 加速服务安装
ModelScope 提供的 ollama 通常要比官方要慢几个小版本。如果需要最新的 ollama 服务或者 ModelScope 无法访问时,可使用此方案。
- 下载 ollama 安装包
该方法通过第三方 GitHub 加速服务下载 Ollama 安装包。
bash
# 加速服务一:ghfast.top
wget -c "https://ghfast.top/https://github.com/ollama/ollama/releases/download/v0.16.1/ollama-linux-amd64.tar.zst"
# 加速服务二:gh-proxy.org
wget -c "https://gh-proxy.org/https://github.com/ollama/ollama/releases/download/v0.16.1/ollama-linux-amd64.tar.zst"- 解压到 /usr 目录
bash
tar xf ollama-linux-amd64.tar.zst -C /usr- 启动服务
bash
export OLLAMA_MODELS=/root/public-storage/ollama # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0
nohup ollama serve > /root/ollama.log 2>&1 &配置 ollama 模型缓存目录
ollama 模型下载虽然是走 cdn 网络,但带宽不是很稳定。另外,为了避免 ollama 的模型占用当前镜像根空间,建议指定 ollama 的模型目录到公开数据盘。
bash
export OLLAMA_MODELS=/root/public-storage/ollama # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0
nohup ollama serve > /root/ollama.log 2>&1 &😄 丹摩每周会同步最近的模型,如果有些模型未下载,可以联系客服帮忙下载。
