Skip to content

🚀 Ollama 本地快速安装

ollama 官方提供了安装配置脚本,但下载通常会很慢。这是因为 ollama 把 1.5G 的二进制安装包放到了 github release 里。众所周知国内到 github 线路不是很通畅,时常会遇到无法安装或者速度太慢的问题。

解决方法如下:

  • 无需安装,直接使用公开存储的 ollama 包。
  • 使用丹摩提供的下载好的包进行安装。
  • 科学上网,通过隧道下载 github 资源。
  • 使用 github 代理,直接解压即可。

提示

🌈 丹摩不仅提供了最新的 ollama 本地安装包,也会周期更新下载热门的 ollama 模型到公开数据盘。

建议启动 ollama 服务时指定丹摩提供的 ollama 模型库。这样不仅避免了下载的耗时,且可以节省实例的根存储空间。

🔥 ollama 模型缓存库路径:

/root/public-storage/ollama

/root/public-storage/ollama

/root/public-storage/ollama

安装 ollama 的几种方式

🚀 免安装直接用 (推荐)

丹摩默认会对所有的实例挂载公开数据盘,存储中已存放 ollama 的 bin/lib 相关文件。

无需单独安装,只需指定环境变量即可直接使用 ollama !!!

bash
PATH=$PATH:/root/public-storage/package/ollama/bin/  # 指定 ollama bin 位置
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/public-storage/package/ollama/lib/  # 指定 ollama 依赖的动态链接库位置

export OLLAMA_MODELS=/root/public-storage/ollama  # 指定公开预置的 ollama 模型库,只读.
nohup ollama serve &

查看当前的模型列表:

bash
PATH=$PATH:/root/public-storage/package/ollama/bin/  # 指定 ollama bin 位置
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/public-storage/package/ollama/lib/  # 指定 ollama 依赖的动态链接库位置

ollama list

命令返回当前已缓存的模型.

bash
NAME                                  ID              SIZE      MODIFIED      
glm-4.7-flash:q8_0                    a035bf4bc812    31 GB     8 days ago       
glm-4.7-flash:q4_K_M                  d1a8a26252f1    19 GB     9 days ago       
minimax-m2.5:cloud                    c0d5751c800f    -         10 days ago      
qwen3-next:latest                     b2ebb986e4e9    50 GB     10 days ago      
lfm2.5-thinking:latest                95bd9d45385f    731 MB    10 days ago      
kimi-k2.5:cloud                       6d1c3246c608    -         10 days ago      
deepseek-ocr:latest                   0e7b018b8a22    6.7 GB    10 days ago      
glm-ocr:latest                        6effedd0dc8a    2.2 GB    10 days ago      
qwen3-vl:latest                       901cae732162    6.1 GB    10 days ago      
glm-5:cloud                           c313cd065935    -         10 days ago      
qwen3:32b                             030ee887880f    20 GB     3 months ago     
qwen3:14b                             bdbd181c33f2    9.3 GB    3 months ago     
qwen3:8b                              500a1f067a9f    5.2 GB    3 months ago     
qwen3:4b                              359d7dd4bcda    2.5 GB    3 months ago     
qwen3:1.7b                            8f68893c685c    1.4 GB    3 months ago     
qwen3:0.6b                            7df6b6e09427    522 MB    3 months ago     
deepseek-ocr:3b                       0e7b018b8a22    6.7 GB    3 months ago     
llama3.2:1b                           baf6a787fdff    1.3 GB    3 months ago     
qwen3-vl:8b                           901cae732162    6.1 GB    3 months ago     
qwen3-vl:2b                           0635d9d857d4    1.9 GB    3 months ago     
qwen3-vl:4b                           1343d82ebee3    3.3 GB    3 months ago     
gemma3:27b                            a418f5838eaf    17 GB     5 months ago     
gemma3:12b                            f4031aab637d    8.1 GB    5 months ago     
gemma3:4b                             a2af6cc3eb7f    3.3 GB    5 months ago     
gemma3:1b                             8648f39daa8f    815 MB    5 months ago     
gemma3:270m                           e7d36fb2c3b3    291 MB    5 months ago     
deepseek-r1:8b                        6995872bfe4c    5.2 GB    5 months ago     
phi4:14b                              ac896e5b8b34    9.1 GB    5 months ago     
embeddinggemma:300m                   85462619ee72    621 MB    5 months ago     
qwen2.5vl:72b                         05ea68274581    48 GB     5 months ago     
qwen2.5vl:32b                         3edc3a52fe98    21 GB     5 months ago     
qwen3-coder:30b                       ad67f85ca250    18 GB     5 months ago     
qwen2.5vl:7b                          5ced39dfa4ba    6.0 GB    5 months ago     
qwen2.5vl:3b                          fb90415cde1e    3.2 GB    5 months ago     
qwen3-coder:latest                    ad67f85ca250    18 GB     5 months ago     
qwen3-coder:30b-a3b-fp16              e481f3891b3e    61 GB     6 months ago     
gpt-oss:120b                          735371f916a9    65 GB     6 months ago     
gpt-oss:20b                           f2b8351c629c    13 GB     6 months ago     
deepseek-coder-v2:16b                 63fb193b3a9b    8.9 GB    12 months ago    
deepseek-r1:671b                      739e1b229ad7    404 GB    12 months ago    
deepseek-r1:7b                        0a8c26691023    4.7 GB    12 months ago    
deepseek-r1:1.5b                      a42b25d8c10a    1.1 GB    12 months ago    
deepseek-r1:32b                       38056bbcbb2d    19 GB     12 months ago  

...
more
...

🌈 五秒极速本地安装 (推荐)

丹摩已经把 ollama 的安装包下载到公开数据盘里,只需要切换到目录,安装即可。

如需最新的版本,可联系客户同学。

v0.16.1

by github cache.

bash
# 切换目录,安装部署
cd /root/public-storage/package/ollama/v0.16.1
ls -h
bash install.sh

# 启动 ollama 服务
export OLLAMA_MODELS=/root/public-storage/ollama  # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0

nohup ollama serve > /root/ollama.log 2>&1 &

v0.15.6

by modelscope cache.

bash
# 切换目录,安装部署
cd /root/public-storage/package/ollama/v0.15.6
bash 02-ollama-modelscope-install.sh

# 启动 ollama 服务
export OLLAMA_MODELS=/root/public-storage/ollama  # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0

nohup ollama serve > /root/ollama.log 2>&1 &

通过 ModelScope 安装(推荐)

ModelScope 提供了 Ollama 的国内镜像,下载后无需网络即可完成安装,是最稳定可靠的安装方式。

👉🏻 https://www.modelscope.cn/models/modelscope/ollama-linux

提示

ModelScope 提供多个 Ollama 版本(如 v0.14.1、v0.15.6 等),可通过 --revision 参数切换。版本可能略滞后于官方最新版,但通常保持较新。更多信息请访问 ModelScope Ollama 仓库。

  1. 安装依赖工具:
bash
apt update && sudo apt install -y pciutils lshw zstd
  1. 安装 ModelScope CLI 并下载 Ollama 安装包:
bash
pip install modelscope -U

oversion=v0.15.6
modelscope download --model=modelscope/ollama-linux --local_dir ./ollama-linux-$oversion --revision $oversion
  1. 运行安装脚本:
bash
cd ollama-linux
chmod +x ollama-modelscope-install.sh
./ollama-modelscope-install.sh
  1. 启动服务:
bash
export OLLAMA_MODELS=/root/public-storage/ollama  # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0

nohup ollama serve > /root/ollama.log 2>&1 &

安装完成后,即可使用 ollama 命令。

通过 GitHub 加速服务安装

ModelScope 提供的 ollama 通常要比官方要慢几个小版本。如果需要最新的 ollama 服务或者 ModelScope 无法访问时,可使用此方案。

  1. 下载 ollama 安装包

该方法通过第三方 GitHub 加速服务下载 Ollama 安装包。

bash
# 加速服务一:ghfast.top
wget -c "https://ghfast.top/https://github.com/ollama/ollama/releases/download/v0.16.1/ollama-linux-amd64.tar.zst"

# 加速服务二:gh-proxy.org
wget -c "https://gh-proxy.org/https://github.com/ollama/ollama/releases/download/v0.16.1/ollama-linux-amd64.tar.zst"
  1. 解压到 /usr 目录
bash
tar xf ollama-linux-amd64.tar.zst -C /usr
  1. 启动服务
bash
export OLLAMA_MODELS=/root/public-storage/ollama  # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0

nohup ollama serve > /root/ollama.log 2>&1 &

配置 ollama 模型缓存目录

ollama 模型下载虽然是走 cdn 网络,但带宽不是很稳定。另外,为了避免 ollama 的模型占用当前镜像根空间,建议指定 ollama 的模型目录到公开数据盘。

bash
export OLLAMA_MODELS=/root/public-storage/ollama  # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0

nohup ollama serve > /root/ollama.log 2>&1 &

😄 丹摩每周会同步最近的模型,如果有些模型未下载,可以联系客服帮忙下载。