外观
🚀 Ollama 本地快速安装
ollama 官方提供了安装配置脚本,但下载通常会很慢。这是因为 ollama 把 1.5G 的二进制安装包放到了 github release 里。众所周知国内到 github 线路不是很通畅,时常会遇到无法安装或者速度太慢的问题。
解决方法如下:
- 使用丹摩提供的下载好的包进行安装。
- 科学上网,通过隧道下载 github 资源。
- 使用 github 代理,直接解压即可。
提示
🌈 丹摩不仅提供了最新的 ollama 本地安装包,也会周期更新下载热门的 ollama 模型到公开数据盘。
建议启动 ollama 服务时指定丹摩提供的 ollama 模型库。这样不仅避免了下载的耗时,且可以节省实例的根存储空间。
🔥 ollama 模型缓存库路径:
/root/public-storage/ollama
/root/public-storage/ollama
/root/public-storage/ollama
安装 ollama 的几种方式
🌈 五秒极速本地安装 (推荐)
丹摩已经把 ollama 的安装包下载到公开数据盘里,只需要切换到目录,安装即可。
如需最新的版本,可联系客户同学。
v0.16.1
by github cache.
bash
# 切换目录,安装部署
cd /root/public-storage/package/ollama/v0.16.1
ls -h
bash install.sh
# 启动 ollama 服务
export OLLAMA_MODELS=/root/public-storage/ollama # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0
nohup ollama serve > /root/ollama.log 2>&1 &v0.15.6
by modelscope cache.
bash
# 切换目录,安装部署
cd /root/public-storage/package/ollama/v0.15.6
bash 02-ollama-modelscope-install.sh
# 启动 ollama 服务
export OLLAMA_MODELS=/root/public-storage/ollama # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0
nohup ollama serve > /root/ollama.log 2>&1 &通过 ModelScope 安装(推荐)
ModelScope 提供了 Ollama 的国内镜像,下载后无需网络即可完成安装,是最稳定可靠的安装方式。
提示
ModelScope 提供多个 Ollama 版本(如 v0.14.1、v0.15.6 等),可通过 --revision 参数切换。版本可能略滞后于官方最新版,但通常保持较新。更多信息请访问 ModelScope Ollama 仓库。
- 安装依赖工具:
bash
apt update && sudo apt install -y pciutils lshw zstd- 安装 ModelScope CLI 并下载 Ollama 安装包:
bash
pip install modelscope -U
oversion=v0.15.6
modelscope download --model=modelscope/ollama-linux --local_dir ./ollama-linux-$oversion --revision $oversion- 运行安装脚本:
bash
cd ollama-linux
chmod +x ollama-modelscope-install.sh
./ollama-modelscope-install.sh- 启动服务:
bash
export OLLAMA_MODELS=/root/public-storage/ollama # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0
nohup ollama serve > /root/ollama.log 2>&1 &安装完成后,即可使用 ollama 命令。
通过 GitHub 加速服务安装
ModelScope 提供的 ollama 通常要比官方要慢几个小版本。如果需要最新的 ollama 服务或者 ModelScope 无法访问时,可使用此方案。
- 下载 ollama 安装包
该方法通过第三方 GitHub 加速服务下载 Ollama 安装包。
bash
# 加速服务一:ghfast.top
wget -c "https://ghfast.top/https://github.com/ollama/ollama/releases/download/v0.16.1/ollama-linux-amd64.tar.zst"
# 加速服务二:gh-proxy.org
wget -c "https://gh-proxy.org/https://github.com/ollama/ollama/releases/download/v0.16.1/ollama-linux-amd64.tar.zst"- 解压到 /usr 目录
bash
tar xf ollama-linux-amd64.tar.zst -C /usr- 启动服务
bash
export OLLAMA_MODELS=/root/public-storage/ollama # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0
nohup ollama serve > /root/ollama.log 2>&1 &配置 ollama 模型缓存目录
ollama 模型下载虽然是走 cdn 网络,但带宽不是很稳定。另外,为了避免 ollama 的模型占用当前镜像根空间,建议指定 ollama 的模型目录到公开数据盘。
bash
export OLLAMA_MODELS=/root/public-storage/ollama # 公共的 ollama 模型库,只读.
export OLLAMA_HOST=0.0.0.0
nohup ollama serve > /root/ollama.log 2>&1 &😄 丹摩每周会同步最近的模型,如果有些模型未下载,可以联系客服帮忙下载。
