Skip to content

Ollama 大模型部署指南

约 566 字大约 2 分钟

ollamaLLMgemma模型部署

2025-02-20

本文档提供在Linux系统上安装、配置和运行Ollama大语言模型的完整步骤指南。

1. 安装Ollama

使用官方安装脚本一键安装:

curl -fsSL https://ollama.com/install.sh | sh

安装过程输出示例:

>>> Downloading ollama...
######################################################################## 100.0%
>>> Installing ollama to /usr/local/bin...
[sudo] user 的密码:
>>> Creating ollama user...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink from /etc/systemd/system/default.target.wants/ollama.service to /etc/systemd/system/ollama.service.
WARNING: Unable to detect NVIDIA GPU. Install lspci or lshw to automatically detect and install NVIDIA CUDA drivers.

注意:如果需要GPU加速,请确保已安装NVIDIA驱动和CUDA。

2. 修改模型存放位置

默认情况下,Ollama将模型文件存储在用户目录下。可以通过以下步骤修改存储位置:

创建新的存储目录

mkdir -p /app/ollama/.ollama/models
chown -R ollama:ollama /app/ollama

修改systemd服务配置

编辑Ollama服务文件:

vim /etc/systemd/system/ollama.service

[Service]部分添加以下环境变量:

Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_MODELS=/app/ollama/.ollama/models"

提示:设置OLLAMA_HOST=0.0.0.0允许从其他设备访问Ollama服务。

重新加载并启动服务

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

3. 运行模型

安装配置完成后,可以运行预训练模型:

ollama run gemma:2b

常见问题排查

  1. 无法检测到GPU:确保已安装lspcilshw工具,并正确安装NVIDIA驱动
  2. 权限问题:确保当前用户已添加到ollama
  3. 模型下载失败:检查网络连接和代理设置
  4. 服务无法启动:使用systemctl status ollama查看详细错误信息

高级用法

  • 使用ollama pull <model>下载模型但不运行
  • 使用ollama list查看已下载的模型
  • 使用ollama rm <model>删除不需要的模型
  • 通过REST API与Ollama交互:curl -X POST http://localhost:11434/api/generate -d '{"model": "gemma:2b", "prompt": "你好"}'

系统要求

  • 支持的操作系统:Linux (Debian, Ubuntu, CentOS, RHEL, Fedora)
  • 最低硬件要求:4GB RAM,10GB存储空间
  • 推荐配置:16GB+ RAM,NVIDIA GPU,50GB+存储空间