Welcome

首页 / 人工智能 / Ollama 环境变量详解

Ollama 环境变量详解

Environment="OLLAMA_HOST=0.0.0.0:11434" 
解释:监听地址和端口   0.0.0.0是对IP没有限制
Environment="PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games"
解释:定义可执行文件的搜索路径
Environment="OLLAMA_SCHED_SPREAD=true"
解释:调用分散模式 多显卡的情况  处理多并发的情况下 可以减少时间
Environment="OLLAMA_NUM_PARALLEL=15"
解释:最大线程数,同时允许的最大处理并发数
Environment="OLLAMA_MAX_LOADED_MODELS=1"
解释:最大模型数,同时可以加载最多几个模型(我三张显卡的情况 llama3 70B,和一个27B并行  建议1-2)
Environment="OLLAMA_MODELS=/mnt/rayse/files/ollama/models"
解释:模型存储路径
Environment="OLLAMA_KEEP_ALIVE=1h"
解释:模型加载后保留的时间,超过1小时,就卸载了,就要从新加载模型。
ExecStart=/usr/bin/ollama serve
解释:启动服务的指令
User=ollama
解释:指定运行服务的用户,服务将以 ollama 用户的身份运行
Group=ollama
解释:指定运行服务的用户组,服务将属于 ollama 用户组。
Restart=always
解释:配置服务异常停止后的自动重启
RestartSec=3
解释:设置服务停止后重新启动的时间间隔
Environment="CUDA_VISIBLE_DEVICES=0,1
解释:在多张显卡的情况下只用显卡0和显卡1进行运行服务。