Environment="OLLAMA_HOST=0.0.0.0:11434" 解释:监听地址和端口 0.0.0.0是对IP没有限制 Environment="PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games" 解释:定义可执行文件的搜索路径 Environment="OLLAMA_SCHED_SPREAD=true" 解释:调用分散模式 多显卡的情况 处理多并发的情况下 可以减少时间 Environment="OLLAMA_NUM_PARALLEL=15" 解释:最大线程数,同时允许的最大处理并发数 Environment="OLLAMA_MAX_LOADED_MODELS=1" 解释:最大模型数,同时可以加载最多几个模型(我三张显卡的情况 llama3 70B,和一个27B并行 建议1-2) Environment="OLLAMA_MODELS=/mnt/rayse/files/ollama/models" 解释:模型存储路径 Environment="OLLAMA_KEEP_ALIVE=1h" 解释:模型加载后保留的时间,超过1小时,就卸载了,就要从新加载模型。 ExecStart=/usr/bin/ollama serve 解释:启动服务的指令 User=ollama 解释:指定运行服务的用户,服务将以 ollama 用户的身份运行 Group=ollama 解释:指定运行服务的用户组,服务将属于 ollama 用户组。 Restart=always 解释:配置服务异常停止后的自动重启 RestartSec=3 解释:设置服务停止后重新启动的时间间隔 Environment="CUDA_VISIBLE_DEVICES=0,1 解释:在多张显卡的情况下只用显卡0和显卡1进行运行服务。