AI 探索
配置 Ollama 环境变量
macOS 系统 Ollama 后台运行方案
launchd 服务环境变量与 Shell 环境变量的独立性解析
通过 Ollama 安装 deepseek
git: 'lfs' is not a git command
本文档使用 MrDoc 发布
-
+
首页
配置 Ollama 环境变量
## 一、.bash_ollama 文件 ```bash # ==================================================== # Ollama 环境变量配置 # 建议根据硬件和网络环境调整参数 # ==================================================== # -------------------------- # 网络与访问控制 # -------------------------- # 监听地址和端口 (默认 127.0.0.1:11434) export OLLAMA_HOST="0.0.0.0:11434" # 允许跨域请求来源 (默认空) export OLLAMA_ORIGINS="*" # -------------------------- # 存储路径与资源管理 # -------------------------- # 模型存储路径 (默认 ~/.ollama/models) #export OLLAMA_MODELS="/Volumes/SSD/Ollama_Models" # 临时文件目录 (默认系统临时路径) #export OLLAMA_TMPDIR="/tmp/ollama" # -------------------------- # 性能优化与并发控制 # -------------------------- # 模型内存驻留时间 (默认 5m) export OLLAMA_KEEP_ALIVE="24h" # 并发请求线程数 (默认 1) export OLLAMA_NUM_PARALLEL=2 # 同时加载模型数 (默认 1) export OLLAMA_MAX_LOADED_MODELS=2 # 多 GPU 分布式调度 (默认 false) #export OLLAMA_SCHED_SPREAD="true" # 指定 GPU 设备号 (默认全部) export CUDA_VISIBLE_DEVICES="0" # -------------------------- # 调试与高级功能 # -------------------------- # 调试模式 (默认 false) export OLLAMA_DEBUG="false" # 注意力优化 (默认 true) export OLLAMA_FLASH_ATTENTION="true" # 底层库 (auto/cuda/metal) export OLLAMA_LLM_LIBRARY="auto" # 禁用模型剪枝 (默认 false) export OLLAMA_NOPRUNE="false" # 显存限制 (单位 MB, 默认无限制) export OLLAMA_MAX_VRAM="8192" ``` --- ## 二、**增强安全性的 `.zshrc` 自动引入逻辑** ```bash grep -qF "~/.bash_ollama" ~/.zshrc || cat >> ~/.zshrc <<'EOF' # ==================================================== # Ollama 环境变量配置(自动加载) # ==================================================== if [[ -f ~/.bash_ollama ]]; then source ~/.bash_ollama else echo "⚠️ 警告: ~/.bash_ollama 文件不存在,跳过配置。" fi EOF # 立即生效 source ~/.zshrc ``` --- ## 三、**验证逻辑** - **场景 1:文件存在且未配置** `.zshrc` 自动追加配置并提示成功 ✅。 - **场景 2:文件被删除** 启动时提示 `⚠️ 警告: ~/.bash_ollama 文件不存在,跳过配置。`,避免报错。 - **场景 3:配置已存在** 静默跳过,不重复追加。 --- ## 四、**注意事项** 1. **权限管理** 若自定义路径(如 `/Volumes/SSD`)涉及外部存储,需确保用户有读写权限: ```bash sudo chown -R $(whoami) /Volumes/SSD ``` 2. **变量优先级** - 若通过 `launchctl` 或系统级配置了相同变量,会覆盖 `.bash_ollama` 中的值。 - 可通过 `printenv | grep OLLAMA` 查看实际生效变量。 3. **跨平台兼容** Windows 用户需将路径格式转换为 `C:\Path` 并修改 `.zshrc` 为 `.bash_profile`。 --- 通过以上配置,您可以在保证安全性的前提下,灵活管理 Ollama 的运行参数。
七宇轩远
2025年03月03日
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
分享
链接
类型
密码
更新密码