ollama 安装
官网下载
大模型获取
支持一键部署的模型库
例如阿里的qwen2, 内网RTX3060下跑一个7B的模型非常舒服
![image.png]()
常用指令
ollama start
运行ollama服务, 与客户端程序冲突, 需要重任务栏退出羊驼图标后使用
ollama list
列出可用模型
ollama pull xxx-model
拉取指定模型
ollama run xxx-model
启动指定模型的命令行交互
常用环境变量
OLLAMA_ORIGINS
不考虑安全问题,方便调用的情况下直接设置*
OLLAMA_HOST
一般设置为0.0.0.0:11434
, 根据实际情况来定