2025-06-20 122 次
以下是Ollama的常用命令及说明:
启动服务
ollama serve
启动Ollama服务器,默认监听localhost:11434
。
指定端口启动
ollama serve --port 11435
将服务端口改为11435
。
拉取模型
ollama pull llama2
从Ollama库下载模型(如llama2
)。可通过--model-dir
指定下载路径。
列出本地模型
ollama list
显示所有已下载的模型及其版本。
删除模型
ollama rm llama2
删除本地的llama2
模型。
创建自定义模型
ollama create mymodel -f Modelfile
根据当前目录下的Modelfile
创建名为mymodel
的自定义模型。
运行模型生成文本
ollama run llama2 "你好,世界"
使用llama2
模型生成对"你好,世界"的回复。
启动交互式对话
ollama chat llama2
启动与llama2
的交互式对话界面。
在Docker中启动Ollama
docker run -d -p 11434:11434 --name ollama ollama/ollama
在Docker容器中运行Ollama服务。
进入Docker容器
docker exec -it ollama bash
进入运行中的Ollama容器执行命令。
查看版本
ollama version
显示Ollama的当前版本。
查看帮助信息
ollama --help
显示所有可用命令和选项的帮助文档。
在创建自定义模型时,Modelfile
的示例内容如下:
FROM llama2:7b PARAMETER temperature 0.8 ADJUST quantization q4_0
该文件可定义模型的基础版本、参数和量化方式。
所有命令需在已安装Ollama的环境中执行。
部分高级功能(如分布式部署)可能需要额外配置。
如需持久化数据,可通过--model-dir
参数指定存储路径。