问题集锦 problem

Ollama的常用命令及说明 本地部署DEEPSEEK用得到!

2025-06-20 122 次

以下是Ollama的常用命令及说明:

基础服务命令

  1. 启动服务

    ollama serve

    启动Ollama服务器,默认监听localhost:11434

  2. 指定端口启动

    ollama serve --port 11435

    将服务端口改为11435

模型管理命令

  1. 拉取模型

    ollama pull llama2

    从Ollama库下载模型(如llama2)。可通过--model-dir指定下载路径。

  2. 列出本地模型

    ollama list

    显示所有已下载的模型及其版本。

  3. 删除模型

    ollama rm llama2

    删除本地的llama2模型。

  4. 创建自定义模型

    ollama create mymodel -f Modelfile

    根据当前目录下的Modelfile创建名为mymodel的自定义模型。

模型交互命令

  1. 运行模型生成文本

    ollama run llama2 "你好,世界"

    使用llama2模型生成对"你好,世界"的回复。

  2. 启动交互式对话

    ollama chat llama2

    启动与llama2的交互式对话界面。

容器化命令(Docker)

  1. 在Docker中启动Ollama

    docker run -d -p 11434:11434 --name ollama ollama/ollama

    在Docker容器中运行Ollama服务。

  2. 进入Docker容器

    docker exec -it ollama bash

    进入运行中的Ollama容器执行命令。

其他实用命令

  1. 查看版本

    ollama version

    显示Ollama的当前版本。

  2. 查看帮助信息

    ollama --help

    显示所有可用命令和选项的帮助文档。

配置示例(Modelfile)

在创建自定义模型时,Modelfile的示例内容如下:

FROM llama2:7b
PARAMETER temperature 0.8
ADJUST quantization q4_0

该文件可定义模型的基础版本、参数和量化方式。

注意事项

  • 所有命令需在已安装Ollama的环境中执行。

  • 部分高级功能(如分布式部署)可能需要额外配置。

  • 如需持久化数据,可通过--model-dir参数指定存储路径。



近期更新:
返回顶部