飞牛Nas部署 ollama 大模型框架

一、前言

1.1、介绍

Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。

二、部署工作

2.1、服务包部署

Last_Three_Service_Package.sh 选择 Ollama 部署完毕,直接跳转到 Web 界面配置即可!

2.2、Compose 文件部署

services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    ports:
      - 26025:11434
    volumes:
      - /vol1/1000/Docker/ollama:/root/.ollama
      - /vol1/1000/Docker/ollama/models:/data/models
    environment:
      - TZ=Asia/Shanghai
    restart: always
    network_mode: bridge

2.3、飞牛可视化部署

2.3.1、镜像仓库源

推荐镜像源:https://docker.1ms.run

https://lastthree.cn/archives/fei-niu-nasjing-xiang-yuan-la-qu-shi-bai-jie-jue-ban-fa

2.3.2、镜像准备

镜像为:ollama/ollama

版本为:latest

镜像1-OMSx.jpg

2.3.3、目录准备

  • 创建 Docker 文件夹(存放容器)目录下创建 ollama 文件夹

    • ollama 文件夹目录下创建 models 文件夹(存放模型)

目录1-Wpfo.jpg

2.3.4、可视化容器配置

容器名称自定义,勾选开机自动开启

镜像1-OMSx.jpg

端口只能更改前选框,后选框不能修改

  • /vol1/1000/Docker/ollama 映射 /root/.ollama

  • /vol1/1000/Docker/ollama/models 映射 /data/models

容器2-EKPN.jpg

添加环境变量如下:

  • TZ=Asia/shanghai 时区

容器3-mTFy.jpg

勾选创建后启动容器,并创建容器

容器4-hlKJ.jpg

由于 ollama 想要可视化对话,需要搭建其余容器实现,到此 ollama 配置完毕