systemctl daemon-reloadsystemctl
发布时间:2025-06-24 20:33:54 作者:北方职教升学中心 阅读量:470
-。:。docker。gpu。:。host。sudo。:。分享我的经验,希望能为其他用户提供有价值的参考,同时展示机器学习工具在日常工作中的潜力和便利性。-。mkdir。:。:。./data。unless。external。true。open-webui。ollama。
# web前端服务。ollama-net。stopped。#创建目录。stable"apt。reservations。:。ollama。DeepSeek简介。network create。volumes。curl。:。我选择25.2版使用稍后一点的版本,稳定性更好。net。 docker。:。/etc/docker/。systemctl daemon-reloadsystemctl。-。version。ENABLE_OPENAI_API=False。curl。:。
CPU:AMD R7 4800H。 environment。ollama run deepseek-r1:14b。net。install。-。ghcr.io/open。cd。 # ollama服务。docker。./ollamadeamon。-。 |。 container_name。:。systemctl start。 #dockerllamawebui目录-compose.yaml文件。docker-ce。:。/etc/docker/daemon.json。今天,我将引入一个名为DeepSekek 工具,作为一个强大的搜索引擎,它不仅可以帮助我们更有效地定位所需的信息,也可以通过自动化提供深入的分析和见解。:。/root/.ollama。:。
GPU 使用情况。luobozi@lenoud:~/docker$ tree。true。 |。为什么选择部署DepSeek?
在我的项目中,我需要处理大量的数据,寻找特定的模式和趋势。 -。:。resources。:。 <<-。ollama。 -。-。
拉取deepsek模型。
Docker Server Version: 25.0.2.

准备工作
安装docker脚本,使用root权限需要联网。-s。capabilities。webui/open。
访问 http://localhost:3000,设置用户名和密码。webui。-。ENABLE_RAG_WEB_SEARCH=True。unless。-。-。:。,utility。sudo。ollama/ollama。
我的笔记本安装了ubuntu系统,所以我直接用docker在ubuntu下快速部署ollama。11434。 docker。exec。:。-。耗时长,通过部署Deepseek,它可以集成到现有的工作流程,信息检索和分析自动化。-。-。mv。:。├── ollamadeamon │ └── docker-compose.yaml。update。up。
version。-L。apt-key。/etc/apt/sources.list.d/nvidia-container-runtime.list。 --subnet。deamon。 bash。ollama。-。:。:。2。预览前端代码。
DeepSeek 它是一个基于先进人工智能技术的搜索引擎,它结合了最先进的自然语言处理和大数据分析能力,能为用户提供高度个性化的搜索体验。-。image。:。sudo。https://ghfast.top/https://github.com/docker/compose/releases/download/v2.27.3/docker-compose-linux-x86_64。这不仅可以提高效率,还可以减少人为错误确保数据处理的准确性。:。:25.0.2-1~ubuntu.20.04~focalapt-mark hold docker-ce docker-ce-cli。docker。-。$distribution。apt-get。tee。#docker安装二进制包装-compose。:。
关于部署DeepSeek的序言和介绍。http://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg。 add。 networks。NVIDIA_VISIBLE_DEVICES=all。sudo。ollama-deamon。apt-key。external。传统的方法往往效率低下,本文的前言是我基于部署的deepsek-r1:8b模型出来了。RAG_WEB_SEARCH_ENGINE="duckduckgo" -。 tty。:。-。apt-get。stopped。 environment。# docker 需要安装驱动器才能使用gpu设备。:。-。:。:。 -d。
在当今快速发展的技术环境下,越来越重要的是要有效地利用机器学习工具来解决问题。:。 container_name。-。

使用8b模型的示例。
MEM:DDR4 3200 8x2 16G。pull ollama/ollama:0.5.7。# 添加 GPU 资源配置。
编排文件。
本文旨在详细描述我对DeepSeekek的描述 部署过程、ollama。host.docker.internal。install。ollamadeamon,ollamawebui。ollama。)。-L。:。:。#镜像加速配置写入。:。"3.3"services。 #dockerlamadeamon目录-compose.yaml文件。RAG_WEB_SEARCH_RESULT_COUNT=3。..。3000。:。'EOF'{ "registry-mirrors": [ "https://docker.m.daocloud.io", "https://docker.1ms.run", "https://docker-0.unsee.tech", "https://docker.hlmirror.com", "https://func.ink" ] }EOF。 |。extra_hosts。lsb_release。 enable。:。:。sudo。./data。ollama。-。networks。true。 ports。devices。
GPU:RTX 2060 6G。#14b模型和#xff00c;根据你的配置和需要拉。gateway。/ollamawebui。pull ghcr.io/open-webui/open-webui:main。:。
拉取镜像。部署目标。 restart。{。curl。
ollamawebui-docker-compose.yaml。-fsSL。:。# 可选:设置 CUDA 环境变量。docker。image。RAG_WEB_SEARCH_CONCURRENT_REQUESTS=10。11434。.0.0/16 ollama-net。 -d。172.20。
整体回答。
访问本地前端。 hostname。+x docker-compose-linux-x86_64。
#进入容器。不同于传统的搜索引擎,deepseek不仅会根据关键词匹配结果,也能理解用户的意图,搜索策略自动调整,为了满足特定的需求。chmod。初步经验和实际应用中的效果。#创建网络。deamon。0.5.7。update。-。wget。

选择下载好的模型使用。:。cd。
启动容器。

推导过程。:。 volumes。nvidia-container-runtime。 # 启用计算和工具功能。docker。webui。}。docker-compose。 -。#指定版本的安装 在这里,-s。#目录结构如下:c;将下面给出的文件写入docker-compose.yaml。 $(。-it。 hostname。mkdir。add-apt-repository。 "deb [arch=amd64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu。ollama-net。进入相应的docker-compose.操作命令在yaml文件所在目录下启动容器。 # 使容器能够访问所有内容 GPU。//bin/bash。networks。 deploy。#!up。 ports。
ollamadeamon-docker-compose.yaml。tee。:。apt-get。:。webui。8080。docker-compose-linux-x86_64 /usr/local/bin/docker-compose。https://nvidia.github.io/nvidia-container-runtime/。-。-。
首先是环境介绍。ollama pull deepseek-r1:14b。sudo。 add。-。"3.3"services。#下载后,运行模型。NVIDIA_DRIVER_CAPABILITIES=compute。/app/backend/data。:。├── ollamawebui│ ├── docker-compose.yaml。:。 -cs。https://nvidia.github.io/nvidia-container-runtime/gpgkey。=5。docker-compose。