Llama Dify,在你的电脑上建立一套人工智能工作流

本文简介。
最近字节推Coze,您可以在这个平台上制作知识库,制作工作流,生成具有特定领域知识的智能身体。
所以,有没有可能在当地部署一套这个东西?这样,敏感数据就不会泄露,人工智能也可以用于断网。
刚好最近。 Llama 3.1。
发布了,本文就以。 Llama 3.1。
xff0作为基本模型c;配合。 Dify。
在当地建一套“在当地建一套”Coze”。
跟随本文一步步操作确保能行
什么是Dify?f;
Dify 官网(https://difyai.com/) 自我介绍:Dify。
是开源的。 LLM。
应用开发平台。提供从。 Agent。
构建到。 AI workflow。
编排、。RAG。
检索、模型管理等能力c;易于构建和操作生成的生成形式 AI 原生应用。比。 LangChain。
更易用。
动手搭建。
在本地搭建这个平台很简单c;其实 Dify文档(https://docs.dify.ai/v/zh-hans) 都写得很清楚,还有中文文档。
具体来说,需要做以下步骤:
- 安装。
Ollama。
- 安装。
- 下载大模型。
- 安装。
Docker。
- 安装。
- 克隆。
Dify。
源代码到本地。
- 克隆。
- 启动。
Dify。
- 启动。
- 配置模型。
接下来一步一步的操作。
安装 Ollama。
简单来说。 Ollama。
运行大语言模型的环境,这是。 Ollama。
的官网地址 https://ollama.com/,打开它,点击 Download 按钮下载。 Ollama。
客户端,然后傻瓜安装(总是点击“下一步”)。
安装完成后,您可以看到羊驼图标,点击操作即可。
下载大模型。
安装完。 Ollama。
后,我们到。 Ollama。
官网模型页面(https://ollama.com/library)选择模型。
有许多开源模型,例如,阿里的千问2,搜索。 qwen2。
能找到它。
本文使用。 Llama 3.1。
,这是前两天才发布的模型,纸面参数贼强。
打开。 Llama 3.1。
模型的地址(https://ollama.com/library/llama3.1),根据您的需要选择合适的版本,我选的是 8b 版。
选好版本后复制上图右侧红色框的命令,运行到您的计算机终端。
如果您还没有下载这个模型,它将自动下载,如果它已经下载,它将运行该模型。
运行后,您可以在终端上与大模型对话。
当然,我们不会在终端和大模型之间如此原始的对话,但是我们要搞工作流!
👉[。CSDN礼包。🎁:全网最完整的LLM大模型入门+免费共享高级学习资源包。(安全链接#xf00c;放心点击)#;]()#x1f48;
安装 Docker。
前面的基本步骤已经完成了,下一步就是开始操作。 Dify。
做准备了。
先安装。 Docker。
,打开。 Docker。
官网(https://www.docker.com/),根据您的系统下载相应的安装包,然后还是傻瓜式安装。
克隆 Dify 源代码到本地。
要使用。 Dify。
,首先,把它拉进你的电脑。
git clone https://github.com/langgenius/dify.git。
在你的电脑里找个位置(目录),用。 git。
将。 Dify。
克隆下来,用上面的命令克隆就行了。
启动 Dify。
进入 Dify 源代码的 docker 目录,执行一键启动命令:
cd dify/docker cp .env.example .env docker compose up -d。
启动完成后你的。 docker。
你会在里面看到这个。
此时您在浏览器中输入。 http://localhost。
这个界面可以看到。
首次打开。 Dify。
您需要设置管理员帐户。
然后使用管理员帐户登录下面的页面可以看到。
点击“创建空白应用”创建聊天助手、文本生成应用程序,Agent、工作流。
点击"工作流"可以看到类似Coze的工作流编辑界面。
配置模型。
工作流配置前,我们需要给予。 Dify。
配置大语言模型。
单击页面右上角的管理员头像,然后选择“设置”。
选择模型供应商,然后点击“Ollama卡片添加模型。
在添加。 Ollama。
模型c;弹出窗的左下角有一个“如何继承” Ollama按钮,点击它跳转。 Dify。
官方文档教你如何配置#xff00c;但是这里可能有一个小坑。
我们以前用过。 Ollama。
把。 Llama 3.1。
运行,打开浏览器 `http://localhost:11434 看到这个界面证明模型运行成功。
此时在“添加” Ollama“填写信息,“基础 URL”里输入。 http://localhost:11434。
即可。
如果你是 Mac 计算机,填写上述信息可能会报告这个错误:
An error occurred during credentials validation: HTTPConnectionPool(host='localhost', port=11434): Max retries exceeded with url: /api/chat (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused'))。
在这个时候,你需要“基础” URL”里填入。 在这个时候,你需要“基础” URL”里填入。
http://host.docker.internal:11434。
。 遇到问题可以看。
Dify。
官方文档的 FAQ。
添加后,您可以在模型列表中看到它。 除了接入。
Ollama。外,
Dify。 还支持访问。
OpenAI。 等闭源模型但是你需要去。
OpenAI。
在那边买个服务。
以上是本文的全部内容,如果这篇文章对你有帮助,请与你的朋友分享~
大模型时代,如何有效地学习大模型?f;
如今,对大型模型岗位的需求越来越大c;但是相关岗位人才很难找到工资持续上升,#xff0c;AI运营平均工资约18457元,AI工程师的平均工资约为3736元/#xff0c;大型算法的平均工资约为39607元。你可以有更多的可能性掌握大模型技术。
:
• 成为全栈大模型工程师,包括Prompt,LangChain,全栈工程等技术开发、运营、产品等方向b;
• 能够进行模型二次训练和微调,引导大家完成智能对话、文生图等热门应用
• 工资上涨10%-20%-#xff0c;覆盖更多的高薪职位这是高需求、高待遇的热门方向和领域;
• 更好的项目可以为未来的创新和创业提供基石。也许每个人都想学习AI大模型技术也。想通过这个技能真正实现升职加薪就业或副业的目的,但是我不知道如何开始学习。,因为网上信息太多太乱,如果不能系统地学习,就相当于白学。为了让大家少走弯路少碰壁,在这里,我直接把所有的东西打包整理好,我希望它能真正帮助你。
。👉[CSDN礼包🎁:全网最完整的LLM大模型入门+免费共享高级学习资源包。(安全链接放心点击)#;
]()#x1f48;
AGI大模型系统学习路线。
许多人在学习大模型时没有方向,东学一点,西学一点,#xff0c;像无头苍蝇一样乱撞,以下是一套完整的学习路线,希望能帮助你学习AI大模型。
第一阶段 从大模型系统设计开始解释大模型的主要方法;
第二阶段: 从Prompts的角度来看,通过大模型提示词工程可以更好地发挥模型的作用;
第三阶段: 在阿里云PAI平台的帮助下,大模型平台应用开发构建了电子商务领域的虚拟试衣系统;
第四阶段: 以LangChain框架为例,开发大型知识库c;构建物流行业咨询智能问答系统;
第五阶段: 借助大健康、新零售和新媒体领域,大模型微调开发构建了适合当前领域的大模型;
第六阶段 主要是SD多模态大模型,构建文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型产业应用。
2、人工智能大模型报告集合640套。
2、人工智能大模型报告集合640套。
这套包含640份报告的集合,它涵盖了人工智能大模型的理论研究、技术实现、行业应用等方面。无论你是研究人员,工程师,c;还是对AI大模型感兴趣的爱好者,本报告集将为您提供有价值的信息和启示。
AI大模型经典PDF书籍。
随着人工智能技术的快速发展,人工智能大模型已成为当今科技领域的热点。这些大型预训模型如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,我们对人工智能的理解正在改变。 以下PDF籍是非常好的学习资源。
四、人工智能大模型各大场景实战案例。结语。[AGI大模型学习一一学习 所有资源获取处(免费领取)一一】 所有资料 ⚡️ ,如果朋友需要一整套的话 《。LLM大模型入门Ʊ高级学习资源包。
》,扫码获取~。👉[CSDN礼包🎁:全网最完整的LLM大模型入门+免费共享高级学习资源包。
分享让更多人看到