几种方法可以下载hf模型

发布时间:2025-06-24 18:59:18  作者:北方职教升学中心  阅读量:160


也可以用其他想下载的模型id代替。 --token。改为自己的本地路径,meta-llama/Llama-2-7b-chat-hf。我总是在下载过程中返回403forbiden,所以我觉得这条路行不通󿀌所以只能试试huggingface是否可以下载。xxx。

终于开始下载!
在这里插入图片描述

这里没有提到的是命令行中的hugingface-cli download命令,下面将详细介绍使用情况。

这里的总结非常全面,可参考:链接。
在这里插入图片描述
然后点击右上角的头像图标,点击setting,进入此页面,点击access tokens,
在这里插入图片描述
如果没有token,

到这里还是不行󿀌使用#xff0是因为llama模型需要申请c;也就是说,

--local-dir。htttpss一般使用://hf-mirror.com/,与hf下载的方法相同,唯一的区别是下载前设置,比如Linux就是。export HF_ENDPOINT=https://hf-mirror.com。在hf上申请,点击此处的Expand to review,会有一个表格,填写姓名󿼌󿼀等地区c;不要选择China,我选择了US,由于我的VPN挂了US,大约10分钟就过去了。
在这里插入图片描述

在这里插入图片描述

几种方法可以下载hf模型。

然后运行以下命令:

huggingface-cli download --resume-download meta-llama/Llama-2-7b-chat-hf --local-dir Llama-2-7b-chat-hf/ --local-dir-use-symlinks False --resume-download。

llama模型࿰因项目需要下载c;本来觉得这是一件很简单的事情,直接在hugingface上下载c;但是没想到遇到了很多问题,所以写下这个博客来记录,希望对别人有所帮助!

刚开始搜索的教程是官方给出的,先去https://llama.meta.com/llama-downloads/申请URL,然后下载GitHub脚本下载,但实际操作后,

但由于国内防火墙的原因,不能直接访问hugingface网站,因此,
在这里插入图片描述
通过后就是这样。新建token(复制后记得保存在某个地方,叉掉页面就看不到了!)然后运行以下命令:

huggingface-cli download --resume-download meta-llama/Llama-2-7b-chat-hf --local-dir Llama-2-7b-chat-hf/ --local-dir-use-symlinks False --resume-download。