前提
-
本文主要用来解决用户从ollama直接拉取模型(例如使用
ollama pull
命令)报错的情况。由于ollama网站是一个国外网站,有的时候访问不太稳定,导致用户可能会卡在模型拉取的步骤。 -
魔搭是一个国内的网站,在访问稳定性上会好很多,可以用来替代huggingface或者ollama模型源,本文的目的就是使用魔搭中提供的模型加载到ollama中。
操作步骤
-
首先确认已经在环境中安装并启动ollama(命令行执行
ollama ls
不报错) -
在魔搭中搜索模型(魔搭社区),搜索想要查找的模型名称+模型尺寸+gguf关键字,例如想要搜索qwen2.5-7b模型,就去搜索
qwen2.5 7b gguf
,找到结果url为:https://modelscope.cn/models/Qwen/Qwen2.5-7B-Instruct-GGUF
-
从url中取models后的部分
/Qwen/Qwen2.5-7B-Instruct-GGUF
与魔搭的地址modelscope.cn
进行组合,变成最终拉取使用的模型名称modelscope.cn/Qwen/Qwen2.5-7B-Instruct-GGUF
-
使用语句
ollama pull modelscope.cn/Qwen/Qwen2.5-7B-Instruct-GGUF
拉取模型使用即可。
拉取特定标签
ollama可以直接拉取魔搭理的特定标签。这样就不用全部下载了。
打开其中的某个文件
组成ollama pull语法 域名/组织/仓库/:标签
ollama pull modelscope.cn/lmstudio-community/Mistral-Nemo-Instruct-2407-GGUF:Q4_K_M