0
点赞
收藏
分享

微信扫一扫

Ollama+Llama3搭建本地大模型

1.Ollama下载

Ollama是运行大预言模型的环境,下载地址:https://ollama.com

2.配置和安装

直接install。安装成功后,屏幕右下角会出现小羊驼的图标。

注意:默认模型安装模型设在了C盘,需要改改路径,不然很容易满盘(一般大模型都非常大)。

方法:设置系统变量OLLAMA_MODELS,将值修改为自己空间大一些的盘符路径。

3.为Ollama加载大语言模型

命令:ollama run XXX(大语言模型名称)

查看模型的名称,同样可以通过ollama官网。

点击网页右上角按钮,选择MODELS选项,进入模型介绍页面(https://ollama.com/search)。

直接点击任意模型名称,详情页就可以看到可以直接复制的命令。

启动windows powershell,粘贴命令后回车——

如果之前没有下载过,会自动通过网络开始下载;如果之前已经下载完成了,就可以启动大模型。

加载大语言模型,通过终端执行ollama run llama3即可。

llama3最大的特点是高性能+低资源需求,在各类设备上运行更加便捷的同时,保持了高度准确的自然语言处理能力。

查看已安装的大模型:ollama list

更新已安装的大模型:ollama pull llama3

删除已安装的大模型:ollama rm llama2

帮助:ollama -h


举报

相关推荐

0 条评论