使用 ollama 部署本地模型

迎月兮

关注

阅读 27

2024-04-16

最佳实践:私有化本地大模型搭建

1.下载ollama大模型框架

https://ollama.com/download	//建议直接部署linux环境

2.使用ollama部署阿里千问大模型(Qwen7b,需要8G内存)

ollama run qwen:7b

3.部署前端(用户界面),lobe-chat

https://github.com/lobehub/lobe-chat	//强烈建议docker安装

部署建议:linux+docker


相关推荐

精彩评论(0)

0 0 举报