前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >本地运行大模型,复刻ChatGPT聊天界面

本地运行大模型,复刻ChatGPT聊天界面

作者头像
统计学家
发布2024-05-11 19:18:10
1440
发布2024-05-11 19:18:10
举报

大家好,我是章北海

前几天我发布了一个视频:《本地运行大模型,配合笔记应用王者 Obsidian 做知识管理》

这几天大模型开源世界又热闹起来了,因为 Meta 发布了 Llama 3。

我在这篇文章中详细介绍了Llama 3的两个版本和本地运行方法:

《本地运行 Llama 3,可以中文,但不强》

Ollama 目前支持了市面上几乎所有的开源大模型,安装后均可一个命令本地启动并运行。

模型下载完成后就可以直接在 Terminal 中聊天。

不过这种方式有点太麻烦了,很不优雅。

这里老章再推荐一个好用的工具,open-webui:

https://github.com/open-webui/open-webui

它是一个仿照 ChatGPT 界面,为本地大模型提供图形化界面的开源项目,可以非常方便的调试、调用本地模型。它支持各种运行器,还兼容 OpenAI 的 API。

open-webui用起来也很方便,最极简的安装、运行方法是使用 Docker

代码语言:javascript
复制
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Terminal 中执行这行代码,稍等片刻,然后访问localhost:3000即可。

如果你的电脑还没有安装Docker,可以先安装一下,方法也很简单。

我直接安装了docker-desktop,下载后一路下一步即可:https://www.docker.com/products/docker-desktop/

open-webui还提供了用户注册与登陆功能,首次使用需要先注册一个账号:

登陆后主页面如下,在这里可以选择我们刚刚运行起来的大模型,我的电脑性能太差,这里还拿 qwen 0.5b 做演示

然后就可以直接与本地大模型聊天了

open-webui 前端界面功能还蛮多的,感兴趣的小伙伴可以本地跑起来试试。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2024-05-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与统计学 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
容器服务
腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档