本篇内容为发布或修改时的常见大语言对话模型,仅供参考。
对话模型:
- ChatGPT(OpenAI):https://chatgpt.com/
- Claude(Anthropic):https://claude.ai/
- Gemini(Google):https://gemini.google.com/
- HuggingChat(HuggingFace):https://huggingface.co/chat/
- Kimi(月之暗面):https://kimi.moonshot.cn/
- 文心一言(百度):https://yiyan.baidu.com/
- 通义千问(阿里巴巴):https://qianwen.aliyun.com/
- 讯飞星火(科大讯飞):https://xinghuo.xfyun.cn/
- 智谱清言(智谱华章):https://chatglm.cn/
- 腾讯混元(腾讯):https://hunyuan.tencent.com/
- 豆包(字节跳动):https://www.doubao.com/
- 扣子(春田知韵、字节跳动):https://www.coze.cn/
- 小悟空(字节跳动):https://wukong.com/
- 商量(商汤科技):https://chat.sensetime.com/
- 百川大模型(百川智能):https://chat.baichuan-ai.com/
- 紫东太初(中国科学院自动化研究):https://taichu-web.ia.ac.cn/
- 海螺(上海稀宇科技MiniMax):https://hailuoai.com/
- 孟子GPT(澜舟科技):https://www.langboat.com/product/mchat
- 万知(零一万物):https://www.wanzhi.com/
- 跃问(阶跃星辰):https://stepchat.cn/
- 山海大模型(云知声智能):https://shanhai.unisound.com/
- 元象大模型(元象XVERSE):https://chat.xverse.cn/
- 天工(昆仑万维):https://www.tiangong.cn/
- Luca(面壁智能):https://luca.cn/
- 360智脑(360):https://chat.360.com/
- ……
智能搜索:
- Perplexity(Perplexity):https://www.perplexity.ai/
- 百度AI对话(百度):https://chat.baidu.com/
- 360AI搜索(360):https://www.sou.com/
- 秘塔AI搜索(秘塔科技):https://metaso.cn/
- ……
以上链接可以在“学术导航”页面访问。
补充:这是个人搭建的 AI 对话,完全免费使用:https://chat.guanjihuan.com ,可实现多个大语言模型同时调用。另外,也有一些开源的大语言模型可以在本地部署,例如 ChatGLM, Qwen 等,这对硬件的要求会高一些,可参考博文:对话模型chat.guanjihuan.com的主要实现代码开源。
【说明:本站主要是个人的一些笔记和代码分享,内容可能会不定期修改。为了使全网显示的始终是最新版本,这里的文章未经同意请勿转载。引用请注明出处:https://www.guanjihuan.com】
关老师您好,我们有两块儿24G的4090,在本地部署了清华的GLM2模型,已经可以正常使用了,但是GLM2模型感觉不太聪明,占用了12G的显存后还留有36G的空余,请问有什么其他的开源可以本地部署的模型推荐吗?
我目前是成功安装 ChatGLM2-6B-32K 和 InternLM-Chat-7B-8K 模型。此外,7B左右的模型还有:阿里的 Qwen-7B-Chat、智源的 AquilaChat2-7B-16K、百川的
Baichuan2-7B-Chat 等,这些我还没安装成功。它们的智力水平估计都差不多,所以我暂时不折腾了。
如果需要更聪明一些的,可以试着安装更多参数的模型,例如14B、20B或70B,可以参考这个排行榜:https://opencompass.org.cn/leaderboard-llm。
如果模型太大,显存不够用,也可以考虑采用8bit或4bit量化的方式,量化后智力减少不是特别明显,这样可以安装更多参数的模型。方法可以参考:https://huggingface.co/docs/transformers/main_classes/quantization,但步骤稍微有点麻烦,也可能会出现错误。
老师我是直接在git上下载的ChatGLM2-6B也就是这个项目https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md
后面的32K是下载的参数还是说是另一个项目?
32K指的是支持的上下文长度。链接在:https://huggingface.co/THUDM/chatglm2-6b-32k 或者 https://huggingface.co/THUDM/chatglm2-6b-32k-int4。
谢谢关老师的解答,我部署了Qwen-14B,确实聪明多了
嗯,不错