共计 1172 个字符,预计需要花费 3 分钟才能阅读完成。
什么? 时至今日你还不知道 ChatGPT 是啥? 好吧,那也没关系,毕竟,OpenAI 把大陆和香港都给封禁了(或者说没有开放服务),现在很多人也只是通过各种奇技淫巧才能用得上,没听说过也情有可原:)
假如你很想体验一下 ChatGPT,却又不知道怎么打通道、建账号甚至让它 Take your money,那也可以考虑自己建一套(build your own self-hosted chatgpt),今天,扶墙老师就为大家介绍三种自己搭建自用 ChatGPT 的方法…
1 LLaMA
LLaMA 1 是 Meta 公司 (也就是原 facebook 公司) 开源的大语言模型(LLM, Large Language Model),社区在其基础之上搞了个项目,叫 dalai 2,让我们可以很方便地就可以进行本地化部署,没有高端 GPU 也没关系,普通笔记本都能跑:
甚至于还有人搞了个项目叫 alpaca-lora 3. 让你在树莓派上都能跑 LLaMA。
但说实话,扶墙老师试过之后,感觉效果上跟真正的 ChatGPT 还是有些差距的。
好在,我们还有第二种方式…
[!NOTE]
LLaMA 一般称之为“美洲鸵”,虽然发音上跟某和尚很相近 –
2 Alpaca
Alpaca 4 是“羊驼”,它是斯坦福大学在 LLaMA 模型基础上结合 175 个指令任务 (instruction tasks) 做 fine-tuning 训练出来的大语言模型:
效果上要比 LLaMA 好很多,但,你懂得,人家是英文语料…
自己部署倒也是简单,开源社区就是这么强大,有人搞了个 alpaca.cpp 5. 单机跑,一点儿问题没有。
3 ChatGLM
ChatGLM 6 是清华大学搞的中英文双语模型,如果说前面都是英文语系的优化,那么 ChatGLM 则是侧重于针对中文预料的训练,在本机跑个低配版本,内存只要 6G 就可以了。
对于中文场景的自部署大语言模型,ChatGLM 绝对值得一试啊!
4 后话
当然,要说效果,其实上面三种模型都不如 ChatGPT,就算是 Google 新出的 Bard,据说也是差强人意,所以,有条件,还是推荐大家首选 ChatGPT,实在被卡脖子了,那自己尝试部署一个属于自己的大语言模型,也是一种不错的选择。
GL & HF
https://github.com/facebookresearch/llama↩︎
https://github.com/cocktailpeanut/dalai, 这个名字起的在大陆有点儿敏感…↩︎
https://github.com/tloen/alpaca-lora↩︎
https://crfm.stanford.edu/2023/03/13/alpaca.html↩︎
https://github.com/antimatter15/alpaca.cpp↩︎
https://github.com/THUDM/ChatGLM-6B↩︎