当前位置: 首页 > news >正文

大模型16:大模型部署ChatGLM-6B

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。

git clone https://github.com/THUDM/ChatGLM-6B.git


http://www.mrgr.cn/news/10182.html

相关文章:

  • 计算机毕业设计推荐-基于python的摄影爱好者分享平台
  • Edge 浏览器插件开发
  • 三种相机模型总结(针孔、鱼眼、全景)
  • git 落后主分支提交
  • 如何有效激活微信陌生客户:加好友后的沟通策略!
  • C语言——函数
  • 66 IPV4/6 OSPFV2/3 实操
  • 会声会影剪辑视频收费吗,会声会影最新破解版
  • ElementUI或AntDesign拿不到对话框内元素的 ref或者dom
  • 合宙LuatOS开发板使用说明——Air700ECQ
  • 滑块自动化分析
  • 如何用Java SpringBoot实现G县乡村生活垃圾治理运输地图?
  • 领域驱动模型设计与微服务架构落地(一)
  • JS数据类型——【Map】精讲
  • 韩语每日一句柯桥学韩语韩语零基础入门外贸韩语口语
  • 数据仓库系列7:什么是概念模型、逻辑模型和物理模型,它们有什么区别?
  • 启动全球化2.0战略 | 云轴科技ZStack联合新龙国际SiS召开泰国推介会
  • C语言通用函数 - 判断ip是否合法
  • 【游戏速递】 小猪冲刺:萌动指尖的极速挑战,小虎鲸Scratch资源站独家献映!
  • UFO:革新Windows操作系统交互的UI聚焦代理