当前位置: 首页 > news >正文

开源模型应用落地-qwen2-7b-instruct-LoRA推理Gradio-Axolotl-单机单卡-V100(十一)

一、前言

    本篇文章将使用Axolotl去调用微调后的模型权重,包括使用命令行及Gradio方式,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。

    前置内容:开源模型应用落地-qwen2-7b-instruct-LoRA微调-Axolotl-单机单卡-V100(九)


二、术语介绍

2.1. LoRA微调

    LoRA (Low-Rank Adaptation) 用于微调大型语言模型 (LLM)。  是一种有效的自适应策略,它不会引入额外的推理延迟,并在保持模型质量的同时显着减少下游任务的可训练参数数量。

2.2.参数高效微调(PEFT) 

    仅微调少量 (额外) 模型参数,同时冻结预训练 LLM 的大部分参数,从而大大降低了计算和存储成本。

2.3.Qwen2-7B-Instruct

    是通义千问 Qwen2 系列中的一个指令微调模型。它在 Qwen2-7B 的基础上进行了指令微调,以提高模型在特定任务上的性能。

    Qwen2-7B-Instruct 具有以下特点:

  • 强大的性能:在多个基准测试中,Qwen2-7B-Instruct 的性能可与 Lla

http://www.mrgr.cn/news/6629.html

相关文章:

  • 安卓逆向软件分享 | AndroidKiller
  • wpf 定制 个性圆角信息面板
  • 机器学习基础(Datawhale X 李宏毅苹果书 AI夏令营)
  • conda大全及实操
  • Circuitjs 快捷键完全列表
  • Python酷库之旅-第三方库Pandas(090)
  • 小琳AI课堂:Llama——NLP界的多面手
  • 【代码随想录训练营第42期 Day38打卡 - 动态规划Part6 - LeetCode 322. 零钱兑换 279.完全平方数 139.单词拆分
  • <数据集>遥感船舶识别数据集<目标检测>
  • 微信小程序用 pinia数据化存储信息
  • mysql regexp匹配多个字符串
  • 【Qt笔记】QPushButton控件详解
  • 游戏如何对抗 IL2cppDumper逆向分析
  • Centos7配置代理安装最新版Docker并拉取镜像
  • react 中的useState useEffect
  • MySQL用户与权限管理
  • .Net 6 WebApi项目中使用Log4Net详解
  • 单一职责原则在微服务中的应用:服务分解与职责明确
  • 产品需求文档
  • 【C++】提高 -- 类模板