当前位置: 首页 > news >正文

【论文速看】DL最新进展20241020-Transformer量化加速、低光增强

目录

    • 【Transformer量化】
    • 【低光增强】

【Transformer量化】

[2024] SageAttention: Accurate 8-Bit Attention for Plug-and-play Inference Acceleration

论文链接:https://arxiv.org/pdf/2410.02367

代码链接:https://github.com/thu-ml/SageAttention

Transformer架构在各种模型中占主导地位。作为Transformer的核心,注意力的计算复杂度为O(N^2),而线性变换为O(N)。在处理大序列长度时,注意力成为主要耗时组件。尽管量化已经被证明是加速模型推理的有效方法,但现有的量化方法主要集中在优化线性层。为此,本文首先详细分析了注意力量化的可行性。在此基础上,作者提出了SageAttention,一种高效且准确的注意力量化方法。所提方法的OPS(每秒操作数)分别比FlashAttention2和xformers高出约2.1倍和2.7倍。SageAttention还在准确性表现上优于FlashAttention3。全面的实验证实了所提方法在各种模型上几乎没有端到端指标损失,包括用于大规模语言处理、图像生成和视频生成的模型。

在这里插入图片描述

在这里插入图片描述


【低光增强】

[2024] Towards Flexible and Efficient Diffusion Low Light Enhancer

机构:上交大、上海AI lab

论文链接:https://arxiv.org/pdf/2410.12346

代码链接:无

基于扩散的低光照图像增强(LLIE)在改善低光照图像的可见性方面取得了显著成效。然而,迭代采样过程引入的巨大计算负担仍然是一个主要关注点。当前的加速方法,无论是基于训练还是无训练的,通常会导致显著的性能下降。因此,为了实现性能与现有多步骤教师模型相媲美的高效学生模型,通常需要重新训练一个更有能力的教师模型。这种方法引入了不灵活性,因为它需要额外的训练来提升教师的性能。为了解决这些挑战,作者提出了一种专门为LLIE设计的步骤蒸馏框架,称为反射感知扩散与蒸馏轨迹(ReDDiT)。ReDDiT训练一个学生模型,在较少的步骤内复制教师的轨迹,同时还具有超越教师表现的能力。具体来说,首先引入了一个轨迹解码器,从教师模型提供指导。接着,将一个反射感知轨迹细化模块融入到蒸馏过程中,以实现更加确定性的来自教师模型的指导。所提框架在仅2步内达到了与以前基于扩散的方法相当的性能,同时在8或4步时取得了新的最先进结果。对10个基准数据集的全面实验评估验证了所提方法的有效性,始终表现优于现有的最先进方法。

在这里插入图片描述



http://www.mrgr.cn/news/54840.html

相关文章:

  • 【云从】七、云数据库
  • 2. 解析DLT698.45-2017通信规约--正向有功总电能
  • [C++]ecplise C++新建项目跑hello world
  • python中dataframe转化为list的几种方法
  • 传感器驱动系列之PAW3212DB鼠标光电传感器
  • AMBA-CHI协议详解(十)
  • Pencils Protocol 用户特权?持有 DAPP 将获 Scroll 生态空投!
  • 模型的部署:服务端与客户端建立连接(Flask)
  • GO语言编程之旅
  • 【27续】c++项目练习
  • 软件游戏缺失d3dx9_42.dll如何修复,马上教你6种靠谱的方法
  • 【设计模式-迪米特法则】
  • 网页从输入网址到页面渲染完成都经历了哪些过程?
  • 区块链可投会议CCF B--SenSys 2025 截止11.07 附2023录用率
  • 水题四道。
  • RAG流程的实现与改进
  • Codeforces Round 979 (Div. 2) B. Minimise Oneness
  • spdlog学习记录
  • Redis高阶篇之Redis单线程与多线程
  • 【深度学习】(12)--模型部署 <连接客户端与服务端>