当前位置: 首页 > news >正文

How to batch wise grad

https://discuss.pytorch.org/t/vmap-over-autograd-grad-of-a-nn-module/179038/2
jaxrev vmap虽然promising, 但是它们每次都要前向传播

这两天实现了一下,这个vmap和functional_call的思路实现复杂的含有多次求导的loss恐怕需要多次前向传播,因为方程中有很多很多的导数,而pytorch(甚至包括jax)的函数要求每求一次导,都要从头做一个前向传播。所以这个方案对于一些简单的physics informed loss是可以用的。
但现在我感觉还不如第一层导数求和求就好,第二层导数还不如循环一下,这样虽然循环了,但是前向传播次数只有一次


http://www.mrgr.cn/news/36656.html

相关文章:

  • Go语言匿名字段使用与注意事项
  • 跨地域协作新篇章:异地传输文件的最优方案
  • 步进电机认识
  • Linux必学知识点:单独编译、烧写构建某个镜像,打包Linux系统镜像
  • 主流数据库与最佳备份工具选择
  • 一篇带你搞定数据结构散列表
  • SAP ABAP AA 固定资产导入程序
  • 双十一数码产品有哪些? 2024年度双十一数码好物推荐
  • Echarts 堆叠柱形图如何添加总计
  • 生产k8s 应用容器内存溢出OOMKilled问题处理
  • [uni-app]小兔鲜-01项目起步
  • pdf转换成word有哪些方法?10种将PDF转成word的方法
  • 【Delphi】Delphi vcl 和 fmx 的区别是什么
  • 暴雨受邀出席2024 AI大模型生态算力峰会
  • 一文通俗讲透 RAG 背后的逻辑,让 AI 回答更精准
  • 7-9 判断一个点是否在园内java
  • 论文阅读- On the Feasibility of Fully AI-automated Vishing Attacks
  • 基于Netty源码学习那些并发技巧
  • 动手学LLM(ch1)
  • ComfyUI基础篇:安装方法(Windows系统)