当前位置: 首页 > news >正文

发现 Unstructured 的 “TensorrtExecutionProvider“ 比 “CUDAExecutionProvider“ 慢

发现 Unstructured 的 "TensorrtExecutionProvider" 比 "CUDAExecutionProvider" 慢

修改 unstructured_inference/models/detectron2onnx.pyunstructured_inference/models/detectron2onnx.py 的代码,优先使用 “CUDAExecutionProvider”。

        # ordered_providers = [#     "TensorrtExecutionProvider",#     "CUDAExecutionProvider",#     "CPUExecutionProvider",# ]ordered_providers = ["CUDAExecutionProvider","TensorrtExecutionProvider","CPUExecutionProvider",]

完结!


http://www.mrgr.cn/news/21953.html

相关文章:

  • flume系列之:查看flume系统日志、查看统计flume日志类型、查看flume日志
  • 【2.1 深度学习中的感知机是什么】
  • AI模型:到底是追求全能还是要追求专精?这是一个问题
  • Exchange 服务器地址列表的配置方法与注意事项
  • 唯徳知识产权产权系统存在任意文件读取漏洞
  • FastGPT自定义插件的icon
  • 机器学习1——手把手教你用Python跑一个线性回归模型
  • Class对象和静态方法
  • 【高等代数笔记】线性空间(一到四)
  • 【C++ Primer Plus习题】12.2
  • 【Linux 从基础到进阶】 常用 Shell 脚本示例解析
  • C++可以被重载的操作符Overloadable operators
  • 【mysql】mysql之主从延迟复制测试场景
  • 大学新生的学习秘诀:如何学习编程?(文末赠书)
  • QML入门之基本语法
  • C语言作用域
  • 面对Redis数据量庞大时的应对策略
  • day45-测试平台搭建之前端vue学习-基础4
  • c++习题30-求10000以内N的阶乘
  • RMSE 和 RMS 介绍