当前位置: 首页 > news >正文

如何让ollama本地模型使用code-interpreter(代码解释器)?

代码解释器通常都需要在GPU的环境下使用原生的模型通过transformer来实现,且本身还需要模型本身支持,ollama本地蒸馏过的模型占用的资源比较小,也方便本地使用,但是如果想用这些模型的代码解释器,即让大模型写程序并执行,好像又没有提供必要的接口,我们可以使用open-interpreter来实现。

首先,安装一下:

pip install open-interpreter

然后,执行

interpreter --local

选择本地模型的提供者,常用的有这几种,我们选Ollama,然后选本地安装的任意模型,我这里选qwen2.5

然后就可以开始对话了。下面是我写的一个例子,供参考。

报错了,我们回车继续。

即通过让大模型自己来编写pytho代码并执行来实现计算,保证计算的准确性。计算对不对和模型也有一定的关系,有时候模型写的代码可能不对,导致结果不对。

你还可以尝试其它的模型或其它的指令,有人通过直接发送指令提示词可以控制本机电脑上的程序调用和运行。


http://www.mrgr.cn/news/40177.html

相关文章:

  • 高级java每日一道面试题-2024年9月30日-服务器篇[Redis篇]-Redis持久化有几种方式?
  • 3.4K Star,你的下一个商店
  • 计算机毕业设计 二手图书交易系统的设计与实现 Java实战项目 附源码+文档+视频讲解
  • 钉钉x昇腾:用AI一体机撬动企业数字资产智能化
  • 【电机-概述及分类】
  • Elasticsearch深度攻略:核心概念与实践应用
  • 程序员如何准确评估手中的工作量
  • 《Linux从小白到高手》理论篇(七):Linux的时间管理运行级别启动过程原理详解
  • 被Karpathy誉为“蕴藏着类似ChatGPT的机会的AI产品Notebook LM”,它到底做对了什么?
  • JUC高并发编程5:多线程锁
  • 强化学习-python案例
  • Windows——解除Windows系统中文件名和目录路径的最大长度限制
  • 【RockyLinux 9.4】安装 NVIDIA 驱动,改变分辨率,避坑版本。(CentOS 系列也能用)
  • 亚洲市场|人工智能对固态硬盘SSD需求影响
  • TI DSP TMS320F280025 Note15:串口SCI的使用
  • OpenGL ES 着色器(5)
  • TI DSP TMS320F280025 Note14:模数转换器ADC原理分析与应用
  • STL之list篇(下)(从底层分析实现list容器,逐步剥开list的外表)
  • 【Linux】进程替换
  • CMake教程(八):添加定制命令和生成的文件