当前位置: 首页 > news >正文

神经网络算法 - 一文搞懂回归和分类

本文将从回归和分类的本质、回归和分类的原理、回归和分类的算法三个方面,带您一文搞懂回归和分类 Regression And Classification 。

回归和分类

**__**一、**__**_****_**_****_**_****_**_**回归和分类**_**_****_**_****_**_****__的___本质__

回归和分类是机器学习中两种基本的预测问题。它们的本质区别在于输出的类型:回归问题的输出是连续的数值,分类问题的输出是有限的、离散的类别标签。

回归(Regression)的本质:回归的本质是寻找自变量和因变量之间的关系,以便能够预测新的、未知的数据点的输出值。例如,根据房屋的面积、位置等特征预测其价格。

回归的本质

分类(Classification)的本质: 分类的本质是根据输入数据的特征将其划分到预定义的类别中。例如,根据图片的内容判断其所属的类别(猫、狗、花等)

分类的本质

  • 二分类(Binary Classification)表示分类任务中有两个类别。在二分类中,我们通常使用一些常见的算法来进行分类,如逻辑回归、支持向量机等。例如,我们想要识别一幅图片是不是猫,这就是一个二分类问题,因为答案只有是或不是两种可能。

  • 多分类(Multi-Class Classification)表示分类任务中有多个类别。多分类是假设每个样本都被设置了一个且仅有一个标签:一个水果可以是苹果或者梨,但是同时不可能是两者。在多分类中,我们可以使用一些常见的算法来进行分类,如决策树、随机森林等。例如,对一堆水果图片进行分类,它们可能是橘子、苹果、梨等,这就是一个多分类问题。

  • 多标签分类(Multi-Label Classification)给每个样本一系列的目标标签,可以想象成一个数据点的各属性不是相互排斥的。多标签分类的方法分为两种,一种是将问题转化为传统的分类问题,二是调整现有的算法来适应多标签的分类。例如,一个文本可能被同时认为是宗教、政治、金融或者教育相关话题,这就是一个多标签分类问题,因为一个文本可以同时有多个标签。

_**二、_**_**_**_****_**_****_**_****_**_**回归和分类**_**_****_**_****_**_****__的___**_**___原理____**_**_

线性回归 VS 逻辑回归

回归(Regression)的原理:通过建立自变量和因变量之间的数学模型来探究它们之间的关系。

线性回归

线性回归(Linear Regression):求解权重(w)和偏置(b)的主要步骤。

求解权重(w)和偏置(b)

  • 初始化权重和偏置:为权重w和偏置b选择初始值,并准备训练数据X和标签y

  • 定义损失函数:选择一个损失函数(如均方误差)来衡量模型预测与实际值之间的差距。

  • 应用梯度下降算法:使用梯度下降算法迭代更新wb,以最小化损失函数,直到满足停止条件。

梯度下降算法迭代更新w和b

  • 获取并验证最终参数:当算法收敛时,得到最终的wb,并在验证集上检查模型性能。

  • 构建最终模型:使用最终的wb构建线性回归模型,用于新数据预测。

新数据预测

分类(Classification)的原理:根据事物或概念的共同特征将其划分为同一类别,而将具有不同特征的事物或概念划分为不同类别。

逻辑回归

逻辑回归(Logistic Regression):通过sigmoid函数将线性回归结果映射为概率的二分类算法。

  • 特征工程: 转换和增强原始特征以更好地表示问题。

  • 模型建立: 构建逻辑回归模型,使用sigmoid函数将线性组合映射为概率。

  • 模型训练: 通过优化算法(如梯度下降)最小化损失函数来训练模型。

  • 模型评估: 使用验证集或测试集评估模型的性能。

  • 预测: 应用训练好的模型对新数据进行分类预测。

猫狗识别

_**三、**_**_****_**_**回归和分类**_**_****_**_****的****___**_******___**_****_**_算法_**_****_**___******_**___****_

回归(Regression)的算法: 主要用于预测数值型数据。

  1. 线性回归(Linear Regression):这是最基本和常见的回归算法,它假设因变量和自变量之间存在线性关系,并通过最小化预测值和实际值之间的平方误差来拟合数据。

  2. 多项式回归(Polynomial Regression):当自变量和因变量之间的关系是非线性时,可以使用多项式回归。它通过引入自变量的高次项来拟合数据,从而捕捉非线性关系。

  3. 决策树回归(Decision Tree Regression):决策树回归是一种基于树结构的回归方法,它通过构建决策树来划分数据空间,并在每个叶节点上拟合一个简单的模型(如常数或线性模型)。决策树回归易于理解和解释,能够处理非线性关系,并且对特征选择不敏感。

  4. 随机森林回归(Random Forest Regression):随机森林回归是一种集成学习方法,它通过构建多个决策树并将它们的预测结果组合起来来提高回归性能。随机森林回归能够处理高维数据和非线性关系,并且对噪声和异常值具有一定的鲁棒性。

分类(Classification)的算法: 主要用于发现类别规则并预测新数据的类别。

  • 逻辑回归(Logistic Regression):尽管名字中有“回归”,但实际上逻辑回归是一种分类算法,常用于二分类问题。它通过逻辑函数将线性回归的输出映射到(0,1)之间,得到样本点属于某一类别的概率。在回归问题中,有时也使用逻辑回归来处理因变量是二元的情况,此时可以将问题看作是对概率的回归。

  • 支持向量机(SVM):支持向量机是一种基于统计学习理论的分类算法。它通过寻找一个超平面来最大化不同类别之间的间隔,从而实现分类。SVM在高维空间和有限样本情况下表现出色,并且对于非线性问题也可以使用核函数进行扩展。

  • K最近邻(KNN):K最近邻是一种基于实例的学习算法,它根据输入样本的K个最近邻样本的类别来确定输入样本的类别。KNN算法简单且无需训练阶段,但在处理大规模数据集时可能效率较低。

  • 朴素贝叶斯分类器:朴素贝叶斯是一种基于贝叶斯定理的分类算法,它假设特征之间相互独立(即朴素假设)。尽管这个假设在实际应用中往往不成立,但朴素贝叶斯分类器在许多领域仍然表现出色,尤其是在文本分类和垃圾邮件过滤等方面。

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈


http://www.mrgr.cn/news/9837.html

相关文章:

  • 献给正在挣扎中的技术人!
  • C语言:科目二【基础知识】
  • MATLAB 沿任意方向分层点云(82)
  • 【STM32】电容触摸按键
  • DevOps实现CI/CD实战(二)-Jenkins配置
  • 大厂面试官问我:为什么 Object 有 wait ,为什么不全在 Thread 类上写?【后端八股文十六:Java基础合集】
  • 【Rust光年纪】文本分析利器:探索Rust语言的多功能文本处理库
  • C学习(数据结构)-->二叉树
  • 【学习笔记】灰色预测 GM(1,1) 模型 —— Matlab
  • springboot3 SecurityConfig SecurityFilterChain 需要使用CorsFilter,实际是CorsWebFilter
  • c++的delete声明可以用在不是类的内置函数里面
  • CISAW安全集成和别的类型有什么区别
  • 微分方程(Blanchard Differential Equations 4th)中文版Section4.1
  • 论文文献翻译怎么做?快又准的外文文献翻译软件帮你搞定
  • sqlilabs less16-20关手工注入
  • 笔试题(11)
  • JS 遍历请求数据,实现分页
  • 几个很棒的AI问题和精彩回答
  • cesium 水波纹扩散圆材质
  • Java数组的定义与使用