当前位置: 首页 > news >正文

损失函数、成本函数cost 、最大似然估计

一、损失函数

什么是损失函数?

【深度学习】一文读懂机器学习常用损失函数(Loss Function)-腾讯云开发者社区-腾讯云

损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子:

LogLoss对数损失函数

Sigmoid 和softmax 函数以及交叉熵损失logloss_关于sigmoid函数是连续的-CSDN博客

平方损失函数MSE

最小二乘法是线性回归的一种。最小二乘法(OLS)将问题转化成了一个凸优化问题。

案例:

假设我们有一组数据点进行回归预测:

  • 实际值(真实值)y: 10, 20, 30
  • 预测值 y^​: 12, 18, 29

  残差 {10-12=-2,20-18=2,30-29=1}

MES=1/3(-2*-2  +2 *2 +1*1 )=9/3=3 

这个值越小表示拟合的越好

>> % 实际值
y = [10, 20, 30];% 预测值
y_hat = [12, 18, 29];% 计算平方损失
square_loss = (y - y_hat).^2;% 显示每个数据点的平方损失
disp('每个数据点的平方损失:');
disp(square_loss);% 计算均方误差(MSE)
mse = mean(square_loss);% 显示均方误差
disp('均方误差(MSE):');
disp(mse);
每个数据点的平方损失:4     4     1均方误差(MSE):3>> 

指数损失函数

特点

  1. 对错误预测的惩罚:如果预测值 y^\hat{y}y^​ 与实际标签 yyy 不符,损失函数的值会显著增加。
  2. 指数增长:损失函数的值随着预测错误的程度(即 y⋅y^y \cdot \hat{y}y⋅y^​ 负值)指数级增长,强调了模型对错分类样本的关注。

案例:

假设你正在使用 AdaBoost 算法进行分类任务。你有一个实际标签 yyy 和一个预测值 y^\hat{y}y^​,需要计算对应的指数损失。

示例数据

% 定义实际标签和预测值
y = 1;       % 实际标签
y_hat = -0.8; % 预测值% 计算指数损失
exponential_loss = exp(-y * y_hat);% 显示结果
disp('指数损失函数的值:');
disp(exponential_loss);

 案例2:

% MATLAB 计算指数损失函数示例% 实际标签和预测值
y = [1, -1, 1, -1];     % 实际标签(示例)
y_hat = [-0.8, 0.5, -1, 0.2]; % 预测值(示例)% 计算每个样本的指数损失
exponential_loss = exp(-y .* y_hat);% 显示每个样本的指数损失
disp('每个样本的指数损失函数值:');
disp(exponential_loss);% 计算平均指数损失(如果需要)
mean_exponential_loss = mean(exponential_loss);
disp('平均指数损失函数值:');
disp(mean_exponential_loss);

 

Hinge损失函数(SVM) 

Hinge 损失函数(Hinge Loss Function)主要用于支持向量机(SVM)等分类任务,特别是在二分类问题中。它用于衡量分类器的预测结果与实际标签之间的差距,特别是在数据点被正确分类时,如何进一步推动模型在边界上的决策能力

定义

Hinge 损失函数的公式为:

 案例一

% 定义实际标签和预测值
y = 1;       % 实际标签
y_hat = 0.5; % 预测值% 计算 Hinge 损失
hinge_loss = max(0, 1 - y * y_hat);% 显示结果
disp('Hinge 损失函数的值:');
disp(hinge_loss);

 案例二

% 定义实际标签和预测值
y = [1, -1, 1, -1];     % 实际标签
y_hat = [0.5, -0.3, 1.2, -0.8]; % 预测值% 计算每个样本的 Hinge 损失
hinge_loss = max(0, 1 - y .* y_hat);% 显示每个样本的 Hinge 损失
disp('每个样本的 Hinge 损失函数值:');
disp(hinge_loss);% 计算平均 Hinge 损失(如果需要)
mean_hinge_loss = mean(hinge_loss);
disp('平均 Hinge 损失函数值:');
disp(mean_hinge_loss);

二、成本函数 

代价函数是用来衡量整个训练集上预测输出与实际输出之间的误差的函数。代价函数通常是由损失函数对整个训练集上的样本进行求和或平均得到的

三、最大似然估计

四、有无监督学习

有监督学习(Supervised Learning)和无监督学习(Unsupervised Learning)是机器学习中的两个基本类别,它们主要通过以下方式区分:

有监督学习(Supervised Learning)

定义:有监督学习是指在训练模型时,使用的训练数据包括输入数据和对应的目标输出(标签)。模型通过学习这些输入输出对来进行预测或分类。

特点

  • 标签数据训练数据集中每个样本都有一个对应的标签或目标值
  • 目标:从输入数据和标签中学习到一个映射函数,能够对新的、未见过的数据进行准确预测或分类。
  • 应用场景:分类(如垃圾邮件检测、人脸识别)和回归(如房价预测、温度预测)任务。

常见算法

  • 分类算法:逻辑回归、支持向量机(SVM)、决策树、随机森林、k近邻(k-NN)、神经网络等。
  • 回归算法:线性回归、岭回归、LASSO回归等。

示例

  • 分类:通过大量标记为“猫”或“狗”的图片来训练一个模型,以便能对新的图片进行分类。
  • 回归:利用历史房价数据来训练一个模型,预测未来某个地区的房价。

无监督学习(Unsupervised Learning)

定义:无监督学习是指在训练模型时,使用的训练数据只有输入数据,没有对应的目标输出(标签)。模型通过分析数据中的结构、模式或特征来进行学习。

特点

  • 无标签数据:训练数据集中没有任何标签或目标值
  • 目标:发现数据中的潜在结构、模式、群体或特征,无需事先了解目标输出。
  • 应用场景:聚类(如客户细分)、降维(如特征选择)、异常检测(如欺诈检测)等任务。

常见算法

  • 聚类算法:k均值(k-means)、层次聚类(Hierarchical Clustering)、DBSCAN等。
  • 降维算法:主成分分析(PCA)、t-SNE(t-Distributed Stochastic Neighbor Embedding)、线性判别分析(LDA)等。
  • 异常检测:孤立森林(Isolation Forest)、一类支持向量机(One-Class SVM)等。

示例

  • 聚类:对顾客进行分群,以便理解不同顾客群体的行为特征。
  • 降维:将高维数据(如图像数据)降到低维度,以便进行可视化或进一步分析。

总结

  • 有监督学习:利用带标签的数据来训练模型,目标是预测或分类。
  • 无监督学习:利用无标签的数据来发现数据中的模式或结构,目标是探索数据的内在特征。

理解这些区别可以帮助你选择合适的机器学习方法,根据任务的需求和数据的特性来应用相应的算法。


http://www.mrgr.cn/news/15794.html

相关文章:

  • 五,Spring Boot中的 Spring initializr 的使用
  • Runway删库跑路,真的run away了!
  • net6 core 接入nacos 实现服务注册入门使用,心跳检测和负载均衡
  • 从零开始:全面掌握C++ Qt开发框架基础
  • C#——扩展方法
  • 【2024 CCF编程能力等级认证(GESP)C++ 】一级大纲
  • pytorch view 函数介绍
  • 【大模型项目实战】练完这些项目,天下没有再难倒你的大模型
  • 集成电路学习:什么是DAC数模转换器
  • 从开题到答辩:ChatGPT超全提示词分享!(下)【建议收藏】
  • 【C++】智能指针
  • leetcode刷题-二叉树07
  • 咬破那片叶,看天
  • 企业需求管理好帮手:10款工具深度解析
  • 大学生学习python之后,就业迷茫怎么办?
  • 【练习1】数字统计
  • 突发!Runway从HuggingFace及Github上删库跑路,技术圈震动!
  • AI大模型编写多线程并发框架(六十三):监听器优化·上
  • 在高质量视频生成文本、图像生成文本的GLM-4V-Plus技术加持下医疗未来的方向
  • CSS线性渐变拼接,一个完整的渐变容器(div),要拆分成多个渐变容器(div),并且保持渐变效果一致