百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

【Python机器学习系列】拟合和回归傻傻分不清?一文带你彻底搞懂

moboyou 2025-05-15 19:40 3 浏览

一、拟合和回归的区别

拟合并不特指某一种方法,指的是对一些数据,按其规律方程化,比如把平面(一元)上一系列的离散点,用一条直线(线性)或光滑的曲线(非线性)连接起来,而其方程化的方法有很多,回归分析(regression analysis)指的是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,是其中一种最常见的拟合方法,还有指数平滑这样简单一些的方法,或者ARIMA,VAR,等等各种复杂一点的方法。

从离散点的角度看,它们都有靠近某条曲线的趋势,所以这些点都在朝曲线拟合,从曲线的角度看,那些离散点都在向自己靠拢,所以这些点都在回归到曲线。所以拟合表示离散点(可以拓展到高维特征)与某个曲线方程(可以拓展到模型)的偏差小(目标),回归表示如何找到这样的曲线方程或模型(方法

本文主要讲解拟合和回归这两个概念的区别和联系,对回归拟合的方法进行分类与总结,重点介绍了一元回归拟合的几种实现方法,关于多元回归拟合其实就是机器学习中的回归任务建模了,我后期会出案例分析!

二、回归拟合的分类

  • 采用回归的方法,拟合出自变量x和因变量y之间存在的关系(方程或模型):
    • 根据自变量数量,可以分为一元回归和多元回归;
    • 按照方法可以分为统计回归模型和机器学习回归模型;
    • 按照因变量的多少,可分为简单回归分析和多重回归分析;
    • 按照自变量和因变量之间的关系类型,可分为线性回归和非线性回归。

对于简单回归拟合(即只有一个因变量),可以进一步做以下分类:

  • 对于单自变量-----一元回归拟合
    • 一元线性回归拟合:y = ax + b
    • 一元非线性回归拟合:
      • 特征转化:通过应用非线性变换来改变特征的表示形式,比如取X的对数X’ = Ln(X),然后进行一元回归y=aX’
      • 多项式拟合:可以看成一种多元线性拟合,将其看为有n个特征的多元线性拟合, x为一个特征,x的平方为一个特征……
      • 其他函数拟合:指数函数、对数函数拟合等...
      • 机器学习拟合:采样神经网络(隐含层大于1)、树模型等进行拟合
  • 对于多自变量-------多元回归拟合
    • 多元线性回归拟合:y = a1x1 + a2x2 +a3x3 + ...
    • 多元非线性回归拟合(机器学习...)

三、一元线性回归拟合

准备数据

x=np.array([1,2,3,4,5,6.5,7,8])
y=np.array([1,4,9,13,30,25,49,70])

3.1 法一:np.polyfit

np.polyfit 是 NumPy 库中的一个函数,用于多项式拟合。它可以根据给定的数据点,拟合出一个多项式函数,返回拟合的系数。

a=np.polyfit(x,y,1)#用1次多项式拟合x,y数组
print(a)
b=np.poly1d(a)#拟合完之后用这个函数来生成多项式对象
print(b)
c=b(x)#生成多项式对象之后,就是获取x在这个多项式处的值
plt.scatter(x,y,marker='o',label='original datas')#对原始数据画散点图
plt.plot(x,c,ls='--',c='red',label='fitting with second-degree polynomial')#对拟合之后的数据,也就是x,c数组画图
plt.legend()
plt.show()

a是系数:[ 8.83917084 -15.20371694]

b是方程:8.839 x - 15.2

3.2 法二:sklearn里面的LinearRegression()

# 定义回归模型
reg = LinearRegression()
x = np.array(x).reshape((len(x), 1))
reg.fit(x, y)
print(reg.coef_)
print(reg.intercept_)
plt.plot(x, y, 'b.')
plt.plot(x, reg.predict(x),'r')
plt.show()

将一元视为多元回归的一种特殊情况,即只有一个特征。

系数:reg.coef_:[8.83917084]

截距:reg.intercept_:-15.203716940671903

3.3 法三:curve_fit

curve_fit 是 SciPy 库中的一个函数,用于非线性曲线拟合。它可以根据给定的数据点和一个自定义的模型函数,拟合出最优的参数值,并返回拟合的参数以及协方差矩阵。

# 定义一个一元线性方程,变量一定要放在第一个位置
def func(x, a, b):
    return a * x + b

popt, pcov = curve_fit(func, x, y)
print(popt)  # 参数最佳值
y2 = func(x, popt[0], popt[1])
plt.scatter(x, y, marker='x', lw=1, label='原始数据')
plt.plot(x, y2, c='r', label='拟合曲线')
plt.legend()  # 显示label
plt.show()

最佳系数:popt:[ 8.83917082 -15.20371685]

四、一元多项式回归拟合(以2次多项式为例)

准备数据

x=np.array([1,2,3,4,5,6.5,7,8])
y=np.array([1,4,9,13,30,25,49,70])

4.1 法一:np.polyfit

a=np.polyfit(x,y,2)#用2次多项式拟合x,y数组
print(a)
b=np.poly1d(a)#拟合完之后用这个函数来生成多项式对象
print(b)
c=b(x)#生成多项式对象之后,就是获取x在这个多项式处的值
plt.scatter(x,y,marker='o',label='original datas')#对原始数据画散点图
plt.plot(x,c,ls='--',c='red',label='fitting with second-degree polynomial')#对拟合之后的数据,也就是x,c数组画图
plt.legend()
plt.show()

系数:[ 1.34960956 -3.36567929 5.01148555]

4.2 法二:sklearn里面的LinearRegression()

# 定义多项式回归, degree的值可以调节多项式的特征
poly_reg = PolynomialFeatures(degree=2)
# 特征处理
x = np.array(x).reshape((len(x), 1))
x_poly = poly_reg.fit_transform(x)
print(x_poly)
# 定义回归模型
reg = LinearRegression()
reg.fit(x_poly, y)
print(reg.coef_)
print(reg.intercept_)
plt.plot(x, y, 'b.')
plt.plot(x, reg.predict(x_poly), 'r')
plt.show()

系数:[ 0. -3.36567929 1.34960956]

截距:5.011485554320338

4.3 法三:curve_fit

# 定义一个二次多项式,变量一定要放在第一个位置
def func(x, a, b, c):
    return a * x ** 2 + b*x + c

popt, pcov = curve_fit(func, x, y) 
print(popt)  
y2 = func(x, popt[0], popt[1])
plt.scatter(x, y, marker='x', lw=1, label='原始数据')
plt.plot(x, y2, c='r', label='拟合曲线')
plt.legend()  # 显示label
plt.show()

系数:[ 1.34960956 -3.36567929 5.01148555]

五、一元其他函数回归拟合(指数函数为例)

准备数据

x=np.array([1,2,3,4,5,6.5,7,8])
y=np.array([1,4,9,13,30,25,49,70])

5.1 法:curve_fit

# 自定义一个想拟合的目标函数,变量一定要放在第一个位置
def func(x, a, b):
    return a * np.exp(x * b)

popt, pcov = curve_fit(func, x, y) 
print(popt)  # 即参数最佳值
y2 = func(x, popt[0], popt[1])
plt.scatter(x, y, marker='x', lw=1, label='原始数据')
plt.plot(x, y2, c='r', label='拟合曲线')
plt.legend()  # 显示label
plt.show()

系数:[2.47762425 0.41535845]

好了,本篇内容就到这里,我们下期再见!需要数据集和源码的小伙伴可以关注联系我!

原文链接:

【Python机器学习系列】拟合和回归傻傻分不清?一文带你彻底搞懂它

作者简介:

读研期间发表6篇SCI数据挖掘相关论文,现在某研究院从事数据算法相关科研工作,结合自身科研实践经历不定期分享关于Python、机器学习、深度学习、人工智能系列基础知识与应用案例。致力于只做原创,以最简单的方式理解和学习,关注我一起交流成长。

相关推荐

电子EI会议!投稿进度查

今天为大家推荐一个高性价比的电子类EI会议——IEEE电子与通信工程国际会议(ICECE2024)会议号:IEEE#62199截稿时间:2024年3月25日召开时间与地点:2024年8月15...

最“稳重”的滤波算法-中位值滤波算法的思想原理及C代码实现

在信号处理和图像处理领域,滤波算法是一类用于去除噪声、平滑信号或提取特定特征的关键技术。中位值滤波算法是一种常用的非线性滤波方法,它通过取一组数据的中位值来有效减小噪声,保留信号的有用特征,所以是最稳...

实际工程项目中是怎么用卡尔曼滤波的?

就是直接使用呀!个人认为,卡尔曼滤波有三个个关键点,一个是测量,一个是预测,一个是加权测量:通过传感器,获取传感器数据即可!预测:基于模型来进行数据预测;那么问题来了,如何建模?有难有易。加权:主要就...

我拿导弹公式算桃花,结果把自己炸成了烟花

第一章:学术圈混成“顶流”,全靠学生们把我写成段子最近总有人问我:“老师,您研究导弹飞行轨迹二十年,咋还顺带研究起月老红绳的抛物线了?”我扶了扶眼镜,深沉答道:“同志,导弹和爱情的本质都是动力学问题—...

如何更好地理解神经网络的正向传播?我们需要从「矩阵乘法」入手

图:pixabay原文来源:medium作者:MattRoss「机器人圈」编译:嗯~阿童木呀、多啦A亮介绍我为什么要写这篇文章呢?主要是因为我在构建神经网络的过程中遇到了一个令人沮丧的bug,最终迫...

电力系统EI会议·权威期刊推荐!

高录用率EI会议推荐:ICPSG2025(会议号:CFP25J66-PWR)截稿时间:2025年3月15日召开时间与地点:2025年8月18-20日·新加坡论文集上线:会后3个月内提交至S...

EI论文写作全流程指南

推荐期刊《AppliedEnergy》是新能源领域权威EI/SCI双检索期刊,专注能源创新技术应用。刊号:ISSN0306-2619|CN11-2107/TK影响因子:11.2(最新数...

JMSE投稿遇坑 实验结果被推翻

期刊基础信息刊号:ISSN2077-1312全称:JournalofMarineScienceandEngineering影响因子:3.7(最新JCR数据)分区:中科院3区JCRQ2(...

斩获国际特等奖!兰理工数学建模团队为百年校庆献礼

近日,2019年美国大学生数学建模竞赛(MCM-ICM)成绩正式公布。兰州理工大学数学建模团队再创佳绩,分别获得国际特等奖(OutstandingWinner)1项、一等奖(Meritorious...

省气象台开展人员大培训岗位大练兵学习活动

5月9日,省气象台组织开展首次基于Matlab编程语言的数值模式解释应用培训,为促进研究性业务发展,积极开展“人员大培训、岗位大练兵”学习活动起到了积极作用。此次培训基于实际业务需求,着眼高原天气特色...

嵌入式软件培训

培训效果:通过系统性的培训学习,理论与实践相结合,可以胜任相关方向的开发工作。承诺:七大块专业培训,可以任意选择其中感兴趣的内容进行针对性地学习,每期培训2个月,当期没学会,可免费学习一期。本培训内容...

轧机支承辊用重载中低速圆柱滚子轴承滚子修形探讨

摘 要:探讨了轧机支承辊用重载中低速圆柱滚子轴承滚子修形的理论和方法,确定关键自变量。使用Romax软件在特定载荷工况条件下对轴承进行数值模拟分析,确定关键量的取值范围。关键词:轧机;圆柱滚子轴承;滚...

数学建模EI刊,如何避雷?

---权威EI会议推荐会议名称:国际应用数学与工程建模大会(ICAMEM)截稿时间:2025年4月20日召开时间/地点:2025年8月15日-17日·新加坡论文集上线:会后2个月内由Sp...

制造工艺误差,三维共轭齿面怎样影响,双圆弧驱动的性能?

文/扶苏秘史编辑/扶苏秘史在现代工程领域,高效、精确的传动系统对于机械装置的性能和可靠性至关重要,谐波传动作为一种创新的机械传动方式,以其独特的特性在精密机械领域引起了广泛关注。在谐波传动的进一步优化...

测绘EI会议——超详细解析

【推荐会议】会议名称:国际测绘与地理信息工程大会(ICGGE)会议编号:71035截稿时间:2025年3月20日召开时间/地点:2025年8月15-17日·德国慕尼黑论文集上线:会后2个...