文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

数据挖掘从入门到放弃之一线性回归和逻辑回归

2024-12-02 17:53

关注

“ 数据挖掘算法基于线性代数、概率论、信息论推导,深入进去还是很有意思的,能够理解数学家、统计学家、计算机学家的智慧,这个专栏从比较简单的常用算法入手,后续研究基于TensorFlow的高级算法,最好能够参与到人脸识别和NLP的实际项目中,做出来一定的效果。”

一、理解线性回归模型

首先讲回归模型,回归模型研究的是因变量(目标)和自变量(预测器)之间的关系,因变量可以是连续也可以离散,如果是离散的就是分类问题。思考房价预测模型,我们可以根据房子的大小、户型、位置、南北通透等自变量预测出房子的售价,这是最简单的回归模型,在初中里面回归表达式一般这样写,其中x是自变量,y是因变量,w是特征矩阵,b是偏置。

在机器学习推导里面引入线性代数的思想,将假设我们用一个表达式来描述放假预测模型,x代表一个房子的特征集,它是一个n×1的列向量,总共有m个特征集,θ是一个n×1的列向量,是我们想要求得未知数。

我们采用误差最小的策略,比如有预测表达式:y工资=Θ1*学历+Θ2*工作经验+Θ3*技术能力+.......+Θn*x+基本工资,预测的y值和实际值y_存有差距,策略函数就是使得m个特征集的(真实值y-预测值)的平方和最小。(差值可能是负数,所以采用平方和);

按照对于正规方程的求法,我们对θ 求偏导:

也就是,给定特征矩阵X和因变量y,即可以求使误差率最小的θ值,满足后续的回归模型。了解线性代数的童靴可以看出来问题,在θ的表达式中有求逆运算,需要保证矩阵可逆,这一般是无法保证的,这样就会造成θ无解,策略失效;

二、计算机的做法:梯度下降

常规的方程需要大量的矩阵运算,尤其是矩阵的逆运算,在矩阵很大的情况下,会大大增加计算复杂性。,且正规方程法对矩阵求偏导有一定的局限性(无法保证矩阵可逆),下面介绍梯度下降法,也就是计算机的解决方法,每次走一小步,保证这一小步是最有效的一步,可以想象自己正在下山,你不知道目的地(全局最小值)在哪,但是你能够保证自己每次走的都是最陡峭的一步;

我们的策略仍然保持不变,就是使得m个特征集的(真实值y-预测值)的平方和最小:

梯度下降法实现:赋予初始θ 值,并根据公式逐步更新θ 使得J(θ) 不断减少,最终至收敛,对应的参数θ 即为解。为了推导方便,首先研究只有一个训练样本时,如何计算推导公式。

θ 的每个分量更新公式为:

推广到m个训练数据,参数更新公式为:

三、逻辑回归模型

逻辑回归与线性回归同属广义线性模型,逻辑回归是以线性回归为理论支持,是一个二分类模型,也可以推广多到分类问题,通过Sigmoid函数引入了非线性因素,因此可以轻松处理0/1分类问题,首先介绍一下Sigmoid函数:

sigmoid函数图像是一个S曲线,取值在[0, 1]之间,在远离0的地方函数的值会很快接近0或者1,sigmoid函数的求导特性是:

逻辑回归的预测函数是下图,只是在特征到结果的映射中加入了一层函数映射,先把特征线性求和,然后使用函数g(z)将最为假设函数来预测。g(z)可以将连续值映射到0到1之间:

通过求似然函数,两边取log后,对θ求偏导:

这样我们就得到了梯度上升每次迭代的更新方向,那么θ的迭代表达式为:

发现同线性回归模型是同一个表达式,这并不仅仅是巧合,两者存在深层的联系;

四、回归模型使用

数据是2014年5月至2015年5月美国King County的房屋销售价格以及房屋的基本信息。数据分为训练数据和测试数据,分别保存在kc_train.csv和kc_test.csv两个文件中,其中训练数据主要包括10000条记录,14个字段:销售日期,销售价格,卧室数,浴室数,房屋面积,停车面积,楼层数,房屋评分,建筑面积,地下室面积,建筑年份,修复年份,纬度,经度。

数据集地址:https://github.com/yezonggang/house_price,按照流程完成模型建立:

  1. import pandas as pd 
  2. from pandas import DataFrame 
  3. import numpy as np 
  4. import matplotlib.pyplot as plt 
  5. %matplotlib inline 
  6. import seaborn as sns 
  7. from sklearn.linear_model import LogisticRegression 
  8. from sklearn.ensemble import RandomForestClassifier 
  9. from sklearn.linear_model import LinearRegression 
  10. # 数据读取 
  11. baseUrl="C:\\Users\\71781\\Desktop\\2020\\ML-20200422\\houre_price\\" 
  12. house_df=pd.read_csv(baseUrl+'train.csv' ) 
  13. test_df=pd.read_csv(baseUrl+'test.csv'
  14. house_df.head() 
  15.  
  16. # 删除无关变量 
  17. house_df=house_df.drop(['saleTime','year','repairYear','latitude','longitude','buildingSize'],axis=1) 
  18. test_df=test_df.drop(['saleTime','year','repairYear','latitude','longitude','buildingSize'],axis=1) 
  19.  
  20. # 模型建立 
  21. X_price=house_df.drop(['price'],axis=1) 
  22. # X_price.head() 
  23. Y_price=house_df['price'
  24. Y_price.head() 
  25.  
  26. LR_reg=LinearRegression() 
  27. LR_reg.fit(X_price, Y_price) 
  28. Y_pred = LR_reg.predict(test_df) 
  29. LR_reg.score(X_price, Y_price) 
  30.  
  31.  
  32. # 可以选择进行特征缩放 
  33. #new_house=house_df.drop(['price'],axis=1) 
  34. #from sklearn.preprocessing import MinMaxScaler 
  35. #minmax_scaler=MinMaxScaler().fit(new_house)   #进行内部拟合,内部参数会发生变化 
  36. #scaler_housing=pd.DataFrame(minmax_scaler.transform(new_house),columns=new_house.columns) 
  37.  
  38. #mm=MinMaxScaler() 
  39. #mm.fit(test_df) 
  40. #scaler_t=mm.transform(test_df) 
  41. #scaler_t=pd.DataFrame(scaler_t,columns=test_df.columns)荐 

本文转载自微信公众号「数据社」,可以通过以下二维码关注。转载本文请联系数据社公众号。

 

来源:数据社内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯