文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

python中逻辑回归随机梯度下降法怎么用

2023-06-25 14:50

关注

这篇文章主要为大家展示了“python中逻辑回归随机梯度下降法怎么用”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“python中逻辑回归随机梯度下降法怎么用”这篇文章吧。

随机梯度下降法

随机梯度下降法(Stochastic Gradient Decent,
SGD)是对全批量梯度下降法计算效率的改进算法。本质上来说,我们预期随机梯度下降法得到的结果和全批量梯度下降法相接近;SGD的优势是更快地计算梯度。

代码

'''随机梯度下降法(Stochastic Gradient Decent, SGD)是对全批量梯度下降法计算效率的改进算法。本质上来说,我们预期随机梯度下降法得到的结果和全批量梯度下降法相接近;SGD的优势是更快地计算梯度。'''import pandas as pdimport numpy as npimport osos.getcwd()# F:\\pythonProject3\\data\\data\\train.csv# dataset_path = '..'# 这是一个全批量梯度下降(full-batch gradient descent)的应用。# 这个问题是一个回归问题# 我们给出美国某大型问答社区从2010年10月1日到2016年11月30日,# 每天新增的问题的个数和回答的个数。# 任务是预测2016年12月1日到2017年5月1日,该问答网站每天新增的问题数和回答数。train = pd.read_csv('..\\train.csv')# 导入数据# train = pd.read_csv('train.csv')test = pd.read_csv('..\\test.csv')submit = pd.read_csv('..\\sample_submit.csv')path2=os.path.abspath('.')print("path2@@@@@",path2)path3=os.path.abspath('..')print("path3@@@@@",path3)print(train)# 初始设置beta = [1,1] #初始点alpha = 0.2 #学习率,也就是步长tol_L = 0.1 #阈值,也就是精度# 对x进行归一化,train 是训练数据的二维表格max_x = max(train['id']) #max_x是总共的id数x = train['id'] / max_x #所有的id都除于max_xy = train['questions'] # train二维表格中的questions列赋给ytype(train['id'])print("train['id']#######\n",train['id'])print("type(train['id'])###\n\n",x)print("max_x#######",max_x)#为了计算方向def compute_grad_SGD(beta, x, y):    '''    :param beta: 是初始点    :param x: 是自变量    :param y: 是真是值    :return: 梯度数组    '''    grad = [0, 0]    r = np.random.randint(0, len(x)) #在0-len(x)之间随机生成一个数    grad[0] = 2. * np.mean(beta[0] + beta[1] * x[r] - y[r]) #求beta[1,1],中第1个数的梯度    grad[1] = 2. * np.mean(x * (beta[0] + beta[1] * x - y))#求beta[1,1],中第2个数的梯度    return np.array(grad)#为了计算下一个点在哪,def update_beta(beta, alpha, grad):    '''    :param beta: 第一点,初始点    :param alpha: 学习率,也就时步长    :param grad: 梯度    :return:    '''    new_beta = np.array(beta) - alpha * grad    return new_beta# 定义计算RMSE的函数# 均方根误差(RMSE)def rmse(beta, x, y):    squared_err = (beta[0] + beta[1] * x - y) ** 2 # beta[0] + beta[1] * x是预测值,y是真实值,    res = np.sqrt(np.mean(squared_err))    return res# 进行第一次计算grad = compute_grad_SGD(beta, x, y) #调用计算梯度函数,计算梯度loss = rmse(beta, x, y) #调用损失函数,计算损失beta = update_beta(beta, alpha, grad) #更新下一点loss_new = rmse(beta, x, y) #调用损失函数,计算下一个损失# 开始迭代i = 1while np.abs(loss_new - loss) > tol_L:    beta = update_beta(beta, alpha, grad)    grad = compute_grad_SGD(beta, x, y)    if i % 100 == 0:        loss = loss_new        loss_new = rmse(beta, x, y)        print('Round %s Diff RMSE %s'%(i, abs(loss_new - loss)))    i += 1print('Coef: %s \nIntercept %s'%(beta[1], beta[0]))res = rmse(beta, x, y)print('Our RMSE: %s'%res)from sklearn.linear_model import LinearRegressionlr = LinearRegression()lr.fit(train[['id']], train[['questions']])print('Sklearn Coef: %s'%lr.coef_[0][0])print('Sklearn Coef: %s'%lr.intercept_[0])res = rmse([936.051219649, 2.19487084], train['id'], y)print('Sklearn RMSE: %s'%res)

以上是“python中逻辑回归随机梯度下降法怎么用”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网行业资讯频道!

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯