题解 | 使用梯度下降的线性回归

使用梯度下降的线性回归

https://www.nowcoder.com/practice/e9f12bb403f44847b44e287d5a71e56c

import numpy as np
def linear_regression_gradient_descent(X, y, alpha, iterations):
    # 补全代码
    X = np.array(X, dtype=float)
    y = np.array(y, dtype=float).reshape(-1, 1) #(m, 1)

    m, n = X.shape

    # 初始化theta
    theta = np.zeros((n, 1), dtype=float)

    # 使用梯度下降迭代
    for _ in range(int(iterations)):
        error = X @ theta - y        #(m, 1)
        grad = (X.T @ error) / m     #(n, 1)
        theta = theta - alpha * grad #(n, 1)

    # 四舍五入到小数点后4位,并按题意返回 List
    theta = np.round(theta.flatten(), 4)    # (n,)
    return theta

# 主程序
if __name__ == "__main__":
    # 输入矩阵和向量
    matrix_inputx = input()
    array_y = input()
    alpha = input()
    iterations = input()

    # 处理输入
    import ast
    matrix = np.array(ast.literal_eval(matrix_inputx))
    y = np.array(ast.literal_eval(array_y)).reshape(-1,1)
    alpha = float(alpha)
    iterations = int(iterations)

    # 调用函数计算逆矩阵
    output = linear_regression_gradient_descent(matrix,y,alpha,iterations)
    
    # 输出结果
    print(output)


全部评论

相关推荐

时间线: 1.4-1.5: boss 牛客 官网 实习僧海投了两天, 感觉确实没啥招人的啊, 心里凉了一半.1.6: 中午快手约面, 下午字节hr飞书私聊约面, 当时想着第一次面大厂感觉三个过一个一面就已经赢了.1.7: 下午 3点大厂处女面, 哈哈面试官是重邮红岩的直接保送; 5点快手一面, 我说这个是我的第二次大厂面试, 面试官问要是拿到字节和快手选择哪个, 我说昨天看了一晚上快手百分百选快手哈哈哈. 晚上5.30字节约二面, 快手约二面, 小红书约一面.1.8: 下午2点快手二面, 聊天面体验非常好(当天电话确认入职时间); 4点字节二面这次不是校友了, 然后有一个CSS实现switch效果的忘记属性咋写了, 感觉危了; 7.30 问字节hr是不是挂了; 9点开始小红书一面, 难死我了, 但我还是笑着面完了, 然后卸载了小红书, 但是过了一会会小红书hr约二面, 遂下回来了字节约三面.1.9: 下午2点字节三面, 依旧聊天+算法, 自己太菜了有一个写错了, 面完感觉又危了; 5点面小红书20min结束(offer审批);5.30又去问字节hr是不是挂了, hr小姐姐说干嘛用一个句式, 我说手写题又又又没写出来😂, 2min后约hr面;8.30 快手offer总结, 自己运气好遇到了好公司好部门好面试官, 字节剪映 快手电商 小红书支付的面试体验都非常好, 不会的题会带你一步一步思考, 流程也非常快全部都是当天推进, 小红书是以分钟为单位推进.  面经以及细节等我慢慢整理,  以及保佑所有的审批不要出问题, 我是真怕最后全过了0offer😂bg: 重邮 大数据 蓝山工作室 一段非大厂实习
独角仙梦境:这是真👻了
找实习记录
点赞 评论 收藏
分享
评论
1
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务