前言
回归是一种能更加多个变量之间的关系进行建模的一种方法,其在机器学习中有着官方运用。线性回归是其中最最最最简单的一种,其假设自变量与因变量之间是线性关系。利用pytorch就可以简单地写出线性回归的代码。
线性回归
首先需要知道线性回归的基本假设:
- 自变量和因变量之间是线性关系,并且允许存在些噪声。
- 存在的噪声都是比较“正常”的,符号正态分布。
因此可以用一个简单是式子来表示这个模型。
y^=wTx+b \hat{y} = w^Tx+b y^=wTx+b
其中w,x均是列向量。
对于这个简单的问题,可以用数学的方法,直接求出解析解,最常见的就说最小二乘法。
但是,因为线性回归模型过于简单,才可以这样求出答案,对于其他的模型,是不可能的,因此在这里同样是使用随机梯度下降法。
数据集
这种简单的数据集,并不需要去哪里下载,直接自行生成即可。
def data_maker(w, b, n_size): # y=w*x+b,n个数据
X = torch.normal(0 , 1 , (n_size , len(w))) # n*len(w)的参数
y = torch.matmul(X , w) + b
y = y + torch.normal(0, 0.01 , y.shape)
return X , y.reshape((-1 , 1))
读取
不失一般性,一般都是读取一个batch的,为了方便,可以利用yield将其写成一个迭代器。
def data_iter(batch_size , x , y):
n

4405

被折叠的 条评论
为什么被折叠?



