多元线性回归方程例题
时间: 2025-02-01 16:33:36 浏览: 61
### 多元线性回归方程示例
考虑一个简单的多元线性回归模型,假设有一个房屋价格预测问题。设房价 \( y \) 可能依赖于多个因素如面积 \( x_1 \),卧室数量 \( x_2 \),浴室数量 \( x_3 \)[^1]。
#### 数据表示
给定一组训练样本:
| 序号 | 面积 (平方英尺)x1 | 卧室数x2 | 浴室数x3 | 房价y |
| -- | ---- |
| 1 | 80 | 2 | 1 | 179 |
| 2 | 60 | 3 | 1 | 150 |
| ... | ... | ... | ... | ... |
可以构建设计矩阵 X 和目标向量 Y 如下:
\[ X =
\begin{bmatrix}
1 & 80 & 2 & 1 \\
1 & 60 & 3 & 1\\
...&...&...&...
\end{bmatrix},
Y=
\begin{bmatrix}
179 \\
150 \\
...
\end{bmatrix}\]
其中每一行代表一个观测实例的数据记录,第一列为偏置项(即常数项),后面各列表示不同的自变量取值。
#### 方程形式
对于上述例子中的多元线性回归方程可写作:
\[ h_\theta(X)=\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_3 \]
这里 \(h_\theta\) 表示预测函数,\(θ_i(i=0,1,...)\) 是待估计参数。
为了找到最佳拟合直线对应的系数 \(θ=[θ_0;θ_1;θ_2;θ_3]\),可以通过最小化损失函数来实现,比如均方误差(MSE):
\[ J(\theta )=\frac {1}{2m}\sum _{{i=1}}^{m}(h_{\theta }(x^{(i)})-y^{(i)})^{2} \]
通过梯度下降算法或其他优化技术求得最优解使得成本函数达到极小值。
```python
import numpy as np
from sklearn.linear_model import LinearRegression
# 假设有如下数据
X = np.array([[1, 80, 2, 1], [1, 60, 3, 1]]) # 特征矩阵加上一列全为1作为截距项
Y = np.array([179, 150]) # 目标向量
model = LinearRegression()
model.fit(X[:, 1:], Y)
print(f'Coefficients: {model.coef_}')
print(f'Intercept: {model.intercept_}')
```
阅读全文
相关推荐
















