描述
- 有个重要的前提是需要把问题特征化成特征矩阵(如下)
- 逻辑回归LR是一种有监督式算法**,**大致数据结构是下面这样
| Name |
Feature1 |
Feature2 |
Isbad? |
| b1 |
1 |
0 |
1 |
| b2 |
0 |
0 |
2 |
| b3 |
0 |
1 |
??? |
Demo代码
- 解读:
- 其中X是Feature,y是最后分类(如Isbad)。
- clf是对最终分类进行模型生成,然后使用clf.predict是算法进行预测,。
```python
from sklearn.datasets import load_iris
from sklearn.linear_model import LogisticRegression
import numpy as np
X, y = load_iris(return_X_y=True)
clf = LogisticRegression(random_state=0).fit(X, y)
——
x_train = np.array([[1,2,3],[1,3,4],[2,1,2],[4,5,6],[3,5,3],[1,7,2]])
y_train = np.array([3,3,3,2,2,2])
x_test = np.array([[2,2,2],[3,2,6],[1,7,4]])
clf = LogisticRegression()
clf.fit(x_train,y_train)
print(clf.predict(x_test))
print(clf.predict_proba(x_test))
分析结果:
预测[2,2,2]的标签是2的概率为0.56651809,3的概率为0.43348191
预测[3,2,6]的标签是2的概率为0.15598162,3的概率为0.84401838
预测[1,7,4]的标签是2的概率为0.86852502,3的概率为0.13147498
```
参考资料