描述

  • 有个重要的前提是需要把问题特征化成特征矩阵(如下)
  • 逻辑回归LR是一种有监督式算法**,**大致数据结构是下面这样
Name Feature1 Feature2 Isbad?
b1 1 0 1
b2 0 0 2
b3 0 1 ???

Demo代码

  • 解读:
    • 其中X是Feature,y是最后分类(如Isbad)。
    • clf是对最终分类进行模型生成,然后使用clf.predict是算法进行预测,。 ```python from sklearn.datasets import load_iris from sklearn.linear_model import LogisticRegression import numpy as np

      X, y = load_iris(return_X_y=True)

      clf = LogisticRegression(random_state=0).fit(X, y)

——

x_train = np.array([[1,2,3],[1,3,4],[2,1,2],[4,5,6],[3,5,3],[1,7,2]]) y_train = np.array([3,3,3,2,2,2]) x_test = np.array([[2,2,2],[3,2,6],[1,7,4]]) clf = LogisticRegression() clf.fit(x_train,y_train) print(clf.predict(x_test)) print(clf.predict_proba(x_test))

分析结果:

预测[2,2,2]的标签是2的概率为0.56651809,3的概率为0.43348191

预测[3,2,6]的标签是2的概率为0.15598162,3的概率为0.84401838

预测[1,7,4]的标签是2的概率为0.86852502,3的概率为0.13147498

```

参考资料