文章目录
前言
本文将介绍 sklearn 库中 LinearRegression 和 LogisticRegression 函数及其参数配置。线性回归和逻辑回归是机器学习中两种基本且重要的算法,广泛应用于回归和分类问题中。
一、sklearn中的LinearRegression
1. 引入库
from sklearn.linear_model import LinearRegression
2. LinearRegression的主要参数及其解释
fit_intercept: 是否计算截距。默认为True,表示计算截距。normalize: 是否在回归前对数据进行归一化。默认为False。copy_X: 是否复制X。默认为True。n_jobs: 用于计算的作业数。默认为None,表示使用1个作业。如果设置为-1,则使用所有CPU。
3. LinearRegression的使用步骤
(1) 生成模拟数据
import numpy as np
X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]])
y = np.dot(X, np.array([1, 2])) + 3
(2) 创建并训练模型
model = LinearRegression()
model.fit(X, y)
(3) 预测与评估
predictions = model.predict(np.array([[3, 5]]))
print(predictions)
二、sklearn中的LogisticRegression
1. 引入库
from sklearn.linear_model import LogisticRegression
2. LogisticRegression的主要参数及其解释
penalty: 使用的正则化惩罚。可选值为l1、l2、elasticnet或none。默认为l2。dual: 对偶或原始方法。对于l2惩罚来说,仅适用于liblinear解决器。tol: 停止迭代的标准。默认为1e-4。C: 正则化强度的倒数。必须是正浮点数。默认为1.0。fit_intercept: 是否计算截距。默认为True。solver: 使用的优化算法。可选值为newton-cg、lbfgs、liblinear、sag、saga。默认为lbfgs。max_iter: 迭代的最大次数。默认为100。multi_class: 分类方式。可选值为auto、ovr、multinomial。默认为auto。n_jobs: 用于计算的作业数。默认为None,表示使用1个作业。如果设置为-1,则使用所有CPU。
3. LogisticRegression的使用步骤
(1) 生成模拟数据
from sklearn.datasets import make_classification
X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)
(2) 创建并训练模型
model = LogisticRegression()
model.fit(X, y)
(3) 预测与评估
predictions = model.predict(X[:10])
print(predictions)










