Menu
×
   ❮     
HTML CSS JAVASCRIPT SQL PYTHON JAVA PHP HOW TO W3.CSS C C++ C# BOOTSTRAP REACT MYSQL JQUERY EXCEL XML DJANGO NUMPY PANDAS NODEJS R TYPESCRIPT ANGULAR GIT POSTGRESQL MONGODB ASP AI GO KOTLIN SASS VUE DSA GEN AI SCIPY AWS CYBERSECURITY DATA SCIENCE
     ❯   

Python 教程

Python 首页 Python 简介 Python 入门 Python 语法 Python 注释 Python 变量 Python 数据类型 Python 数字 Python 类型转换 Python 字符串 Python 布尔值 Python 运算符 Python 列表 Python 元组 Python 集合 Python 字典 Python if...else Python while 循环 Python for 循环 Python 函数 Python Lambda Python 数组 Python 类/对象 Python 继承 Python 迭代器 Python 多态 Python 范围 Python 模块 Python 日期 Python 数学 Python JSON Python 正则表达式 Python PIP Python try...except Python 用户输入 Python 字符串格式化

文件处理

Python 文件处理 Python 读取文件 Python 写入/创建文件 Python 删除文件

Python 模块

NumPy 教程 Pandas 教程 SciPy 教程 Django 教程

Python Matplotlib

Matplotlib 简介 Matplotlib 入门 Matplotlib Pyplot Matplotlib 绘图 Matplotlib 标记 Matplotlib 线 Matplotlib 标签 Matplotlib 网格 Matplotlib 子图 Matplotlib 散点图 Matplotlib 条形图 Matplotlib 直方图 Matplotlib 饼图

机器学习

入门 平均值 中位数 众数 标准差 百分位数 数据分布 正态数据分布 散点图 线性回归 多项式回归 多元回归 缩放 训练/测试 决策树 混淆矩阵 层次聚类 逻辑回归 网格搜索 分类数据 K-均值 Bootstrap Aggregation 交叉验证 AUC - ROC 曲线 K 最近邻

Python MySQL

MySQL 入门 MySQL 创建数据库 MySQL 创建表 MySQL 插入 MySQL 选择 MySQL Where MySQL 排序 MySQL 删除 MySQL 删除表 MySQL 更新 MySQL 限制 MySQL 连接

Python MongoDB

MongoDB 入门 MongoDB 创建数据库 MongoDB 集合 MongoDB 插入 MongoDB 查找 MongoDB 查询 MongoDB 排序 MongoDB 删除 MongoDB 删除集合 MongoDB 更新 MongoDB 限制

Python 参考

Python 概述 Python 内置函数 Python 字符串方法 Python 列表方法 Python 字典方法 Python 元组方法 Python 集合方法 Python 文件方法 Python 关键字 Python 异常 Python 词汇表

模块参考

随机模块 请求模块 统计模块 数学模块 cMath 模块

Python 如何

移除列表重复项 反转字符串 添加两个数字

Python 示例

Python 示例 Python 编译器 Python 练习 Python 问答 Python 服务器 Python 面试问答 Python 集训营 Python 证书

机器学习 - 逻辑回归


在本页面中,W3schools.com 与 NYC Data Science Academy 合作,为我们的学生提供数字培训内容。


逻辑回归

逻辑回归旨在解决分类问题。它通过预测分类结果来实现这一点,这与预测连续结果的线性回归不同。

在最简单的情况下,有两种结果,称为二项式,例如预测肿瘤是恶性还是良性。其他情况有超过两种结果要分类,在这种情况下称为多项式。多项式逻辑回归的常见示例是预测鸢尾花在 3 种不同物种中的类别。

在这里,我们将使用基本逻辑回归来预测二项式变量。这意味着它只有两种可能的结果。


它是如何工作的?

在 Python 中,我们有可以为我们完成工作的模块。从导入 NumPy 模块开始。

import numpy

将自变量存储在 X 中。

将因变量存储在 y 中。

下面是一个示例数据集

# X 表示肿瘤的大小(以厘米为单位)。
X = numpy.array([3.78, 2.44, 2.09, 0.14, 1.72, 1.65, 4.92, 4.37, 4.96, 4.52, 3.69, 5.88]).reshape(-1,1)

# 注意:X 必须从行重塑为列,才能使 LogisticRegression() 函数正常工作。
# y 表示肿瘤是否为癌性(0 表示“否”,1 表示“是”)。
y = numpy.array([0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1])

我们将使用 sklearn 模块中的一个方法,因此我们也需要导入该模块

from sklearn import linear_model

从 sklearn 模块中,我们将使用 LogisticRegression() 方法创建一个逻辑回归对象。

此对象有一个名为 fit() 的方法,它接受自变量和因变量作为参数,并用描述关系的数据填充回归对象

logr = linear_model.LogisticRegression()
logr.fit(X,y)

现在我们拥有了一个逻辑回归模型,它可以根据肿瘤大小判断肿瘤是否为癌性。

#预测肿瘤大小为3.46mm时是否为癌性
predicted = logr.predict(numpy.array([3.46]).reshape(-1,1))

示例

查看完整示例

import numpy
from sklearn import linear_model

#为逻辑函数重塑形状。
X = numpy.array([3.78, 2.44, 2.09, 0.14, 1.72, 1.65, 4.92, 4.37, 4.96, 4.52, 3.69, 5.88]).reshape(-1,1)
y = numpy.array([0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1])

logr = linear_model.LogisticRegression()
logr.fit(X,y)

#预测肿瘤大小为3.46mm时是否为癌性
predicted = logr.predict(numpy.array([3.46]).reshape(-1,1))
print(predicted)

结果


 [0]
 
运行示例 »

我们预测大小为3.46mm的肿瘤不会是癌性。


广告


系数

在逻辑回归中,系数是指 X 每变化一个单位,结果发生的概率的对数变化。

这可能不是最直观的理解,所以让我们用它来创建更有意义的东西,即概率。

示例

查看完整示例

import numpy
from sklearn import linear_model

#为逻辑函数重塑形状。
X = numpy.array([3.78, 2.44, 2.09, 0.14, 1.72, 1.65, 4.92, 4.37, 4.96, 4.52, 3.69, 5.88]).reshape(-1,1)
y = numpy.array([0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1])

logr = linear_model.LogisticRegression()
logr.fit(X,y)

log_odds = logr.coef_
odds = numpy.exp(log_odds)

print(odds)

结果


 [4.03541657]
 
运行示例 »

这告诉我们,随着肿瘤大小每增加 1mm,它成为癌性肿瘤的概率增加 4 倍。


概率

系数和截距值可以用来找到每个肿瘤是癌性的概率。

创建一个函数,使用模型的系数和截距值来返回一个新值。这个新值代表给定观测值是肿瘤的概率

def logit2prob(logr,x)
  log_odds = logr.coef_ * x + logr.intercept_
  odds = numpy.exp(log_odds)
  probability = odds / (1 + odds)
  return(probability)

函数解释

要找到每个观测值的概率对数,我们首先必须创建一个与线性回归公式类似的公式,提取系数和截距。

log_odds = logr.coef_ * x + logr.intercept_

然后,为了将概率对数转换为概率,我们必须对概率对数进行指数运算。

odds = numpy.exp(log_odds)

现在我们有了概率,可以通过将其除以 1 加上概率来将其转换为概率。

probability = odds / (1 + odds)

现在让我们用我们学到的知识来使用这个函数,找出每个肿瘤是癌性的概率。

示例

查看完整示例

import numpy
from sklearn import linear_model

X = numpy.array([3.78, 2.44, 2.09, 0.14, 1.72, 1.65, 4.92, 4.37, 4.96, 4.52, 3.69, 5.88]).reshape(-1,1)
y = numpy.array([0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1])

logr = linear_model.LogisticRegression()
logr.fit(X,y)

def logit2prob(logr, X)
  log_odds = logr.coef_ * X + logr.intercept_
  odds = numpy.exp(log_odds)
  probability = odds / (1 + odds)
  return(probability)

print(logit2prob(logr, X))

结果

  [[0.60749955]
   [0.19268876]
   [0.12775886]
   [0.00955221]
   [0.08038616]
   [0.07345637]
   [0.88362743]
   [0.77901378]
   [0.88924409]
   [0.81293497]
   [0.57719129]
   [0.96664243]]
   

运行示例 »

结果解释

3.78 0.61 大小为 3.78cm 的肿瘤是癌性的概率为 61%。

2.44 0.19 大小为 2.44cm 的肿瘤是癌性的概率为 19%。

2.09 0.13 大小为 2.09cm 的肿瘤是癌性的概率为 13%。


×

Contact Sales

If you want to use W3Schools services as an educational institution, team or enterprise, send us an e-mail:
[email protected]

Report Error

If you want to report an error, or if you want to make a suggestion, send us an e-mail:
[email protected]

W3Schools is optimized for learning and training. Examples might be simplified to improve reading and learning. Tutorials, references, and examples are constantly reviewed to avoid errors, but we cannot warrant full correctness of all content. While using W3Schools, you agree to have read and accepted our terms of use, cookie and privacy policy.

Copyright 1999-2024 by Refsnes Data. All Rights Reserved. W3Schools is Powered by W3.CSS.