Python程序教程

python学习

  • 快速入门Python机器学习(18)

    快速入门Python机器学习(18)

    9 决策树(Decision Tree)9. 1 决策树原理9.2 信息增益与基尼不纯度信息熵(约翰·香农 1948《通信的数学原理》,一个问题不确定性越大,需要获取的信息就越多,信息熵就越大;一个问题不确定性越小,需要获取的信息就越少,信息熵就越小)集合D中第k类样本的比率为pk,(k=1,2,…|y|)信息增益(Information Gain):划分数据前后数据信息熵的差值。信息增益纯度越高

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(31)

    快速入门Python机器学习(31)

    12.3非负矩阵分解(NMF)12.3.1 原理非负矩阵分解(Non-Negative Matrix Factorization:NMF)矩阵分解:一个矩阵A分解为A=B1×B2×…×Bn非负矩阵分解:矩阵分解,矩阵A、 B1… Bn中元素均为非负12.3.2类、参数、属性和方法类class sklearn.decomposition.NMF(n_components=None, *, init=

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(20)

    快速入门Python机器学习(20)

    10 集成学习10.1随机森林算法(Random Forest)10.1.1概念2001年Breiman把分类树组合成随机森林(Breiman 2001a),即在变量(列)的使用和数据(行)的使用上进行随机化,生成很多分类树,再汇总分类树的结果。随机森林在运算量没有显著提高的前提下提高了预测精度。算法流程:构建决策树的个数t,单颗决策树的特征个数f,m个样本,n个特征数据集1 单颗决策树训练1.1

    日期 2025-03-13 21:21:25     
  • Python学习系列:PyCharm CE 安装与测试

    Python学习系列:PyCharm CE 安装与测试

    大家好,又见面了,我是你们的朋友全栈君。 开坑啦开坑啦~最近比赛要用Python了,开始强行学习。 Mac下PyCharm CE 安装先去百度PyCharm,一个很好用IDE,下载免费版的就够用啦: https://www.jetbrains.com/pycharm/ 然后下载安装,这里就一步步走就好。重点是你的Python,Mac自带的是Python2 PyCharm在新建项目的时候

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(30)

    快速入门Python机器学习(30)

    12 降维12.1原理降维解决的问题:缓解维度灾难问题压缩数据的同时让信息损失最小化理解低维度更容易12.2 主生成分析(PCA)12.2.1 原理主生成分析(Principal Cpmponent Analysis:PCA)无监督线性降维,用于数据压缩、消除冗余和消除噪音X=[[x11 x12 x13 … x1p], [x21 x22 x23 … x2p], … [xn1 xn2 xn3 … x

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(14)

    快速入门Python机器学习(14)

    我的Django电子商务代码已经可以支持Django 4.X版本了,由于github很慢,现在放到百度网盘上了。链接:https://pan.baidu.com/s/1FEs6lggPtPplnYTsyEbaSg?pwd=7gq1提取码:7gq18.2 SVC 8.2.1 SVC类参数、属性和方法class sklearn.svm.SVC(*, C=1.0, kernel='rbf&#x

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(34)

    快速入门Python机器学习(34)

    13 数据处理和优化13.1数据处理13.1.1标准化的原因通常情况下是为了消除量纲的影响。譬如一个百分制的变量与一个5分值的变量在一起怎么比较?只有通过数据标准化,都把它们标准到同一个标准时才具有可比性,一般标准化采用的是Z标准化,即均值为0,方差为1,当然也有其他标准化,比如0--1标准化等等,可根据自己的数据分布情况和模型来选择。作用:去均值和方差归一化。且是针对每一个特征维度来做的,而不是

    日期 2025-03-13 21:21:25     
  • Python学习笔记(28)-Python读取word文本「建议收藏」

    Python学习笔记(28)-Python读取word文本「建议收藏」

    大家好,又见面了,我是你们的朋友全栈君。 点此查看 零基础Python全栈文章目录及源码下载 本文目录1. 简介2. 相关概念3. 模块的安装和导入4. 读取word文本1. 简介Python可以利用python-docx模块处理word文档,处理方式是面向对象的。也就是说python-docx模块会把word文档,文档中的段落、文本、字体等都看做对象,对对象进行处理就是对word文档

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(12)

    快速入门Python机器学习(12)

    7.5 多项式贝叶斯(MultinomialNB)7.5.1 属性与方法类class sklearn.naive_bayes.MultinomialNB(*, alpha=1.0, fit_prior=True, class_prior=None)复制属性 属性解释class_count_ndarray of shape (n_classes,)拟合期间遇到的每个类的样本数。当提供时,该值由样本重

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(19)

    快速入门Python机器学习(19)

    9.4 决策树回归(Decision Tree Regressor)9.4.1类、属性和方法类class sklearn.tree.DecisionTreeRegressor(*, criterion='mse', splitter='best', max_depth=None, min_samples_split=2, min_samples_leaf=1

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(28)

    快速入门Python机器学习(28)

    1.4 凝聚聚类(agglomerative)1.4.1原理凝聚聚类(agglomerative clustering)指的是许多基于相同原则构建的聚类算法,这一原则是:算法首先声明每个点是自己的簇,然后合并两个最相似的簇,直到满足某种停止准则为止度量相似值,Sklearn有四种选项:linkage : {"ward", "complete", "

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(33)

    快速入门Python机器学习(33)

    文末有惊喜12.6 神经网络回归算法12.6.1类、参数、属性和方法类class sklearn.neural_network.MLPRegressor(hidden_layer_sizes=100, activation='relu', *, solver='adam', alpha=0.0001, batch_size='auto',

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(16)

    快速入门Python机器学习(16)

    8.4 SVR 8.4.1 SVR类参数、属性和方法类class sklearn.svm.SVR(*, kernel='rbf', degree=3, gamma='scale', coef0=0.0, tol=0.001, C=1.0, epsilon=0.1, shrinking=True, cache_size=200, verbose=False,

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(35)

    快速入门Python机器学习(35)

    14.2数据表达与特征工程14.2.1数据表达哑变量:利用类似pd.get_dummies得到的0,1数据。import numpy as np import pandas as pd import matplotlib.pyplot as plt from sklearn.neural_network import MLPRegressor from sklearn.neighbors impo

    日期 2025-03-13 21:21:25     
  • Python 学习笔记 列表 排序 xxx XXX

    Python 学习笔记 列表 排序 xxx XXX

    大家好,又见面了,我是你们的朋友全栈君 Python 学习笔记 列表 排序 xxx XXX print("-" * 30) cars = ['bmw', 'audi', 'toyota', 'subaru'] cars.s

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(九)

    快速入门Python机器学习(九)

    6 K邻近算法(KNeighbors) 所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。如果K=3,绿色圆点的最近的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。如果K=5,绿色圆点的

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(13)

    快速入门Python机器学习(13)

    8 支持向量机8.1 原理8.1.1 线性可分与线性不可分在左边的图,我们可以用一条直线区分不同的两类事件;叫做线性可分;在右边的图,我们找不到一条直线区分不同的两类事件;叫做线性不可分。在线性不可分的情形下,我们可以将它投射到三维空间不同高度达到线性可分。8.1.2 支持向量机原理在2维空间中y=kx+b:为一条直线 y1=kx+b+t y2=kx+b-t复制为两条平行,位于y两侧,与y距离相等

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(22)

    快速入门Python机器学习(22)

    10.2 AdaBost(Adaptive Boosting)10.2.1 概念集成学习模型的方式大致为四个:bagging 、 boosting 、 voting 、 stacking.步骤:初始化,对m个训练样本的数据集(不同颜色代表不同数据集),给每个样本分配初始权重(圆点越大,权重越大)。使用带权重的数据集训练处一个弱学习器。对弱学习器训练的错误样本增加权重。新的带权重的数据集训练处下一个

    日期 2025-03-13 21:21:25     
  • 快速入门Python机器学习(24)

    快速入门Python机器学习(24)

    10.3 装袋算法(Bagging)10.3.1 原理Bagging算法 (英语:Bootstrap aggregating,引导聚集算法),又称装袋算法,是机器学习领域的一种团体学习算法。最初由Leo Breiman于1994年提出。Bagging算法可与其他分类、回归算法结合,提高其准确率、稳定性的同时,通过降低结果的方差,避免过拟合的发生。m个样本原始数据进行n次抽样(n<=m)形成一

    日期 2025-03-13 21:21:25     
  • Python学习笔记:几种排序算法

    Python学习笔记:几种排序算法

    Python学习笔记:几种奇妙的排序算法冒泡排序算法def bubble_sort(lst): n = len(lst) for y in range(n-1, 0, -1): for x in range(y): if lst[x] > lst[x+1]: lst[x], lst[x+1] = lst[

    日期 2025-03-13 21:21:25     
12345