新年10个Flag实现中~
访问量
495.6K
文章数
113
运行天
681
前言局部二值模式(LocalBinaryPattern,LBP)是一种用来描述图像局部纹理特征的算法,反映的是图像像素点周围纹理变化情况,具有旋转不变性、灰度不变性(光照变化无影响)、计算复杂度低等优点,1994年首次由TimoOjala,MattiPietikainen等人提出,用于纹理特征提取。2002年论文《Multiresolutiongray-scaleandrotationinvarianttextureclassificationwithlocalbinarypatterns》进行了归纳总结,2018年该论文引用量154次,累计9832次。LBP特征描述原始LBP特征使用3×3矩形模板,从上到下,从左到右逐行扫描,模板中心像素值为gc,从右侧中间像素点开始编号gp(p=0,..
前言Haar特征是我用得最多的一个特征了。Haar特征的鲁棒性并不好,它常常用于颜色或者轮廓较为明显的、波动不大的图像,比如人脸识别中识别眼睛、鼻子的位置。尽管如此,用Haar特征处理一般图像分割已经足够使用了。Haar特征设计思想Haar特征(Haar-likeFeature)的名称来源于Haar小波(HaarWavelet)变换,最早由Papageorgiou在论文《AGeneralFrameworkforObjectDetection》中提出。那个时期,用RGB图像像素值来处理特征会产生很大的计算量,Papageorgiou等人就提出了用Haar小波变换来处理特征的想法。在2001年,Viola和Jones在论文《RapidObjectDetectionusingaBoostedCas
颜色空间概述入门彩色图像分割首先当然要了解一下颜色空间。RGB颜色空间RGB颜色空间的设计初衷是,用红色(Red)、蓝色(Blue)和绿色(Green)作为基础颜色,通过三基色的强弱变化组合成整个颜色空间中的各种颜色。 如上图所示,分别以红色、绿色、蓝色分量为R轴、G轴、B轴建立坐标系,原点(0,0,0)代表的颜色为黑色,(1,0,0)、(0,1,0)、(0,0,1)分别表示红色、蓝色、绿色,构成的立方体中体对角线端点(1,1,1)代表的颜色为白色,而体对角线上的颜色则是由黑色过渡到白色的灰度。至此,任意一种常见颜色都可以由(R,G,B)的坐标数值表示出来。 RGB颜色空间最开始用于彩色电视机,通过红色、绿色、蓝色发光材料的发光强度来展示彩色图像,后来在计算机显示器中被广
概率提升树前言这是本科毕设用到的树,概率提升树(ProbabilisticBoosting-Tree,PBT)是Tu在2005年《ProbabilisticBoosting-Tree:LearningDiscriminativeModelsforClassification,Recognition,andClustering》中提到的分层分类框架。AdaBoostPBT的实质是对Adaboost的改进,首先回顾一下Adaboost: Adaboost是针对二分类问题设计的,核心点是关注那些被错误分类的训练样本,通过多轮弱分类器的训练逐渐提高被错分样本的权重,对每个弱分类器根据分类精度给一个权重,然后将所有弱分类器用加权的方式制作一个强分类器来达到分类的目的。算法如下:【输入】n个训
依赖树论文背景前言《ApproximatingDiscreteProbabilityDistributionswithDependenceTrees》是一篇1968年的经典论文了,即使在2018年也有28次的引用量:是由两位IEEE大牛C.K.CHOW和C.N.LIU所写,所以通常都被称为“Chow-LiuTree”、“周刘树”、“CLT”,或者叫“依赖树”。整篇论文一共就6页,虽然是6页,刚开始看得真的头大,完全不知道在讲什么,更别说用了,百度一下啥都不知道,最后到外网才找到一些资料。我本科也是做这个相关的内容,当时连分类和分割的区别都不懂,也没有人讲解强行上手,真是被坑哭了。本科大四的时候每天早上起来就硬盯着一遍一遍地重复看,终于才慢慢理解。举个例子:Abstract——Amethodi
前言开始整理研究生毕业论文,再过不久就会忘掉我读过研究生了,但是数理统计考100也是不容易的,还是希望记录一下…现在的小学弟们早就开始各种开源平台用得贼溜了,他们都从开始就做卷积神经网络和深度学习;我一直做的是传统的树模型,虽然不如其他算法模型那么有用,但是研究得多了也会有一些心得,下面开始叙述。课题要求使用树模型分割彩色图像中的目标。主要改进了邻域近似随机森林(NeighbourhoodApproximationusingRandomizedForests,NAFs),还使用了依赖树(ApproximatingDiscreteProbabilityDistributionswithDependenceTrees,CLT)。邻域近似随机森林NAFsNAFs的原论文是用于医学图像分割的,它是一
前言《百面》第二章「类别型特征」,提出一个问题:在对数据进行预处理时,应该怎样处理类别型特征?仔细研究才发现,这里面竟然有很多以前从未听过的知识——毕竟研究生不会有人手把手教你这么系统地去学,只有老板给什么就去实现什么而已……那么开始吧~什么是类别型特征看名字就知道,是机器学习的输入数据中,表示类别的特征。比如:数据ID|性别|学历|出生城市|10年内深圳买房(y)1|男|博士|深圳|是2|女|硕士|重庆|否3|男|大学|哈尔滨|否4|女|高中|成都|是5|男|初中|湖南|是这些数据需要被通过某种方法转换为数字,也就是所谓的编码,才能更好地被那些机器学习算法中建立的各种数学模型来使用。我以前的转换手段就是暴力的:女=0,男=1初中=0,高中=1,大学=2,硕士=3,博士=4深圳=0,重庆=1
前言买了本《百面机器学习》看着玩,虽然已经毕业了,机器学习还是放不下吧,希望以后新的机会出现能够及时抓住。书中第一章「特征工程」的“01特征归一化”(第002-003页)提到:对数值类型的特征做归一化可以将所有的特征都统一到一个大致相同的数值区间内。最常用的方法主要有以下两种。(1)线性函数归一化(Min-MaxScaling)。它对原始数据进行线性变换,使结果映射到[0,1]的范围,实现对原始数据的等比缩放。归一化公式如下其中,X为原始数据,Xmax、Xmin分别为数据最大值和最小值。(2)零均值归一化(Z-ScoreNormalization)。它会将原始数据映射到均值为0、标准差为1的分布上。具体来说,假设原始特征的均值为μ、标准差为σ,那么归一化公式定义为:我平时使用的全是线性函数归
1