当前位置:首页 > 机器学习 > 正文

机器学习十大算法是什么

˙0˙你知道机器学习必学10大算法,是哪十大算法吗?本文介绍了十种常用的机器学习算法,包括线性回归、逻辑回归、线性判别分析、朴素贝叶斯、KNN、随机森林等。 线性回归是统计学和机器学习域众所周知且易于理解的算法,主要用于预测建模,目的是减少模型误差或做出准确的预测。 线性回归通过方程描述输入变量和输出变量之间的关系,找到输入变量的特定权重。 线性回归模型的预测公式为y=B0+B1*x,其中B0和B1是系数。 逻辑回归是基于统计的二分类问题的首选方法,通过逻辑函数将预测结果转换为0-1区间内的值来预测类别。 线性判别分析(LDA)适用于多重分类问题,并通过考虑数据的统计特征来预测结果。 分类树和回归树是一种表示为二叉树的决策树算法,它通过沿着树的分支路径移动直到到达叶节点并输出该节点的类值来进行预测。 朴素贝叶斯是一种简单而强大的预测建模算法,可以根据训练数据直接计算两类预测概率。 K最近邻(KNN)算法通过搜索新数据点的K个最相似实例并对输出变量求和来进行预测。 学习向量估计(LVQ)指定根据码本向量进行预测所需的训练实例数量。 支向量机(SVM)通过超平面划分输入变量空间并搜索超平面以实现最佳类分。 Bagging和随机森林是一组机器学习算法,它们使用引导来估计数据的平均值或使用决策树进行预测。 随机森林是随机森林的改进,它为次优分引入了随机性。 Boosting是一种批处理技术,使用大量弱分类器来创建强分类器。 AdaBoost是第一个对二元分类问题成功开发的Boosting算法,使用浅层决策树进行预测。

∩ω∩工智能十大算法

十大工智能算法如下

线性回归(LinearRegression)可能是最流行的机器学习算法。 线性回归是找到一条直线并拟合该直线,以使数据点尽可能紧密地分散在图中。 它尝试通过将正确的方程拟合到该数据来表示自变量(x值)和数值结果(y值)。 这条线可以用来预测未来的资产!

逻辑回归与线性回归类似,但在输出为二元时使用(即,如果效果只能有两个可能值)。 最终的输出预测是一个非线性sigmoidal函数,称为逻辑函数g()。

决策树可用于回归和分类任务。

朴素贝叶斯(NaiveBayes)基于贝叶斯定理。 它测量两种类型的概率,每种类型的条件概率给出x的值。 该算法已用于分类问题并且不返回二进输出。 请参见下面的等式。

支向量机(SVM)是一种用于分类问题的专用算法。 支向量机尝试在给定点之间绘两条线,并且它们之间的边距最大。 为此,我们将数据绘为一维空间中的点,其中n是输入线的数量。 在此基础上,矢量工程找到了一个称为超平面的最佳边界,它可以通过类标签最好地分离可能的输出。

K-NearestNeighbors(KNN)非常简单。 KNN通过查找K个最相似实例或K个邻居的整个训练集,并将公共变量分配给所有这些K个实例来对对象进行分类。

K-means通过分析数据集进行聚合。 例如,该算法可用于根据购买历史对用户进行分组。 它在数据集中找到K个绑定。 K-means用于无监督学习,因此我们只需要10个训练数据,并且我们想知道K个簇的数量。

随机森林(RandomForest)是一种流行的机器学习集成算法。 该算法的基本思想是,多的意见比单个个体的意见更准确。 在随机森林中,我们使用决策树集合(请参阅决策树)。

由于我们今天可以捕获的数据量巨大,机器学习问题变得更加复杂。 这种训练方式非常慢,而且很难找到好的解决方。 这个问题通常称为“维数灾难”。

工神经网络(ANN)可以处理大型且复杂的机器学习任务。 神经网络本质上是一组由加权边和节点(称为神经元)组成的互连层。 在输入层和输出层之间,我们可以插入几个隐层。 工神经网络使用两个隐层。 此外,还必须讨论深度学习。