UnivariateFeatureSelector

pyspark.ml.feature。 UnivariateFeatureSelector ( *,featuresCol:str=“特性”,outputCol:可选(str]=没有一个,labelCol:str=“标签”,selectionMode:str=“numTopFeatures” )

功能选择器对标签。基于单变量统计测试目前,火花支持三个单变量功能选择器:卡方,方差分析野生和f值。用户可以选择选择器的单变量特性设置featureTypelabelType,火花就会选择分数根据指定的函数featureTypelabelType

以下的组合featureTypelabelType支持:

  • featureType分类labelType分类,火花使用卡方,即chi2 sklearn。

  • featureType连续labelType分类,火花使用方差分析野生,即f_classif sklearn。

  • featureType连续labelType连续,火花使用f值,即在sklearn f_regression。

UnivariateFeatureSelector支持不同选择模式:numTopFeatures,百分位,玻璃钢,罗斯福,fwe

  • numTopFeatures选择一个固定数量的高级功能根据根据假说。

  • 百分位相似但选择所有功能的一小部分,而不是一个固定的数字。

  • 玻璃钢选择所有特性的假定值低于一个阈值,从而控制选择的假阳性率。

  • 罗斯福使用Benjamini-Hochberg过程选择所有功能的错误发现率低于一个阈值。

  • fwe选择假定值低于一个阈值的所有功能。阈值由1 /扩展numFeatures,从而控制选择的family-wise错误率。

默认情况下,选择模式numTopFeatures

例子

> > >pyspark.ml.linalg进口向量> > >df=火花createDataFrame(((向量密集的([1.7,4.4,7.6,5.8,9.6,2.3]),3.0),(向量密集的([8.8,7.3,5.7,7.3,2.2,4.1]),2.0),(向量密集的([1.2,9.5,2.5,3.1,8.7,2.5]),1.0),(向量密集的([3.7,9.2,6.1,4.1,7.5,3.8]),2.0),(向量密集的([8.9,5.2,7.8,8.3,5.2,3.0]),4.0),(向量密集的([7.9,8.5,9.2,4.0,9.4,2.1]),4.0)),(“特征”,“标签”])> > >选择器=UnivariateFeatureSelector(outputCol=“selectedFeatures”)> > >选择器setFeatureType(“连续”)setLabelType(“分类”)setSelectionThreshold(1)UnivariateFeatureSelector……> > >模型=选择器适合(df)> > >模型getFeaturesCol()“特性”> > >模型setFeaturesCol(“特征”)UnivariateFeatureSelectorModel……> > >模型变换(df)()selectedFeaturesDenseVector ([7.6])> > >模型selectedFeatures[2]> > >selectorPath=temp_path+“/选择器”> > >选择器保存(selectorPath)> > >loadedSelector=UnivariateFeatureSelector负载(selectorPath)> > >loadedSelectorgetSelectionThreshold()= =选择器getSelectionThreshold()真正的> > >modelPath=temp_path+“/ selector-model”> > >模型保存(modelPath)> > >loadedModel=UnivariateFeatureSelectorModel负载(modelPath)> > >loadedModelselectedFeatures= =模型selectedFeatures真正的> > >loadedModel变换(df)(1)= =模型变换(df)(1)真正的

方法

清晰的(参数)

清除参数映射的参数是否被显式地设置。

复制((额外的))

创建这个实例的副本具有相同uid和一些额外的参数。

explainParam(参数)

解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。

explainParams()

返回文档的所有参数选择默认值和用户提供的值。

extractParamMap((额外的))

提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。

适合(数据集[params))

适合一个模型与可选参数的输入数据集。

fitMultiple(paramMaps数据集)

适合一个模型为每个参数映射的输入数据集paramMaps

getFeatureType()

得到的价值featureType或其默认值。

getFeaturesCol()

得到的价值featuresCol或其默认值。

getLabelCol()

得到的价值labelCol或其默认值。

getLabelType()

得到的价值labelType或其默认值。

getOrDefault(参数)

得到参数的值在用户提供的参数映射或其默认值。

getOutputCol()

得到的价值outputCol或其默认值。

getParam(paramName)

通过它的名称参数。

getSelectionMode()

得到的价值selectionMode或其默认值。

getSelectionThreshold()

得到的价值selectionThreshold或其默认值。

hasDefault(参数)

检查是否一个参数有默认值。

hasParam(paramName)

测试这个实例包含一个参数是否与给定名称(字符串)。

isDefined(参数)

检查参数是否由用户或显式地设置一个默认值。

收取(参数)

检查参数是否由用户显式地设置。

负载(路径)

从输入路径,读取一个毫升实例的快捷方式read () .load(路径)

()

返回一个MLReader这个类的实例。

保存(路径)

这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。

(参数值)

设置一个参数嵌入参数映射。

setFeatureType(值)

设置的值featureType

setFeaturesCol(值)

设置的值featuresCol

setLabelCol(值)

设置的值labelCol

setLabelType(值)

设置的值labelType

setOutputCol(值)

设置的值outputCol

setparam(自我\ * (featuresCol,…))

为这个UnivariateFeatureSelector设置参数。

setSelectionMode(值)

设置的值selectionMode

setSelectionThreshold(值)

设置的值selectionThreshold

()

返回一个MLWriter实例毫升实例。

属性

featureType

featuresCol

labelCol

labelType

outputCol

参数个数

返回所有参数命令的名字。

selectionMode

selectionThreshold

方法的文档

清晰的 ( 参数:pyspark.ml.param.Param )→没有

清除参数映射的参数是否被显式地设置。

复制 ( 额外的:可选(ParamMap]=没有一个 )→摩根大通

创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制和then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

参数
额外的 东西,可选

额外参数复制到新实例

返回
JavaParams

这个实例的副本

explainParam ( 参数:联盟(str,pyspark.ml.param.Param] )→str

解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。

explainParams ( )→str

返回文档的所有参数选择默认值和用户提供的值。

extractParamMap ( 额外的:可选(ParamMap]=没有一个 )→ParamMap

提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。

参数
额外的 东西,可选

额外的参数值

返回
dict

合并后的参数映射

适合 ( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:联盟[ParamMap、列表(ParamMap)元组(ParamMap),没有一个)=没有一个 )→联盟(,列表(] ]

适合一个模型与可选参数的输入数据集。

参数
数据集 pyspark.sql.DataFrame

输入数据集。

参数个数 dict或列表或元组,可选的

一个可选的参数覆盖嵌入参数的地图。如果列表/元组的参数映射,这适用于每一个参数并返回一个列表的模型映射。

返回
变压器或者一个列表变压器

拟合模型(年代)

fitMultiple ( 数据集:pyspark.sql.dataframe.DataFrame,paramMaps:序列(ParamMap] )→迭代器(元组(int,] ]

适合一个模型为每个参数映射的输入数据集paramMaps

参数
数据集 pyspark.sql.DataFrame

输入数据集。

paramMaps collections.abc.Sequence

一系列的参数映射。

返回
_FitMultipleIterator

一个线程安全的iterable包含为每个参数映射模型。每次调用下一个(modelIterator)将返回(指数模型)模型是适合使用在哪里paramMaps(指数)指数值可能不是连续的。

getFeatureType ( )→str

得到的价值featureType或其默认值。

getFeaturesCol ( )→str

得到的价值featuresCol或其默认值。

getLabelCol ( )→str

得到的价值labelCol或其默认值。

getLabelType ( )→str

得到的价值labelType或其默认值。

getOrDefault ( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T]

得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。

getOutputCol ( )→str

得到的价值outputCol或其默认值。

getParam ( paramName:str )pyspark.ml.param.Param

通过它的名称参数。

getSelectionMode ( )→str

得到的价值selectionMode或其默认值。

getSelectionThreshold ( )→浮动

得到的价值selectionThreshold或其默认值。

hasDefault ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查是否一个参数有默认值。

hasParam ( paramName:str )→bool

测试这个实例包含一个参数是否与给定名称(字符串)。

isDefined ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查参数是否由用户或显式地设置一个默认值。

收取 ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查参数是否由用户显式地设置。

classmethod 负载 ( 路径:str )→RL

从输入路径,读取一个毫升实例的快捷方式read () .load(路径)

classmethod ( )→pyspark.ml.util.JavaMLReader(RL]

返回一个MLReader这个类的实例。

保存 ( 路径:str )→没有

这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。

( 参数:pyspark.ml.param.Param,价值:任何 )→没有

设置一个参数嵌入参数映射。

setFeatureType ( 价值:str )pyspark.ml.feature.UnivariateFeatureSelector

设置的值featureType

setFeaturesCol ( 价值:str )pyspark.ml.feature.UnivariateFeatureSelector

设置的值featuresCol

setLabelCol ( 价值:str )pyspark.ml.feature.UnivariateFeatureSelector

设置的值labelCol

setLabelType ( 价值:str )pyspark.ml.feature.UnivariateFeatureSelector

设置的值labelType

setOutputCol ( 价值:str )pyspark.ml.feature.UnivariateFeatureSelector

设置的值outputCol

setparam ( 自我,\ *,featuresCol = "特性",outputCol =没有,labelCol = "标签",selectionMode = " numTopFeatures " )

为这个UnivariateFeatureSelector设置参数。

setSelectionMode ( 价值:str )pyspark.ml.feature.UnivariateFeatureSelector

设置的值selectionMode

setSelectionThreshold ( 价值:浮动 )pyspark.ml.feature.UnivariateFeatureSelector

设置的值selectionThreshold

( )→pyspark.ml.util.JavaMLWriter

返回一个MLWriter实例毫升实例。

属性的文档

featureType =参数(父母=‘定义’,name = ' featureType ', doc = '功能类型。支持选项:分类、连续的。”)
featuresCol =参数(父母=‘定义’,name = ' featuresCol ', doc =功能列名称。)
labelCol =参数(父母=‘定义’,name = ' labelCol ', doc =“标签列名。”)
labelType =参数(父母=‘定义’,name = ' labelType ', doc = '标签类型。支持选项:分类、连续的。”)
outputCol =参数(父母=‘定义’,name = ' outputCol ', doc =输出列名称。)
参数个数

返回所有参数命令的名字。默认实现使用dir ()所有的属性类型参数

selectionMode =参数(父母=‘定义’,name = ' selectionMode ', doc = '选择模式。支持选择:numTopFeatures(默认),百分位,玻璃钢,罗斯福,fwe。”)
selectionThreshold =参数(父母=‘定义’,name = ' selectionThreshold ', doc =的上界的功能选择器选择。)