UnivariateFeatureSelector¶
-
类
pyspark.ml.feature。
UnivariateFeatureSelector
( *,featuresCol:str=“特性”,outputCol:可选(str]=没有一个,labelCol:str=“标签”,selectionMode:str=“numTopFeatures” ) ¶ -
功能选择器对标签。基于单变量统计测试目前,火花支持三个单变量功能选择器:卡方,方差分析野生和f值。用户可以选择选择器的单变量特性设置featureType和labelType,火花就会选择分数根据指定的函数featureType和labelType。
以下的组合featureType和labelType支持:
featureType分类和labelType分类,火花使用卡方,即chi2 sklearn。
featureType连续和labelType分类,火花使用方差分析野生,即f_classif sklearn。
featureType连续和labelType连续,火花使用f值,即在sklearn f_regression。
的UnivariateFeatureSelector支持不同选择模式:numTopFeatures,百分位,玻璃钢,罗斯福,fwe。
numTopFeatures选择一个固定数量的高级功能根据根据假说。
百分位相似但选择所有功能的一小部分,而不是一个固定的数字。
玻璃钢选择所有特性的假定值低于一个阈值,从而控制选择的假阳性率。
罗斯福使用Benjamini-Hochberg过程选择所有功能的错误发现率低于一个阈值。
fwe选择假定值低于一个阈值的所有功能。阈值由1 /扩展numFeatures,从而控制选择的family-wise错误率。
默认情况下,选择模式numTopFeatures。
例子
> > >从pyspark.ml.linalg进口向量> > >df=火花。createDataFrame(…((向量。密集的([1.7,4.4,7.6,5.8,9.6,2.3]),3.0),…(向量。密集的([8.8,7.3,5.7,7.3,2.2,4.1]),2.0),…(向量。密集的([1.2,9.5,2.5,3.1,8.7,2.5]),1.0),…(向量。密集的([3.7,9.2,6.1,4.1,7.5,3.8]),2.0),…(向量。密集的([8.9,5.2,7.8,8.3,5.2,3.0]),4.0),…(向量。密集的([7.9,8.5,9.2,4.0,9.4,2.1]),4.0)),…(“特征”,“标签”])> > >选择器=UnivariateFeatureSelector(outputCol=“selectedFeatures”)> > >选择器。setFeatureType(“连续”)。setLabelType(“分类”)。setSelectionThreshold(1)UnivariateFeatureSelector……> > >模型=选择器。适合(df)> > >模型。getFeaturesCol()“特性”> > >模型。setFeaturesCol(“特征”)UnivariateFeatureSelectorModel……> > >模型。变换(df)。头()。selectedFeaturesDenseVector ([7.6])> > >模型。selectedFeatures[2]> > >selectorPath=temp_path+“/选择器”> > >选择器。保存(selectorPath)> > >loadedSelector=UnivariateFeatureSelector。负载(selectorPath)> > >loadedSelector。getSelectionThreshold()= =选择器。getSelectionThreshold()真正的> > >modelPath=temp_path+“/ selector-model”> > >模型。保存(modelPath)> > >loadedModel=UnivariateFeatureSelectorModel。负载(modelPath)> > >loadedModel。selectedFeatures= =模型。selectedFeatures真正的> > >loadedModel。变换(df)。取(1)= =模型。变换(df)。取(1)真正的
方法
清晰的
(参数)清除参数映射的参数是否被显式地设置。
复制
((额外的))创建这个实例的副本具有相同uid和一些额外的参数。
explainParam
(参数)解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
返回文档的所有参数选择默认值和用户提供的值。
extractParamMap
((额外的))提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
适合
(数据集[params))适合一个模型与可选参数的输入数据集。
fitMultiple
(paramMaps数据集)适合一个模型为每个参数映射的输入数据集paramMaps。
得到的价值featureType或其默认值。
得到的价值featuresCol或其默认值。
得到的价值labelCol或其默认值。
得到的价值labelType或其默认值。
getOrDefault
(参数)得到参数的值在用户提供的参数映射或其默认值。
得到的价值outputCol或其默认值。
getParam
(paramName)通过它的名称参数。
得到的价值selectionMode或其默认值。
得到的价值selectionThreshold或其默认值。
hasDefault
(参数)检查是否一个参数有默认值。
hasParam
(paramName)测试这个实例包含一个参数是否与给定名称(字符串)。
isDefined
(参数)检查参数是否由用户或显式地设置一个默认值。
收取
(参数)检查参数是否由用户显式地设置。
负载
(路径)从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
读
()返回一个MLReader这个类的实例。
保存
(路径)这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
集
(参数值)设置一个参数嵌入参数映射。
设置的值
featureType
。设置的值
featuresCol
。setLabelCol
(值)设置的值
labelCol
。setLabelType
(值)设置的值
labelType
。setOutputCol
(值)设置的值
outputCol
。setparam
(自我\ * (featuresCol,…))为这个UnivariateFeatureSelector设置参数。
设置的值
selectionMode
。设置的值
selectionThreshold
。写
()返回一个MLWriter实例毫升实例。
属性
返回所有参数命令的名字。
方法的文档
-
清晰的
( 参数:pyspark.ml.param.Param )→没有¶ -
清除参数映射的参数是否被显式地设置。
-
复制
( 额外的:可选(ParamMap]=没有一个 )→摩根大通¶ -
创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制和then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 参数
-
- 额外的 东西,可选
-
额外参数复制到新实例
- 返回
-
-
JavaParams
-
这个实例的副本
-
-
explainParam
( 参数:联盟(str,pyspark.ml.param.Param] )→str¶ -
解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
-
explainParams
( )→str¶ -
返回文档的所有参数选择默认值和用户提供的值。
-
extractParamMap
( 额外的:可选(ParamMap]=没有一个 )→ParamMap¶ -
提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
- 参数
-
- 额外的 东西,可选
-
额外的参数值
- 返回
-
- dict
-
合并后的参数映射
-
适合
( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:联盟[ParamMap、列表(ParamMap)元组(ParamMap),没有一个)=没有一个 )→联盟(米,列表(米] ] ¶ -
适合一个模型与可选参数的输入数据集。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
输入数据集。
- 参数个数 dict或列表或元组,可选的
-
一个可选的参数覆盖嵌入参数的地图。如果列表/元组的参数映射,这适用于每一个参数并返回一个列表的模型映射。
-
数据集
- 返回
-
-
变压器
或者一个列表变压器
-
拟合模型(年代)
-
-
fitMultiple
( 数据集:pyspark.sql.dataframe.DataFrame,paramMaps:序列(ParamMap] )→迭代器(元组(int,米] ] ¶ -
适合一个模型为每个参数映射的输入数据集paramMaps。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
输入数据集。
-
paramMaps
collections.abc.Sequence
-
一系列的参数映射。
-
数据集
- 返回
-
-
_FitMultipleIterator
-
一个线程安全的iterable包含为每个参数映射模型。每次调用下一个(modelIterator)将返回(指数模型)模型是适合使用在哪里paramMaps(指数)。指数值可能不是连续的。
-
-
getFeatureType
( )→str¶ -
得到的价值featureType或其默认值。
-
getFeaturesCol
( )→str¶ -
得到的价值featuresCol或其默认值。
-
getLabelCol
( )→str¶ -
得到的价值labelCol或其默认值。
-
getLabelType
( )→str¶ -
得到的价值labelType或其默认值。
-
getOrDefault
( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T] ¶ -
得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。
-
getOutputCol
( )→str¶ -
得到的价值outputCol或其默认值。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通过它的名称参数。
-
getSelectionMode
( )→str¶ -
得到的价值selectionMode或其默认值。
-
getSelectionThreshold
( )→浮动¶ -
得到的价值selectionThreshold或其默认值。
-
hasDefault
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查是否一个参数有默认值。
-
hasParam
( paramName:str )→bool¶ -
测试这个实例包含一个参数是否与给定名称(字符串)。
-
isDefined
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户或显式地设置一个默认值。
-
收取
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户显式地设置。
-
classmethod
负载
( 路径:str )→RL¶ -
从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
-
classmethod
读
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一个MLReader这个类的实例。
-
保存
( 路径:str )→没有¶ -
这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
-
集
( 参数:pyspark.ml.param.Param,价值:任何 )→没有¶ -
设置一个参数嵌入参数映射。
-
setFeatureType
( 价值:str )→pyspark.ml.feature.UnivariateFeatureSelector ¶ -
设置的值
featureType
。
-
setFeaturesCol
( 价值:str )→pyspark.ml.feature.UnivariateFeatureSelector ¶ -
设置的值
featuresCol
。
-
setLabelCol
( 价值:str )→pyspark.ml.feature.UnivariateFeatureSelector ¶ -
设置的值
labelCol
。
-
setLabelType
( 价值:str )→pyspark.ml.feature.UnivariateFeatureSelector ¶ -
设置的值
labelType
。
-
setOutputCol
( 价值:str )→pyspark.ml.feature.UnivariateFeatureSelector ¶ -
设置的值
outputCol
。
-
setparam
( 自我,\ *,featuresCol = "特性",outputCol =没有,labelCol = "标签",selectionMode = " numTopFeatures " ) ¶ -
为这个UnivariateFeatureSelector设置参数。
-
setSelectionMode
( 价值:str )→pyspark.ml.feature.UnivariateFeatureSelector ¶ -
设置的值
selectionMode
。
-
setSelectionThreshold
( 价值:浮动 )→pyspark.ml.feature.UnivariateFeatureSelector ¶ -
设置的值
selectionThreshold
。
-
写
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一个MLWriter实例毫升实例。
属性的文档
-
featureType
=参数(父母=‘定义’,name = ' featureType ', doc = '功能类型。支持选项:分类、连续的。”) ¶
-
featuresCol
=参数(父母=‘定义’,name = ' featuresCol ', doc =功能列名称。) ¶
-
labelCol
=参数(父母=‘定义’,name = ' labelCol ', doc =“标签列名。”) ¶
-
labelType
=参数(父母=‘定义’,name = ' labelType ', doc = '标签类型。支持选项:分类、连续的。”) ¶
-
outputCol
=参数(父母=‘定义’,name = ' outputCol ', doc =输出列名称。) ¶
-
参数个数
¶ -
返回所有参数命令的名字。默认实现使用
dir ()
所有的属性类型参数
。
-
selectionMode
=参数(父母=‘定义’,name = ' selectionMode ', doc = '选择模式。支持选择:numTopFeatures(默认),百分位,玻璃钢,罗斯福,fwe。”) ¶
-
selectionThreshold
=参数(父母=‘定义’,name = ' selectionThreshold ', doc =的上界的功能选择器选择。) ¶