Binarizer¶
-
类
pyspark.ml.feature。
Binarizer
( *,阈值:浮动=0.0,inputCol:可选(str]=没有一个,outputCol:可选(str]=没有一个,阈值:可选(列表(浮动]]=没有一个,inputCols:可选(列表(str]]=没有一个,outputCols:可选(列表(str]]=没有一个 ) ¶ -
Binarize一列连续给定的阈值特性。3.0.0以来,
Binarize
一次可以映射多个列通过设置inputCols
参数。注意,当这两个inputCol
和inputCols
参数设置,就会抛出一个异常。的阈值
参数是用于单一列使用,阈值
是多个列。例子
> > >df=火花。createDataFrame(((0.5),(“价值观”])> > >binarizer=Binarizer(阈值=1.0,inputCol=“价值观”,outputCol=“特征”)> > >binarizer。setThreshold(1.0)Binarizer……> > >binarizer。setInputCol(“价值观”)Binarizer……> > >binarizer。setOutputCol(“特征”)Binarizer……> > >binarizer。变换(df)。头()。特性0.0> > >binarizer。setparam(outputCol=“频率”)。变换(df)。头()。频率0.0> > >参数个数={binarizer。阈值:- - - - - -0.5,binarizer。outputCol:“向量”}> > >binarizer。变换(df,参数个数)。头()。向量1.0> > >binarizerPath=temp_path+“/ binarizer”> > >binarizer。保存(binarizerPath)> > >loadedBinarizer=Binarizer。负载(binarizerPath)> > >loadedBinarizer。getThreshold()= =binarizer。getThreshold()真正的> > >loadedBinarizer。变换(df)。取(1)= =binarizer。变换(df)。取(1)真正的> > >df2=火花。createDataFrame(((0.5,0.3)),(“values1”,“values2”])> > >binarizer2=Binarizer(阈值=(0.0,1.0])> > >binarizer2。setInputCols([“values1”,“values2”])。setOutputCols([“output1”,“output2”])Binarizer……> > >binarizer2。变换(df2)。显示()+ - - - - - - - - - - - - - - + - - - - - - - - - - - - - - +| values1 | values2 | output1 | output2 |+ - - - - - - - - - - - - - - + - - - - - - - - - - - - - - +| 0.5 | 0.3 | 1.0 | 0.0 |+ - - - - - - - - - - - - - - + - - - - - - - - - - - - - - +…
方法
清晰的
(参数)清除参数映射的参数是否被显式地设置。
复制
((额外的))创建这个实例的副本具有相同uid和一些额外的参数。
explainParam
(参数)解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
返回文档的所有参数选择默认值和用户提供的值。
extractParamMap
((额外的))提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
得到的价值inputCol或其默认值。
得到的价值inputCols或其默认值。
getOrDefault
(参数)得到参数的值在用户提供的参数映射或其默认值。
得到的价值outputCol或其默认值。
得到的价值outputCols或其默认值。
getParam
(paramName)通过它的名称参数。
得到的值阈值或其默认值。
得到的值阈值或其默认值。
hasDefault
(参数)检查是否一个参数有默认值。
hasParam
(paramName)测试这个实例包含一个参数是否与给定名称(字符串)。
isDefined
(参数)检查参数是否由用户或显式地设置一个默认值。
收取
(参数)检查参数是否由用户显式地设置。
负载
(路径)从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
读
()返回一个MLReader这个类的实例。
保存
(路径)这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
集
(参数值)设置一个参数嵌入参数映射。
setInputCol
(值)设置的值
inputCol
。setInputCols
(值)设置的值
inputCols
。setOutputCol
(值)设置的值
outputCol
。设置的值
outputCols
。setparam
(自我,\[、阈值、inputCol…))为这个Binarizer设置参数。
setThreshold
(值)设置的值
阈值
。设置的值
阈值
。变换
(数据集[params))与可选参数转换的输入数据集。
写
()返回一个MLWriter实例毫升实例。
属性
返回所有参数命令的名字。
方法的文档
-
清晰的
( 参数:pyspark.ml.param.Param )→没有¶ -
清除参数映射的参数是否被显式地设置。
-
复制
( 额外的:可选(ParamMap]=没有一个 )→摩根大通¶ -
创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制和then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 参数
-
- 额外的 东西,可选
-
额外参数复制到新实例
- 返回
-
-
JavaParams
-
这个实例的副本
-
-
explainParam
( 参数:联盟(str,pyspark.ml.param.Param] )→str¶ -
解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
-
explainParams
( )→str¶ -
返回文档的所有参数选择默认值和用户提供的值。
-
extractParamMap
( 额外的:可选(ParamMap]=没有一个 )→ParamMap¶ -
提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
- 参数
-
- 额外的 东西,可选
-
额外的参数值
- 返回
-
- dict
-
合并后的参数映射
-
getInputCol
( )→str¶ -
得到的价值inputCol或其默认值。
-
getInputCols
( )→列表(str] ¶ -
得到的价值inputCols或其默认值。
-
getOrDefault
( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T] ¶ -
得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。
-
getOutputCol
( )→str¶ -
得到的价值outputCol或其默认值。
-
getOutputCols
( )→列表(str] ¶ -
得到的价值outputCols或其默认值。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通过它的名称参数。
-
getThreshold
( )→浮动¶ -
得到的值阈值或其默认值。
-
getThresholds
( )→列表(浮动] ¶ -
得到的值阈值或其默认值。
-
hasDefault
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查是否一个参数有默认值。
-
hasParam
( paramName:str )→bool¶ -
测试这个实例包含一个参数是否与给定名称(字符串)。
-
isDefined
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户或显式地设置一个默认值。
-
收取
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户显式地设置。
-
classmethod
负载
( 路径:str )→RL¶ -
从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
-
classmethod
读
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一个MLReader这个类的实例。
-
保存
( 路径:str )→没有¶ -
这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
-
集
( 参数:pyspark.ml.param.Param,价值:任何 )→没有¶ -
设置一个参数嵌入参数映射。
-
setInputCol
( 价值:str )→pyspark.ml.feature.Binarizer ¶ -
设置的值
inputCol
。
-
setInputCols
( 价值:列表(str] )→pyspark.ml.feature.Binarizer ¶ -
设置的值
inputCols
。
-
setOutputCol
( 价值:str )→pyspark.ml.feature.Binarizer ¶ -
设置的值
outputCol
。
-
setOutputCols
( 价值:列表(str] )→pyspark.ml.feature.Binarizer ¶ -
设置的值
outputCols
。
-
setparam
( 自我,\ *,阈值= 0.0,inputCol =没有,outputCol =没有,阈值=没有,inputCols =没有,outputCols =没有 ) ¶ -
为这个Binarizer设置参数。
-
setThreshold
( 价值:浮动 )→pyspark.ml.feature.Binarizer ¶ -
设置的值
阈值
。
-
setThresholds
( 价值:列表(浮动] )→pyspark.ml.feature.Binarizer ¶ -
设置的值
阈值
。
-
变换
( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:可选(ParamMap]=没有一个 )→pyspark.sql.dataframe.DataFrame¶ -
与可选参数转换的输入数据集。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
输入数据集
- 参数个数 东西,可选
-
一个可选的参数覆盖嵌入参数的地图。
-
数据集
- 返回
-
-
pyspark.sql.DataFrame
-
改变了数据集
-
-
写
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一个MLWriter实例毫升实例。
属性的文档
-
inputCol
=参数(父母=‘定义’,name = ' inputCol ', doc =输入列名称。) ¶
-
inputCols
=参数(父母=‘定义’,name = ' inputCols ', doc =输入列名称。) ¶
-
outputCol
=参数(父母=‘定义’,name = ' outputCol ', doc =输出列名称。) ¶
-
outputCols
=参数(父母=‘定义’,name = ' outputCols ', doc =输出列名称。) ¶
-
参数个数
¶ -
返回所有参数命令的名字。默认实现使用
dir ()
所有的属性类型参数
。
-
阈值
:pyspark.ml.param.Param(浮动) =参数(父母=‘定义’,name =“阈值”,医生= '参数阈值用于binarize连续特性。大于阈值的特性将关键1.0。等于或小于阈值的特性将关键0.0”) ¶
-
阈值
:pyspark.ml.param.Param列表(浮动) =参数(父母=‘定义’,name =“阈值”,医生= '参数阈值的数组用于binarize连续特性。这是多个列输入。如果将多个列和没有设置阈值,但设置阈值,阈值就会被应用在所有列。”) ¶
-