输入¶
-
类
pyspark.ml.feature。
输入
( *,策略:str=“的意思是”,missingValue:浮动=南,inputCols:可选(列表(str]]=没有一个,outputCols:可选(列表(str]]=没有一个,inputCol:可选(str]=没有一个,outputCol:可选(str]=没有一个,relativeError:浮动=0.001 ) ¶ -
归责估计完成缺失值,使用均值、中值或模式的缺失值的列。数值类型的输入列应该。目前输入不支持分类特征和分类功能可能产生不正确的值。
注意,意味着/中等/模式计算价值后过滤出缺失值。输入列中的所有空值被视为失踪,所以也估算。为计算值,
pyspark.sql.DataFrame.approxQuantile ()
使用的相对误差0.001。例子
> > >df=火花。createDataFrame(((1.0,浮动(“南”)),(2.0,浮动(“南”)),(浮动(“南”),3.0),…(4.0,4.0),(5.0,5.0)),(“一个”,“b”])> > >输入=输入()> > >输入。setInputCols([“一个”,“b”])输入……> > >输入。setOutputCols([“out_a”,“out_b”])输入……> > >输入。getRelativeError()0.001> > >模型=输入。适合(df)> > >模型。setInputCols([“一个”,“b”])ImputerModel……> > >模型。getStrategy()“的意思是”> > >模型。surrogateDF。显示()+ - - - + - - - +| | | b+ - - - + - - - +| 3.0 | 4.0 |+ - - - + - - - +…> > >模型。变换(df)。显示()+ - - - + - - - + - - - - - - - - - - - - + +| | | b out_a | out_b |+ - - - + - - - + - - - - - - - - - - - - + +| 1.0 |南| 1.0 | 4.0 || 2.0 |南| 2.0 | 4.0 ||南| 3.0 | 3.0 | 3.0 |…> > >输入。setStrategy(“中值”)。setMissingValue(1.0)。适合(df)。变换(df)。显示()+ - - - + - - - + - - - - - - - - - - - - + +| | | b out_a | out_b |+ - - - + - - - + - - - - - - - - - - - - + +| 1.0 |南| 4.0 |南|…> > >df1=火花。createDataFrame(((1.0),(2.0),(浮动(“南”),),(4.0),(5.0),(“一个”])> > >imputer1=输入(inputCol=“一个”,outputCol=“out_a”)> > >model1=imputer1。适合(df1)> > >model1。surrogateDF。显示()+ - - - +|的|+ - - - +| 3.0 |+ - - - +…> > >model1。变换(df1)。显示()+ - - - + - - - +|的| out_a |+ - - - + - - - +| 1.0 | 1.0 || 2.0 | 2.0 ||南| 3.0 |…> > >imputer1。setStrategy(“中值”)。setMissingValue(1.0)。适合(df1)。变换(df1)。显示()+ - - - + - - - +|的| out_a |+ - - - + - - - +| 1.0 | 4.0 |…> > >df2=火花。createDataFrame(((浮动(“南”),),(浮动(“南”),),(3.0),(4.0),(5.0),…(“b”])> > >imputer2=输入(inputCol=“b”,outputCol=“out_b”)> > >model2=imputer2。适合(df2)> > >model2。surrogateDF。显示()+ - - - +b | |+ - - - +| 4.0 |+ - - - +…> > >model2。变换(df2)。显示()+ - - - + - - - +| | b out_b |+ - - - + - - - +|南| 4.0 ||南| 4.0 || 3.0 | 3.0 |…> > >imputer2。setStrategy(“中值”)。setMissingValue(1.0)。适合(df2)。变换(df2)。显示()+ - - - + - - - +| | b out_b |+ - - - + - - - +| |南南|…> > >imputerPath=temp_path+“/输入”> > >输入。保存(imputerPath)> > >loadedImputer=输入。负载(imputerPath)> > >loadedImputer。getStrategy()= =输入。getStrategy()真正的> > >loadedImputer。getMissingValue()1.0> > >modelPath=temp_path+“/ imputer-model”> > >模型。保存(modelPath)> > >loadedModel=ImputerModel。负载(modelPath)> > >loadedModel。变换(df)。头()。out_a= =模型。变换(df)。头()。out_a真正的
方法
清晰的
(参数)清除参数映射的参数是否被显式地设置。
复制
((额外的))创建这个实例的副本具有相同uid和一些额外的参数。
explainParam
(参数)解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
返回文档的所有参数选择默认值和用户提供的值。
extractParamMap
((额外的))提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
适合
(数据集[params))适合一个模型与可选参数的输入数据集。
fitMultiple
(paramMaps数据集)适合一个模型为每个参数映射的输入数据集paramMaps。
得到的价值inputCol或其默认值。
得到的价值inputCols或其默认值。
获得的价值
missingValue
或其默认值。getOrDefault
(参数)得到参数的值在用户提供的参数映射或其默认值。
得到的价值outputCol或其默认值。
得到的价值outputCols或其默认值。
getParam
(paramName)通过它的名称参数。
得到的价值relativeError或其默认值。
获得的价值
策略
或其默认值。hasDefault
(参数)检查是否一个参数有默认值。
hasParam
(paramName)测试这个实例包含一个参数是否与给定名称(字符串)。
isDefined
(参数)检查参数是否由用户或显式地设置一个默认值。
收取
(参数)检查参数是否由用户显式地设置。
负载
(路径)从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
读
()返回一个MLReader这个类的实例。
保存
(路径)这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
集
(参数值)设置一个参数嵌入参数映射。
setInputCol
(值)设置的值
inputCol
。setInputCols
(值)设置的值
inputCols
。设置的值
missingValue
。setOutputCol
(值)设置的值
outputCol
。设置的值
outputCols
。setparam
(自我\[,策略,…))设置参数输入。
设置的值
relativeError
。setStrategy
(值)设置的值
策略
。写
()返回一个MLWriter实例毫升实例。
属性
返回所有参数命令的名字。
方法的文档
-
清晰的
( 参数:pyspark.ml.param.Param )→没有¶ -
清除参数映射的参数是否被显式地设置。
-
复制
( 额外的:可选(ParamMap]=没有一个 )→摩根大通¶ -
创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 参数
-
- 额外的 东西,可选
-
额外参数复制到新实例
- 返回
-
-
JavaParams
-
这个实例的副本
-
-
explainParam
( 参数:联盟(str,pyspark.ml.param.Param] )→str¶ -
解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
-
explainParams
( )→str¶ -
返回文档的所有参数选择默认值和用户提供的值。
-
extractParamMap
( 额外的:可选(ParamMap]=没有一个 )→ParamMap¶ -
提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
- 参数
-
- 额外的 东西,可选
-
额外的参数值
- 返回
-
- dict
-
合并后的参数映射
-
适合
( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:联盟[ParamMap、列表(ParamMap)元组(ParamMap),没有一个)=没有一个 )→联盟(米,列表(米] ] ¶ -
适合一个模型与可选参数的输入数据集。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
输入数据集。
- 参数个数 dict或列表或元组,可选的
-
一个可选的参数覆盖嵌入参数的地图。如果列表/元组的参数映射,这适用于每一个参数并返回一个列表的模型映射。
-
数据集
- 返回
-
-
变压器
或者一个列表变压器
-
拟合模型(年代)
-
-
fitMultiple
( 数据集:pyspark.sql.dataframe.DataFrame,paramMaps:序列(ParamMap] )→迭代器(元组(int,米] ] ¶ -
适合一个模型为每个参数映射的输入数据集paramMaps。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
输入数据集。
-
paramMaps
collections.abc.Sequence
-
一系列的参数映射。
-
数据集
- 返回
-
-
_FitMultipleIterator
-
一个线程安全的iterable包含为每个参数映射模型。每次调用下一个(modelIterator)将返回(指数模型)模型是适合使用在哪里paramMaps(指数)。指数值可能不是连续的。
-
-
getInputCol
( )→str¶ -
得到的价值inputCol或其默认值。
-
getInputCols
( )→列表(str] ¶ -
得到的价值inputCols或其默认值。
-
getMissingValue
( )→浮动¶ -
获得的价值
missingValue
或其默认值。
-
getOrDefault
( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T] ¶ -
得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。
-
getOutputCol
( )→str¶ -
得到的价值outputCol或其默认值。
-
getOutputCols
( )→列表(str] ¶ -
得到的价值outputCols或其默认值。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通过它的名称参数。
-
getRelativeError
( )→浮动¶ -
得到的价值relativeError或其默认值。
-
hasDefault
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查是否一个参数有默认值。
-
hasParam
( paramName:str )→bool¶ -
测试这个实例包含一个参数是否与给定名称(字符串)。
-
isDefined
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户或显式地设置一个默认值。
-
收取
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户显式地设置。
-
classmethod
负载
( 路径:str )→RL¶ -
从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
-
classmethod
读
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一个MLReader这个类的实例。
-
保存
( 路径:str )→没有¶ -
这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
-
集
( 参数:pyspark.ml.param.Param,价值:任何 )→没有¶ -
设置一个参数嵌入参数映射。
-
setInputCol
( 价值:str )→pyspark.ml.feature.Imputer ¶ -
设置的值
inputCol
。
-
setInputCols
( 价值:列表(str] )→pyspark.ml.feature.Imputer ¶ -
设置的值
inputCols
。
-
setMissingValue
( 价值:浮动 )→pyspark.ml.feature.Imputer ¶ -
设置的值
missingValue
。
-
setOutputCol
( 价值:str )→pyspark.ml.feature.Imputer ¶ -
设置的值
outputCol
。
-
setOutputCols
( 价值:列表(str] )→pyspark.ml.feature.Imputer ¶ -
设置的值
outputCols
。
-
setparam
( 自我,\ *,策略= "的意思是",missingValue =浮动(南),inputCols =没有,outputCols =没有,inputCol =没有,outputCol =没有,relativeError = 0.001 ) ¶ -
设置参数输入。
-
setRelativeError
( 价值:浮动 )→pyspark.ml.feature.Imputer ¶ -
设置的值
relativeError
。
-
setStrategy
( 价值:str )→pyspark.ml.feature.Imputer ¶ -
设置的值
策略
。
-
写
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一个MLWriter实例毫升实例。
属性的文档
-
inputCol
=参数(父母=‘定义’,name = ' inputCol ', doc =输入列名称。) ¶
-
inputCols
=参数(父母=‘定义’,name = ' inputCols ', doc =输入列名称。) ¶
-
missingValue
=参数(父母=‘定义’,name = ' missingValue ', doc = '缺失值的占位符。出现的所有missingValue将估算。”) ¶
-
outputCol
=参数(父母=‘定义’,name = ' outputCol ', doc =输出列名称。) ¶
-
outputCols
=参数(父母=‘定义’,name = ' outputCols ', doc =输出列名称。) ¶
-
参数个数
¶ -
返回所有参数命令的名字。默认实现使用
dir ()
所有的属性类型参数
。
-
relativeError
=参数(父母=‘定义’,name = ' relativeError ', doc = '相对目标精度的近似算法分位数。必须在[0,1]”) ¶
-
策略
=参数(父母=‘定义’,name =“策略”,医生= '归责的策略。如果是说,然后用均值代替缺失值的特性。如果值,然后使用中值代替缺失值的特性。如果模式,那么替换丢失的使用最频繁的价值特性。”) ¶
-