PowerIterationClustering¶
-
类
pyspark.ml.clustering。
PowerIterationClustering
( *,k:int=2,麦克斯特:int=20.,initMode:str=“随机”,srcCol:str=“src”,dstCol:str=dst的,weightCol:可选(str]=没有一个 ) ¶ -
迭代聚类(图片),一个可伸缩的图形开发的聚类算法林和科恩。从文摘:图片发现低维嵌入的数据集使用截断电力迭代规范化成对相似矩阵的数据。
这个类还没有一个估计量/变压器,使用
assignClusters ()
方法运行PowerIterationClustering算法。笔记
看到维基百科对谱聚类
例子
> > >数据=((1,0,0.5),…(2,0,0.5),(2,1,0.7),…(3,0,0.5),(3,1,0.7),(3,2,0.9),…(4,0,0.5),(4,1,0.7),(4,2,0.9),(4,3,1.1),…(5,0,0.5),(5,1,0.7),(5,2,0.9),(5,3,1.1),(5,4,1.3)]> > >df=火花。createDataFrame(数据)。toDF(" src ",“dst”,“重量”)。重新分区(1)> > >图片=PowerIterationClustering(k=2,weightCol=“重量”)> > >图片。setMaxIter(40)PowerIterationClustering……> > >作业=图片。assignClusters(df)> > >作业。排序(作业。id)。显示(截断=假)+ - - - + - - - - - - - +| | |集群id+ - - - + - - - - - - - +| 0 | 0 || 1 | 0 || 2 | 0 || 3 | 0 || 4 | 0 || 5 | 1 |+ - - - + - - - - - - - +…> > >pic_path=temp_path+“/图片”> > >图片。保存(pic_path)> > >pic2=PowerIterationClustering。负载(pic_path)> > >pic2。getK()2> > >pic2。getMaxIter()40> > >pic2。assignClusters(df)。取(6)= =作业。取(6)真正的
方法
assignClusters
(数据集)PIC算法并返回一个集群运行任务为每个输入顶点。
清晰的
(参数)清除参数映射的参数是否被显式地设置。
复制
((额外的))创建这个实例的副本具有相同uid和一些额外的参数。
explainParam
(参数)解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
返回文档的所有参数选择默认值和用户提供的值。
extractParamMap
((额外的))提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
获得的价值
dstCol
或其默认值。获得的价值
initMode
或其默认值。getK
()获得的价值
k
或其默认值。麦克斯特的价值或其默认值。
getOrDefault
(参数)得到参数的值在用户提供的参数映射或其默认值。
getParam
(paramName)通过它的名称参数。
获得的价值
srcCol
或其默认值。得到的价值weightCol或其默认值。
hasDefault
(参数)检查是否一个参数有默认值。
hasParam
(paramName)测试这个实例包含一个参数是否与给定名称(字符串)。
isDefined
(参数)检查参数是否由用户或显式地设置一个默认值。
收取
(参数)检查参数是否由用户显式地设置。
负载
(路径)从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
读
()返回一个MLReader这个类的实例。
保存
(路径)这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
集
(参数值)设置一个参数嵌入参数映射。
setDstCol
(值)设置的值
dstCol
。setInitMode
(值)设置的值
initMode
。setK
(值)设置的值
k
。setMaxIter
(值)设置的值
麦克斯特
。setparam
(自我,\ [k麦克斯特、initMode…))PowerIterationClustering设置参数。
setSrcCol
(值)设置的值
srcCol
。setWeightCol
(值)设置的值
weightCol
。写
()返回一个MLWriter实例毫升实例。
属性
返回所有参数命令的名字。
方法的文档
-
assignClusters
( 数据集:pyspark.sql.dataframe.DataFrame )→pyspark.sql.dataframe.DataFrame¶ -
PIC算法并返回一个集群运行任务为每个输入顶点。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
数据集与列src, dst,体重代表关联矩阵,矩阵A的图片。我假设src列值,dst列值是j,重量列值是相似年代,ij,必须负的。这是一个对称矩阵,因此,ij,, =,,,,。对于任何(i, j)和非零相似,应该是(i, j s ij,)或(j,我,,,,,)的输入。行与我= j将被忽略,因为我们假设年代,ij,, = 0.0。
-
数据集
- 返回
-
-
pyspark.sql.DataFrame
-
顶点的数据集,其中包含列id和对应的集群id。它将的模式:- id:长——集群:Int
-
-
清晰的
( 参数:pyspark.ml.param.Param )→没有¶ -
清除参数映射的参数是否被显式地设置。
-
复制
( 额外的:可选(ParamMap]=没有一个 )→摩根大通¶ -
创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 参数
-
- 额外的 东西,可选
-
额外参数复制到新实例
- 返回
-
-
JavaParams
-
这个实例的副本
-
-
explainParam
( 参数:联盟(str,pyspark.ml.param.Param] )→str¶ -
解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
-
explainParams
( )→str¶ -
返回文档的所有参数选择默认值和用户提供的值。
-
extractParamMap
( 额外的:可选(ParamMap]=没有一个 )→ParamMap¶ -
提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
- 参数
-
- 额外的 东西,可选
-
额外的参数值
- 返回
-
- dict
-
合并后的参数映射
-
getMaxIter
( )→int¶ -
麦克斯特的价值或其默认值。
-
getOrDefault
( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T] ¶ -
得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通过它的名称参数。
-
getWeightCol
( )→str¶ -
得到的价值weightCol或其默认值。
-
hasDefault
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查是否一个参数有默认值。
-
hasParam
( paramName:str )→bool¶ -
测试这个实例包含一个参数是否与给定名称(字符串)。
-
isDefined
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户或显式地设置一个默认值。
-
收取
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户显式地设置。
-
classmethod
负载
( 路径:str )→RL¶ -
从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
-
classmethod
读
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一个MLReader这个类的实例。
-
保存
( 路径:str )→没有¶ -
这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
-
集
( 参数:pyspark.ml.param.Param,价值:任何 )→没有¶ -
设置一个参数嵌入参数映射。
-
setDstCol
( 价值:str )→pyspark.ml.clustering.PowerIterationClustering ¶ -
设置的值
dstCol
。
-
setInitMode
( 价值:str )→pyspark.ml.clustering.PowerIterationClustering ¶ -
设置的值
initMode
。
-
setK
( 价值:int )→pyspark.ml.clustering.PowerIterationClustering ¶ -
设置的值
k
。
-
setMaxIter
( 价值:int )→pyspark.ml.clustering.PowerIterationClustering ¶ -
设置的值
麦克斯特
。
-
setparam
( 自我,\ *,k = 2,麦克斯特= 20,initMode = "随机",srcCol = " src ",dstCol = " dst ",weightCol =没有 ) ¶ -
PowerIterationClustering设置参数。
-
setSrcCol
( 价值:str )→pyspark.ml.clustering.PowerIterationClustering ¶ -
设置的值
srcCol
。
-
setWeightCol
( 价值:str )→pyspark.ml.clustering.PowerIterationClustering ¶ -
设置的值
weightCol
。
-
写
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一个MLWriter实例毫升实例。
属性的文档
-
dstCol
=参数(父母=‘定义’,name = ' dstCol ', doc =的名字输入列的目的地顶点id”。) ¶
-
initMode
=参数(父母=‘定义’,name = ' initMode ', doc = "初始化算法。这可以是“随机”使用一个随机向量作为顶点属性,或“学位”使用规范化的和与其他顶点相似之处。支持选择:“随机”和“学位”。”) ¶
-
k
=参数(父母=‘定义’,名字=“k”,医生= '创建集群的数量。必须> 1。) ¶
-
麦克斯特
=参数(父母=‘定义’,name =“麦克斯特”,医生=“马克斯(> = 0)的迭代次数。) ¶
-
参数个数
¶ -
返回所有参数命令的名字。默认实现使用
dir ()
所有的属性类型参数
。
-
srcCol
=参数(父母=‘定义’,name = ' srcCol ', doc =的名字输入列的源点id。”) ¶
-
weightCol
=参数(父母=‘定义’,name = ' weightCol ', doc = '体重列名。如果这不是设置或空,我们对所有实例权重为1.0。”) ¶
-