BinaryClassificationEvaluator¶
-
类
pyspark.ml.evaluation。
BinaryClassificationEvaluator
( *,rawPredictionCol:str=“rawPrediction”,labelCol:str=“标签”,metricName:BinaryClassificationEvaluatorMetricType=“areaUnderROC”,weightCol:可选(str]=没有一个,numBins:int=1000年 ) ¶ -
二进制分类评估者,预计rawPrediction输入列,列标签和一个可选的重量。rawPrediction列可以双型(二进制预测0/1,或标签的概率1)或者类型的向量(矢量长度为2的原始预测,分数,或标签概率)。
例子
> > >从pyspark.ml.linalg进口向量> > >scoreAndLabels=地图(λx:(向量。密集的([1.0- - - - - -x(0),x(0]]),x(1]),…((0.1,0.0),(0.1,1.0),(0.4,0.0),(0.6,0.0),(0.6,1.0),(0.6,1.0),(0.8,1.0)))> > >数据集=火花。createDataFrame(scoreAndLabels,(“原始”,“标签”])…> > >评估者=BinaryClassificationEvaluator()> > >评估者。setRawPredictionCol(“原始”)BinaryClassificationEvaluator……> > >评估者。评估(数据集)0.70……> > >评估者。评估(数据集,{评估者。metricName:“areaUnderPR”})0.83……> > >bce_path=temp_path+公元前“/”> > >评估者。保存(bce_path)> > >evaluator2=BinaryClassificationEvaluator。负载(bce_path)> > >str(evaluator2。getRawPredictionCol())“生”> > >scoreAndLabelsAndWeight=地图(λx:(向量。密集的([1.0- - - - - -x(0),x(0]]),x(1),x(2]),…((0.1,0.0,1.0),(0.1,1.0,0.9),(0.4,0.0,0.7),(0.6,0.0,0.9),…(0.6,1.0,1.0),(0.6,1.0,0.3),(0.8,1.0,1.0)))> > >数据集=火花。createDataFrame(scoreAndLabelsAndWeight,(“原始”,“标签”,“重量”])…> > >评估者=BinaryClassificationEvaluator(rawPredictionCol=“原始”,weightCol=“重量”)> > >评估者。评估(数据集)0.70……> > >评估者。评估(数据集,{评估者。metricName:“areaUnderPR”})0.82……> > >评估者。getNumBins()1000年
方法
清晰的
(参数)清除参数映射的参数是否被显式地设置。
复制
((额外的))创建这个实例的副本具有相同uid和一些额外的参数。
评估
(数据集[params))评估可选参数的输出。
explainParam
(参数)解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
返回文档的所有参数选择默认值和用户提供的值。
extractParamMap
((额外的))提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
得到的价值labelCol或其默认值。
得到的价值metricName或其默认值。
得到的价值numBins或其默认值。
getOrDefault
(参数)得到参数的值在用户提供的参数映射或其默认值。
getParam
(paramName)通过它的名称参数。
得到的价值rawPredictionCol或其默认值。
得到的价值weightCol或其默认值。
hasDefault
(参数)检查是否一个参数有默认值。
hasParam
(paramName)测试这个实例包含一个参数是否与给定名称(字符串)。
isDefined
(参数)检查参数是否由用户或显式地设置一个默认值。
指示是否返回的度量
evaluate ()
应该最大化(真的,默认情况下)或最小化(假)。收取
(参数)检查参数是否由用户显式地设置。
负载
(路径)从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
读
()返回一个MLReader这个类的实例。
保存
(路径)这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
集
(参数值)设置一个参数嵌入参数映射。
setLabelCol
(值)设置的值
labelCol
。设置的值
metricName
。setNumBins
(值)设置的值
numBins
。setparam
(自我\ * (rawPredictionCol,…))设置参数为二进制分类评估者。
设置的值
rawPredictionCol
。setWeightCol
(值)设置的值
weightCol
。写
()返回一个MLWriter实例毫升实例。
属性
返回所有参数命令的名字。
方法的文档
-
清晰的
( 参数:pyspark.ml.param.Param )→没有¶ -
清除参数映射的参数是否被显式地设置。
-
复制
( 额外的:可选(ParamMap]=没有一个 )→摩根大通¶ -
创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 参数
-
- 额外的 东西,可选
-
额外参数复制到新实例
- 返回
-
-
JavaParams
-
这个实例的副本
-
-
评估
( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:可选(ParamMap]=没有一个 )→浮动¶ -
评估可选参数的输出。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
一个数据集,其中包含标签/观察和预测
- 参数个数 东西,可选
-
一个可选的参数覆盖嵌入参数的地图
-
数据集
- 返回
-
- 浮动
-
度规
-
explainParam
( 参数:联盟(str,pyspark.ml.param.Param] )→str¶ -
解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
-
explainParams
( )→str¶ -
返回文档的所有参数选择默认值和用户提供的值。
-
extractParamMap
( 额外的:可选(ParamMap]=没有一个 )→ParamMap¶ -
提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
- 参数
-
- 额外的 东西,可选
-
额外的参数值
- 返回
-
- dict
-
合并后的参数映射
-
getLabelCol
( )→str¶ -
得到的价值labelCol或其默认值。
-
getMetricName
( )→str¶ -
得到的价值metricName或其默认值。
-
getNumBins
( )→int¶ -
得到的价值numBins或其默认值。
-
getOrDefault
( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T] ¶ -
得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通过它的名称参数。
-
getRawPredictionCol
( )→str¶ -
得到的价值rawPredictionCol或其默认值。
-
getWeightCol
( )→str¶ -
得到的价值weightCol或其默认值。
-
hasDefault
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查是否一个参数有默认值。
-
hasParam
( paramName:str )→bool¶ -
测试这个实例包含一个参数是否与给定名称(字符串)。
-
isDefined
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户或显式地设置一个默认值。
-
isLargerBetter
( )→bool¶ -
指示是否返回的度量
evaluate ()
应该最大化(真的,默认情况下)或最小化(假)。给定的评估者可以支持多个指标可能最大化或最小化。
-
收取
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户显式地设置。
-
classmethod
负载
( 路径:str )→RL¶ -
从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
-
classmethod
读
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一个MLReader这个类的实例。
-
保存
( 路径:str )→没有¶ -
这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
-
集
( 参数:pyspark.ml.param.Param,价值:任何 )→没有¶ -
设置一个参数嵌入参数映射。
-
setLabelCol
( 价值:str )→pyspark.ml.evaluation.BinaryClassificationEvaluator ¶ -
设置的值
labelCol
。
-
setMetricName
( 价值:BinaryClassificationEvaluatorMetricType )→BinaryClassificationEvaluator¶ -
设置的值
metricName
。
-
setNumBins
( 价值:int )→pyspark.ml.evaluation.BinaryClassificationEvaluator ¶ -
设置的值
numBins
。
-
setparam
( 自我,\ *,rawPredictionCol = " rawPrediction ",labelCol = "标签",metricName = " areaUnderROC ",weightCol =没有,numBins = 1000 ) ¶ -
设置参数为二进制分类评估者。
-
setRawPredictionCol
( 价值:str )→pyspark.ml.evaluation.BinaryClassificationEvaluator ¶ -
设置的值
rawPredictionCol
。
-
setWeightCol
( 价值:str )→pyspark.ml.evaluation.BinaryClassificationEvaluator ¶ -
设置的值
weightCol
。
-
写
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一个MLWriter实例毫升实例。
属性的文档
-
labelCol
=参数(父母=‘定义’,name = ' labelCol ', doc =“标签列名。”) ¶
-
metricName
:pyspark.ml.param.Param BinaryClassificationEvaluatorMetricType =参数(父母=‘定义’,name = ' metricName ', doc =”在评价指标的名字(areaUnderROC | areaUnderPR)”) ¶
-
numBins
:pyspark.ml.param.Param (int) =参数(父母=‘定义’,name = ' numBins ', doc = '数量的垃圾箱down-sample曲线(ROC曲线,公关曲线)的面积计算。如果为0,则不会出现采样下来。必须> = 0”。) ¶
-
参数个数
¶ -
返回所有参数命令的名字。默认实现使用
dir ()
所有的属性类型参数
。
-
rawPredictionCol
=参数(父母=‘定义’,name = ' rawPredictionCol ', doc =“原始预测(又名信心)列名”。) ¶
-
weightCol
=参数(父母=‘定义’,name = ' weightCol ', doc = '体重列名。如果这不是设置或空,我们对所有实例权重为1.0。”) ¶
-