pyspark.BarrierTaskContext.taskAttemptId

BarrierTaskContext。 taskAttemptId ( )→int

一个ID,这个任务是独一无二的尝试(在同一个SparkContext,没有两个任务尝试尝试将共享相同的ID)。这是大致相当于Hadoop TaskAttemptID。