为什么在Apache Spark SQL中列变为可空的?



为什么在DataFrame中没有NaN值的情况下,在某些函数执行后使用nullable = true

val myDf = Seq((2,"A"),(2,"B"),(1,"C"))
         .toDF("foo","bar")
         .withColumn("foo", 'foo.cast("Int"))
myDf.withColumn("foo_2", when($"foo" === 2 , 1).otherwise(0)).select("foo", "foo_2").show

当现在调用df.printSchema时,nullable将为false

val foo: (Int => String) = (t: Int) => {
    fooMap.get(t) match {
      case Some(tt) => tt
      case None => "notFound"
    }
  }
val fooMap = Map(
    1 -> "small",
    2 -> "big"
 )
val fooUDF = udf(foo)
myDf
    .withColumn("foo", fooUDF(col("foo")))
    .withColumn("foo_2", when($"foo" === 2 , 1).otherwise(0)).select("foo", "foo_2")
    .select("foo", "foo_2")
    .printSchema

但是现在nullable至少有一列是true,而之前是false。这怎么解释呢?

当从静态类型结构(不依赖于schema参数)创建Dataset时,Spark使用一组相对简单的规则来确定nullable属性。

  • 如果给定类型的对象可以是null,那么它的DataFrame表示为nullable
  • 如果对象是Option[_],那么它的DataFrame表示为nullable, None被认为是SQL NULL
  • 在其他情况下,它将被标记为非nullable

因为Scala Stringjava.lang.String,可以是null,所以生成的列can是nullable。出于同样的原因,bar列在初始数据集中是nullable:

val data1 = Seq[(Int, String)]((2, "A"), (2, "B"), (1, "C"))
val df1 = data1.toDF("foo", "bar")
df1.schema("bar").nullable
Boolean = true

foo不是(scala.Int不能是null)。

df1.schema("foo").nullable
Boolean = false

如果我们将数据定义改为:

val data2 = Seq[(Integer, String)]((2, "A"), (2, "B"), (1, "C"))

foo将是nullable (Integerjava.lang.Integer,框整型可以是null):

data2.toDF("foo", "bar").schema("foo").nullable
Boolean = true

参见:SPARK-20668 修改ScalaUDF来处理可空性

您也可以非常快速地更改数据框架的模式。这样就可以了-

def setNullableStateForAllColumns( df: DataFrame, columnMap: Map[String, Boolean]) : DataFrame = {
    import org.apache.spark.sql.types.{StructField, StructType}
    // get schema
    val schema = df.schema
    val newSchema = StructType(schema.map {
    case StructField( c, d, n, m) =>
      StructField( c, d, columnMap.getOrElse(c, default = n), m)
    })
    // apply new schema
    df.sqlContext.createDataFrame( df.rdd, newSchema )
}

相关内容

  • 没有找到相关文章