我对spark很陌生,想对数据框的一列执行操作,以便用.
替换列中的所有,
假设有一个数据框x和列x4
x4
1,3435
1,6566
-0,34435
我希望输出为
x4
1.3435
1.6566
-0.34435
我使用的代码是
import org.apache.spark.sql.Column
def replace = regexp_replace((x.x4,1,6566:String,1.6566:String)x.x4)
但是我得到以下错误
import org.apache.spark.sql.Column
<console>:1: error: ')' expected but '.' found.
def replace = regexp_replace((train_df.x37,0,160430299:String,0.160430299:String)train_df.x37)
任何关于语法,逻辑或任何其他合适的方式的帮助将不胜感激
这里有一个可重复的例子,假设x4
是一个字符串列。
import org.apache.spark.sql.functions.regexp_replace
val df = spark.createDataFrame(Seq(
(1, "1,3435"),
(2, "1,6566"),
(3, "-0,34435"))).toDF("Id", "x4")
语法为regexp_replace(str, pattern, replacement)
,翻译为:
df.withColumn("x4New", regexp_replace(df("x4"), "\,", ".")).show
+---+--------+--------+
| Id| x4| x4New|
+---+--------+--------+
| 1| 1,3435| 1.3435|
| 2| 1,6566| 1.6566|
| 3|-0,34435|-0.34435|
+---+--------+--------+
我们可以使用map
方法来完成这个转换:
scala> df.map(each => {
(each.getInt(0),each.getString(1).replaceAll(",", "."))
})
.toDF("Id","x4")
.show
Output:
+---+--------+
| Id| x4|
+---+--------+
| 1| 1.3435|
| 2| 1.6566|
| 3|-0.34435|
+---+--------+