在pyspark中使用col函数查看所有列

  • 本文关键字:函数 col pyspark sql pyspark
  • 更新时间 :
  • 英文 :


我有一个多列的数据框架,但当我试图迭代这些列使用col函数它抛出一个错误

input: df.columns
output: ['Serial No.',
'GRE Score',
'TOEFL Score',
'University Rating',
'SOP',
'LOR ',
'CGPA',
'Research',
'Chance of Admit ']

我得到这些列的名称,但我需要对这些列进行一些更改,我试图遍历它们

使用一个普通的for循环

df = ...
for c in df.columns:
df = df.withColumn(c + '__new', F.col(c) + 1)

最新更新