我正在使用 spark-submit 选项提交 Pyspark/SparkSQL 脚本,我需要将运行时变量(数据库名称(传递给脚本
火花提交命令:
spark-submit --conf database_parameter=my_database my_pyspark_script.py
Pyspark 脚本
database_parameter = SparkContext.getConf().get("database_parameter")
DF = sqlContext.sql("SELECT count(*) FROM database_parameter.table_name")
Spark版本是:1.5.2
Python版本是:2.7.5
我正在尝试的解决方案不起作用。 错误是:属性错误:类型对象"SparkConf"没有属性"getConf"。
我正在寻找一种方法来传递运行时变量,同时通过 spark-submit 调用脚本并在脚本中使用这些变量。
您可以使用通常的sys.argv
args.py
#!/usr/bin/python
import sys
print sys.argv[1]
然后你spark-submit
它:
spark-submit args.py my_database
这将打印:
my_database