sparkshell-如何避免消除堆栈跟踪(异常)



我正试图从spark shell运行我的scala文件。这个文件调用了一些其他已经加载到spark上下文中的jar文件

问题是,如果某个东西失败了,它只会打印堆栈的一部分。有什么办法我可以启用整个堆叠竞赛吗?

myclassn: ClassifyFields : queryDb -> Problems extracting from DB
at myclass.queryDb(ClassifyFields.java:231)
at myclass.getColumnsWithKeys(ClassifyFields.java:258)
... 78 elided

将以下值设置为零。

vals.isettings.maxPrintString=0

如下面的示例

scala> :power
Power mode enabled. :phase is at typer.
import scala.tools.nsc._, intp.global._, definitions._
Try :help or completions for vals._ and power._
scala> vals.isettings.maxPrintString
res0: Int = 800
scala> vals.isettings.maxPrintString=0
vals.isettings.maxPrintString: Int = 0
scala> vals.isettings.maxPrintString
res1: Int = 0

或在异常发生后使用以下

lastException.printStackTrace

最新更新