我按照此处的说明设置了一个 EMR 集群和一个 SageMaker 笔记本。直到最后一步我才有任何错误。
当我在 Sagemaker 中打开新的笔记本时,我收到以下消息:
The kernel appears to have died. It will restart automatically.
然后:
The kernel has died, and the automatic restart has failed.
It is possible the kernel cannot be restarted.
If you are not able to restart the kernel, you will still be able to save the
notebook, but running code will no longer work until the notebook is reopened.
这只发生在我使用 pyspark/Sparkmagic 内核时。使用 Conda 内核或任何其他内核打开的笔记本工作正常。
我的 EMR 集群完全按照说明中设置,并添加了一条规则:
[
{
"Classification": "spark",
"Properties": {
"maximizeResourceAllocation": "true"
}
}
]
我将不胜感激任何关于为什么会发生这种情况以及如何调试/修复的指示。
PS:我过去成功地做到了这一点,没有任何问题。当我今天尝试重新执行此操作时,我遇到了这个问题。我尝试重新创建 EMR 集群和 Sagemaker 笔记本,但这没有帮助。
感谢您使用 Amazon SageMaker。
这里的问题是 Pandas 0.23.0 更改了名为 DataError 的核心类的位置,并且 SparkMagic 尚未更新为需要来自正确命名空间的 DataError。
此问题的解决方法是降级 SageMaker 笔记本实例中的 Pandas 版本,其中包含pip install pandas==0.22.0
。
您可以在此开放 github 问题 https://github.com/jupyter-incubator/sparkmagic/issues/458 中获取更多信息。
让我们知道是否有任何其他方式可以提供帮助。
谢谢,
尼拉姆