从DBFS装载到Azure Data Lake创建新表



我在Azure Data Lake上有一个安装到Azure Data Bricks集群的目录。使用CLI工具浏览文件系统,或者只是通过笔记本电脑运行dbfs-utils,我可以看到该目录中有文件和数据。进一步——对这些文件执行查询是成功的,数据被成功地读入和写入。

我还可以成功地浏览到装载的根目录('/mnt',因为这里的文档就是这样使用的:https://docs.databricks.com/spark/latest/data-sources/azure/azure-datalake.html)在"创建新表"UI中(通过数据->添加表->DBFS(。

但是,该根目录下没有列出任何子目录。

这是DBFS的一个怪癖吗?UI的怪癖?或者我需要重新配置一些东西,以允许我通过该UI添加表?

数据UI目前不支持挂载,它只适用于内部DBFS。因此,目前没有配置选项。如果您想使用此UI进行数据上传(而不是存储资源管理器(,唯一的解决方案是在之后通过dbutils.fs.mv将数据从内部DBFS移动到装载目录。

最新更新