我有一个测试Flink应用程序,我试图在连接到Azure存储的Azure Kubernetes上运行。在我的Flink应用程序中,我已经配置了以下配置:
Configuration cfg = new Configuration();
cfg.setString("fs.azure.account.key.<storage-account.blob.core.windows.net", "<access-key>");
FileSystem.initialize(cfg, null);
我还启用了检查点如下:
env.enableCheckpointing(10000);
env.getCheckpointConfig().enableExternalizedCheckpoints(CheckpointConfig.ExternalizedCheckpointCleanup.DELETE_ON_CANCELLATION);
env.setStateBackend(new EmbeddedRocksDBStateBackend());
env.getCheckpointConfig().setCheckpointStorage("wasbs://<container>@<storage-account>.blob.core.windows.net/checkpoint/");
存储帐户已在Azure Portal上创建。我在上面的代码中使用了Access键。
当我将应用程序部署到Kubernetes时,JobManager运行并在Azure存储容器中创建检查点文件夹,然而,Block blob数据的大小始终为0B。该应用程序还会持续抛出此异常。
我得到的有趣错误是:
Caused by: org.apache.flink.fs.shaded.hadoop3.org.apache.hadoop.fs.azure.AzureException: No credentials found for account <storage-account>.blob.core.windows.net in the configuration, and its container <container> is not accessible using anonymous credentials. Please check if the container exists first. If it is not publicly available, you have to provide account credentials.
org.apache.flink.fs.azure.shaded.com.microsoft.azure.storage.StorageException: Public access is not permitted on this storage account
让我挠头的部分(除了跳蚤)是它确实创建了检查点文件夹和文件,并继续创建更多的检查点。
此帐户不可公开访问,公司政策已限制启用公共访问。
我也试过使用link-conf。这是我的例子:
state:backend: rocksdb
state.checkpoints.dir: wasbs://<container>@<storage-account>.blob.core.windows.net/checkpoint/
fs.azure.account.key.**flinkstorage**.blob.core.windows.net: <access-key>
fs.azure.account.key.<storage-account>.blob.core.windows.net: <access-key>
我两个帐户都试了。上面的关键选项。我也尝试过洗涤协议。我还尝试在Azure存储上旋转访问键,所有这些都导致相同的错误。
通过将所有检查点配置移动到link-conf.yaml中,我最终使其工作。所有对检查点的引用都从我的代码中删除了,即StreamExecutionEnvironment。
我flink-config。Yaml看起来像这样
execution.checkpointing.interval: 10s
execution.checkpoint.mode: EXACTLY_ONCE
state.backend: rocksdb
state.checkpoints.dir: wasbs://<container>@<storage-account.blob.core.windows.net/checkpoint/
# azure storage access key
fs.azure.account.key.psbombb.blob.core.windows.net: <access-key>
检查点现在写入Azure存储,元数据文件的大小不再是0。
我将Flink集群部署到Kubernetes,并启用了Azure存储插件:
./bin/kubernetes-session.sh -Dkubernetes.cluster-id=<cluster-name> -Dkubernetes.namespace=<your-namespace> -Dcontainerized.master.env.ENABLE_BUILT_IN_PLUGINS=flink-azure-fs-hadoop-1.14.0.jar -Dcontainerized.taskmanager.env.ENABLE_BUILT_IN_PLUGINS=flink-azure-fs-hadoop-1.14.0.jar
然后将作业部署到Flink集群,如下所示:
./bin/flink run --target kubernetes-session -Dkubernetes.namespace=<your-namespace> -Dkubernetes.cluster-id=<cluster-name> ~/path/to/project/<your-jar>.jar
web上的TaskManager将不显示StdOut日志。您需要kubectl logs -f <taskmanager-pod-name> -n <your-namespace>
来查看作业日志。
如果您想看到Flink web,请记住端口转发8081:kubectl port-forward svc/<cluster-name> -n <namespace>
。http://localhost:8081
如果你正在使用Minikube,你希望通过Flink LoadBalancer外部IP访问集群,你需要运行minikube tunnel
。http://<external-ip>:8081