我们正在使用地形资源创建一个 EKS 集群:aws_eks_cluster
和aws_eks_node_group
。 应用这些资源后,当我们使用kubectl
查询节点时,我们能够看到集群中具有所有自动扩展设置的节点。我们甚至可以在堡垒实例中获取此集群的kubeconfig
文件。但是,我们无法从 EKS 服务下的 AWS 控制台查看此集群。这是预期行为吗?下面是我们的代码:
resource "aws_eks_cluster" "eks_cluster" {
name = "${var.eks_cluster_name}"
role_arn = "${var.iam_role_master}"
vpc_config {
security_group_ids = ["${var.sg-eks-master}"]
subnet_ids = ["${var.subnet_private1}", "${var.subnet_private2}"]
endpoint_private_access= true
endpoint_public_access = true
public_access_cidrs = ["<ip_range>"]
}
}
resource "aws_eks_node_group" "example" {
cluster_name = "${var.eks_cluster_name}"
node_group_name = "ng-${var.eks_cluster_name}"
node_role_arn = "${var.iam_role_node}"
subnet_ids = ["${var.subnet_private1}", "${var.subnet_private2}"]
ami_type = "${var.image_id}"
instance_types = "${var.instance_type}"
scaling_config {
desired_size = 1
max_size = 4
min_size = 2
}
事实证明,这只是一个权限问题。用户没有对 EKS 集群的查看访问权限。但问题是控制台中没有显示警告/错误消息,指出这是一个角色问题。只有当我们检查用户的角色时,我们才弄清楚这一点。