Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[Dev] prometheus target 정상화 (feat. dashboard 확인) #33

Closed
intelliguy opened this issue Feb 11, 2022 · 20 comments
Closed

[Dev] prometheus target 정상화 (feat. dashboard 확인) #33

intelliguy opened this issue Feb 11, 2022 · 20 comments
Assignees
Labels
type: lma feature related to lma management

Comments

@intelliguy
Copy link

intelliguy commented Feb 11, 2022

Describe the Story

  • aws 위에 구축된 tks 사용자 클러스터의 모니터링 대시보드 중 몇몇에 데이터가 올라오지 않는 상황이 발생되고 있음
  • 원인을 파악하고 전체적으로 수집데이터 및 이를 조회하는 파이프라인을 전반적으로 체크하고 필요한 개발을 추가한다.
  • 설정되어 있는 전체 데이터를 대상으로 수집부터 조회까지를 확인한다. (service monitor기준)

범위 외

  • 개별 메트릭에 대한 검증은 포함하지 않는다.

아래 티켓을 진행하면서 내용을 부분(etcd) 에서 모니터링 전체로 확장하여 진행하는 것임


예전 내역
ETCD 관련 대시보드 정상화
etcd 대시보드 안나오는 현상이 발생하고 있음
etcd export -> prometheus -> grafana의 흐름에 따른 문제 파악 및 해결
구체적으로 다음 내역을 포함: 수집기 설정 및 동작확인, 매트릭 수집확인, grafana의 dashboard의 동작확인 (2개의 대시보드가 포함되어 있음, 종합/etcd 전용)

Acceptance criteria (Validation Scenario)

- [ ] This is something that can be verified to show that this story is satisfied.
- [ ] This should have information for QA to validate this story.

Additional information (Optional)

@intelliguy intelliguy self-assigned this Feb 11, 2022
@intelliguy
Copy link
Author

intelliguy commented Mar 2, 2022

etcd관련하여 prometheus scape관련 다른부분도 함께 보기시작했고 몇몇 수집하지 못하는 컴포넌트들 확인

  • etcd exporter
  • process exporter
  • node exporter
  • kube-proxy
exporter port memo.
etcd 2379 master node
proxy 10249 all
node 9100 all
process 9256 all

이에 수동으로 node간 security group에 모든 TCP 포트개방 후

  • kube-proxy 외 모두 정상동작 확인

느낌같은 느낌으로는.... listening port의 bind가 잘못 지정된듯함

@intelliguy
Copy link
Author

intelliguy commented Mar 2, 2022

kubeproxy는 pod로 kube-system에 띄워져있고 수집관련 내역은 정상적으로 잘 연동된 상황 (아래는 수집방법)

pod의 상태는

tcp        0      0 127.0.0.1:10249         0.0.0.0:*               LISTEN   

설정은 kube-system에 configmap의 kube-proxy에 "metricsBindAddress: ''" 로 설정되어 있어 "metricsBindAddress: 0.0.0.0"로 바꿔주고 해소됨
아래는 변경전과 후�의 포트상황

root@ip-10-0-226-35:/etc# netstat -an | grep 10249
tcp        0      0 127.0.0.1:10249         0.0.0.0:*               LISTEN     
root@ip-10-0-226-35:/etc# netstat -an | grep 10249
tcp6       0      0 :::10249                :::*                    LISTEN     

관련 명세 (https://kubernetes.io/ko/docs/reference/command-line-tools-reference/kube-proxy/)

--metrics-bind-address ipport     기본값: 127.0.0.1:10249
메트릭 서버가 서비스할 포트가 있는 IP 주소(모든 IPv4 인터페이스의 경우 '0.0.0.0:10249', 모든 IPv6 인터페이스의 경우 '[::]:10249'로 설정됨). 사용하지 않으려면 비워둘 것.

해당pod의 실행문은

/usr/local/bin/kube-proxy --config=/var/lib/kube-proxy/config.conf --hostname-override=$(NODE_NAME)

@intelliguy
Copy link
Author

intelliguy commented Mar 2, 2022

security group으로 한정해도 모든 포트를 열면 자꾸 삭제하는 뭔가가 있음... -> cluster api가 자신이 만든것 외에는 모두 원복시키는 듯
따라서 개별적으로 위 4개 포트를 개방 후 확인완료.

본 작업의 세부내역은 다음 두가지가 진행되어야 함

  • kube-proxy 설정 변경 -> configmap에서 metricbind 부분 설정
  • security group에 필요한 inbound 설정

@intelliguy
Copy link
Author

intelliguy commented Mar 4, 2022

워커노드간 통신가능토록 하는 방법

security group을 만들고 AWSMachine과 AWSMachineTemplate의 spec에 그 id를 등록하면 가능

spec:
  template:
    spec:
      additionalSecurityGroups:
        - id: <existing_security_group_id>
spec:
  additionalSecurityGroups:
    - id: <existing_security_group_id>

https://blog.scottlowe.org/2020/04/22/using-existing-aws-security-groups-with-cluster-api/

@intelliguy
Copy link
Author

티켓명과 내용을 확장하여 다음 스프린트에 이어서 작업하겠습니다.

[Dev] ETCD 관련 대시보드 정상화 => prometheus target 정상화 (feat. dashboard 확인)

@intelliguy intelliguy changed the title [Dev] ETCD 관련 대시보드 정상화 [Dev] prometheus target 정상화 (feat. dashboard 확인) Mar 7, 2022
@intelliguy
Copy link
Author

@bluejayA bluejayA added type: lma feature related to lma management and removed In Sprint labels Mar 13, 2022
@intelliguy
Copy link
Author

intelliguy commented Mar 16, 2022

앞에서 찾은 방법에 따르면 additionalSecurityGroups: 위치를 채워줘야 하는데 추후 수정은 불가 (Immutable)

error: awsmachinetemplates.infrastructure.cluster.x-k8s.io "siim-adm-sp-md-normal-2" could not be patched: admission webhook "validation.awsmachinetemplate.infrastructure.x-k8s.io" denied the request: AWSMachineTemplate.Spec is immutable

따라서 클러스터를 만들기전에 넣어줘야하는데 우리는 VPC를 따로 만들지 않기 때문에 이것도 사실상 불가

남은 방법은

  1. VPC를 미리 만드는 것으로 한다. -> 대대적인 수정 불가피
  2. 방법을 가이드한다.

또 다른 뭔가가 있을까?

@intelliguy
Copy link
Author

intelliguy commented Mar 16, 2022

추가로 awscluster의 cr의 network부분에 ingress 설정을 할 수 있는데 여기 설정시 권한 문제로 동작불가.

E0315 05:20:24.924791       1 awscluster_controller.go:229] controller/awscluster "msg"="failed to reconcile security groups" "error"="failed to authorize security group \"sg-0624bc88093565a34\" ingress rules: [{etcd-exporter (prometheus) tcp 2379 2379 [] [sg-0624bc88093565a34 sg-034df0f590af6b62a]} {kube-proxy-exporter (prometheus) tcp 10249 10249 [] [sg-0624bc88093565a34 sg-034df0f590af6b62a]} {node-exporter (prometheus) tcp 9100 9100 [] [sg-0624bc88093565a34 sg-034df0f590af6b62a]} {process-exporter (prometheus) tcp 9256 9256 [] [sg-0624bc88093565a34 sg-034df0f590af6b62a]} {SSH tcp 22 22 [] [sg-0b2bbe9f03c6dedd7]} {Kubernetes API tcp 6443 6443 [] [sg-07ec6375fa6c4f0b5 sg-0624bc88093565a34 sg-034df0f590af6b62a]} {etcd tcp 2379 2379 [] [sg-0624bc88093565a34]} {etcd peer tcp 2380 2380 [] [sg-0624bc88093565a34]}]: InvalidParameterValue: The same permission must not appear multiple times\n\tstatus code: 400, request id: dfa78590-df86-426f-a05e-2542fe765f94" "cluster"="siim-test" "name"="siim-test" "namespace"="aws" "reconciler group"="infrastructure.cluster.x-k8s.io" "reconciler kind"="AWSCluster" 
E0315 05:20:25.054063       1 controller.go:317] controller/awscluster "msg"="Reconciler error" "error"="failed to authorize security group \"sg-0624bc88093565a34\" ingress rules: [{etcd-exporter (prometheus) tcp 2379 2379 [] [sg-0624bc88093565a34 sg-034df0f590af6b62a]} {kube-proxy-exporter (prometheus) tcp 10249 10249 [] [sg-0624bc88093565a34 sg-034df0f590af6b62a]} {node-exporter (prometheus) tcp 9100 9100 [] [sg-0624bc88093565a34 sg-034df0f590af6b62a]} {process-exporter (prometheus) tcp 9256 9256 [] [sg-0624bc88093565a34 sg-034df0f590af6b62a]} {SSH tcp 22 22 [] [sg-0b2bbe9f03c6dedd7]} {Kubernetes API tcp 6443 6443 [] [sg-07ec6375fa6c4f0b5 sg-0624bc88093565a34 sg-034df0f590af6b62a]} {etcd tcp 2379 2379 [] [sg-0624bc88093565a34]} {etcd peer tcp 2380 2380 [] [sg-0624bc88093565a34]}]: InvalidParameterValue: The same permission must not appear multiple times\n\tstatus code: 400, request id: dfa78590-df86-426f-a05e-2542fe765f94" "name"="siim-test" "namespace"="aws" "reconciler group"="infrastructure.cluster.x-k8s.io" "reconciler kind"="AWSCluster" 
I0315 05:20:25.055372       1 awscluster_controller.go:202] controller/awscluster "msg"="Reconciling AWSCluster" "cluster"="siim-test" "name"="siim-test" "namespace"="aws" "reconciler group"="infrastructure.cluster.x-k8s.io" "reconciler kind"="AWSCluster" 
I0315 05:20:25.254247       1 subnets.go:47] controller/awscluster "msg"="Reconciling subnets" "cluster"="siim-test" "name"="siim-test" "namespace"="aws" "reconciler group"="infrastructure.cluster.x-k8s.io" "reconciler kind"="AWSCluster" 

해당입력부분

spec:                                                                                                                                                                                                                                                                                                                                                                                                                                       
  bastion:                                                                                                                                                                                                                                                                                                                                                                                                                                  
    allowedCIDRBlocks:                                                                                                                                                                                                                                                                                                                                                                                                                      
    - 0.0.0.0/0                                                                                                                                                                                                                                                                                                                                                                                                                             
    enabled: false                                                                                                                                                                                                                                                                                                                                                                                                                          
  controlPlaneEndpoint:                                                                                                                                                                                                                                                                                                                                                                                                                     
    host: ""                                                                                                                                                                                                                                                                                                                                                                                                                                
    port: 0                                                                                                                                                                                                                                                                                                                                                                                                                                 
  controlPlaneLoadBalancer:                                                                                                                                                                                                                                                                                                                                                                                                                 
    crossZoneLoadBalancing: false                                                                                                                                                                                                                                                                                                                                                                                                           
    scheme: internet-facing                                                                                                                                                                                                                                                                                                                                                                                                                 
  identityRef:                                                                                                                                                                                                                                                                                                                                                                                                                              
    kind: AWSClusterControllerIdentity                                                                                                                                                                                                                                                                                                                                                                                                      
    name: default                                                                                                                                                                                                                                                                                                                                                                                                                           
  network:                                                                                                                                                                                                                                                                                                                                                                                                                                  
    cni:                                                                                                                                                                                                                                                                                                                                                                                                                                    
      cniIngressRules:                                                                                                                                                                                                                                                                                                                                                                                                                      
      - description: bgp (calico)                                                                                                                                                                                                                                                                                                                                                                                                           
        fromPort: 179                                                                                                                                                                                                                                                                                                                                                                                                                       
        protocol: tcp                                                                                                                                                                                                                                                                                                                                                                                                                       
        toPort: 179                                                                                                                                                                                                                                                                                                                                                                                                                         
      - description: IP-in-IP (calico)                                                                                                                                                                                                                                                                                                                                                                                                      
        fromPort: -1                                                                                                                                                                                                                                                                                                                                                                                                                        
        protocol: "4"                                                                                                                                                                                                                                                                                                                                                                                                                       
        toPort: 65535                                                                                                                                                                                                                                                                                                                                                                                                                       
      - description: etcd-exporter (prometheus)                                                                                                                                                                                                                                                                                                                                                                                             
        fromPort: 2379                                                                                                                                                                                                                                                                                                                                                                                                                      
        protocol: tcp                                                                                                                                                                                                                                                                                                                                                                                                                       
        toPort: 2379                                                                                                                                                                                                                                                                                                                                                                                                                        
      - description: kube-proxy-exporter (prometheus)                                                                                                                                                                                                                                                                                                                                                                                       
        fromPort: 10249                                                                                                                                                                                                                                                                                                                                                                                                                     
        protocol: tcp                                                                                                                                                                                                                                                                                                                                                                                                                       
        toPort: 10249                                                                                                                                                                                                                                                                                                                                                                                                                       
      - description: node-exporter (prometheus)                                                                                                                                                                                                                                                                                                                                                                                             
        fromPort: 9100                                                                                                                                                                                                                                                                                                                                                                                                                      
        protocol: tcp                                                                                                                                                                                                                                                                                                                                                                                                                       
        toPort: 9100                                                                                                                                                                                                                                                                                                                                                                                                                        
      - description: process-exporter (prometheus)                                                                                                                                                                                                                                                                                                                                                                                          
        fromPort: 9256                                                                                                                                                                                                                                                                                                                                                                                                                      
        protocol: tcp                                                                                                                                                                                                                                                                                                                                                                                                                       
        toPort: 9256          

@intelliguy
Copy link
Author

intelliguy commented Mar 16, 2022

작성중.. 메뉴얼

TACO LMA 구축 후 수행해줘야 하는 일들

TACO LMA를 구축하고 나면 기본적인 모니터링 파이프라인이 완성적으로 설치된다. 다만 aws에서 네트워크간 통신이 안되는 문제가 있으므로 모든 데이터 수집을 위해서는 다음과 같은 작업이 필요하다.

노드간 통신 설정하기

TACO의 모니터링기능에서 노드간 통신을 통해 데이터를 수집하는 영역이 다음과 같다.

exporter port 통신범위.
etcd 2379 master node
proxy 10249 all
node 9100 all
process 9256 all

위 범위로 지정된 노도들끼리 해당 포트들에 접근 가능하도록 설정한다. security group을 만들고 모두 넣어줄 수 있다.

(개발 옵션1 - security group 생성)

이를 위해 해당 vpc내에 taco-internal이라는 보안그룹이 설정되어 있는데 이를 각 인스턴스에 등록해 준다.

(개발없이)

각 포트가 통신할수 있도록 알아서 해라.

@bluejayA
Copy link
Contributor

위에 구축후 security group생성을 crossplane으로 수행할 수 없나요?

@intelliguy
Copy link
Author

intelliguy commented Mar 16, 2022

  • 만드는것 : 가능
  • 기존 instance에 붙이는 것 : 찾아서 해봐야 ->
  • 인스턴스가 변경되는것까지 fallow하는 것 : 매우큰 시스템으로 확장 -> 이부분 때문에 위에 제시한 additionalSecurityGroups: 에 넣는 방법을 쓰려고 한 것이구요

@bluejayA
Copy link
Contributor

찾아보니 custom security group을 넣는게 쉬운 이슈가 아니군요. kubernetes-sigs/cluster-api-provider-aws#392

security group을 만들어 놓고, aws api로 기존 인스턴스에 붙이는 건 가능할 것은 같으나.. 뭔가 땜빵같고.
뭔가 우리가 미리 만든 필요한 custom sg들을 aws api (sdk)를 써서 인스턴스에 붙이는 workflow를 만드는게 가능은 하나 싶고.

아니면, https://github.com/kubernetes-sigs/cluster-api-provider-aws/tree/main/pkg/cloud/services/securitygroup 를 우리가 고쳐서 직집 빌드해서 쓰는 방법은 너무 나가는걸까요?

그냥 생각 나는데로 적어 보았습니다.

@seungkyua
Copy link

seungkyua commented Mar 17, 2022

exporter 를 NodePort 대역으로 사용하는 방법이 있을런지요. nodeexporter 의 경우 host network 을 사용하는데 띄울 때 아예 포트를 32001 번 식으로 지정가능 하면요. 물론 이 방법은 나중에 다른 Service 가 NodePort 를 사용할 때 중복될 확률이 존재할 수 있다는 문제가 있지만요.

@intelliguy
Copy link
Author

중복문제는 먼저 선점하면 되니 상관없어 보이지만 노드포트 뒷단에 연결되는 것이 서비스 개체이라서 효용성이 없어 보입니다.
exporter에 대한 접근문제는 호스트 네트워크에 뜨는 파드들을 개별로 접근해야하는데
node port로는 접근할수가 없습니다.

@bluejayA
Copy link
Contributor

중복문제는 먼저 선점하면 되니 상관없어 보이지만 노드포트 뒷단에 연결되는 것이 서비스 개체이라서 효용성이 없어 보입니다. exporter에 대한 접근문제는 호스트 네트워크에 뜨는 파드들을 개별로 접근해야하는데 node port로는 접근할수가 없습니다.

node exporter는 chart에 hostnetwork disable 가능하던데, 그러면 어떻게 되는걸까요?

@intelliguy
Copy link
Author

clusternetwork에 띄우겠지요. 그러면 개별 클러스터ip를 찾아서 접근해야 할텐데.. 어떻게 하는지는 모르겠네요

@seungkyua
Copy link

exporter 의 svc 에 Port 가 현재 9100 번인데, Port 와 NodePort 전부 바꾸는 방법이요.

@intelliguy
Copy link
Author

intelliguy commented Mar 17, 2022

process exporter (9256)

node exporter (9100)

service:
  type: ClusterIP
  port: 9100
  targetPort: 9100

etcd (2379)

proxy (10249)

@intelliguy
Copy link
Author

intelliguy commented Mar 19, 2022

(etcd) kubeadm을 통한 포트변경은 불가

  • 같은 이유(수정불가)로 etcd 지원을 위한 security group 생성 및 등록하는 방향으로 선회
  • 다행히, etcd는 master node에만 배치되고 이에 대한 변경은 work node보다는 훨씬 적음 (장애나 마스터 확장등에만)

kubeadm 을 통한 etcd 수정관련 extraArgs관련 수정참조

https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/setup-ha-etcd-with-kubeadm/#setting-up-the-cluster
https://etcd.io/docs/v2.3/configuration/#--listen-client-urls

------------------ 아래는 읽지 않아도 무방, 필요하면 하단에 댓글로 정리애서 달것--------------------
설정을 확인하고 정상적으로 넣어줘도 문제가 발생했고, capi를 로그조차 남기지 않음

현상을 정리하면

  • helm을 통한 클러스터 배포
    • 이때 awscluster cr의 kubeadmconfig 부분의 etcd 설정에 포트를 변경하여 적용
  • EC2에는 첫번째 controlplane의 노드가 생성되며 (initializing이 너무 길게 걸리는 것은 우연인가 느낌인가 사실인가?)
  • 결국 위 노드 하나만 running까지 올라오고 아무 반응없음 (몇시간 대기해봄)
    • kubeconfig를 통해 접근하면 lb에 접근못한다고함

따라서 만들어진 VM을 조사해봄
pod는 두개만 떠있음

root@ip-10-0-76-149:~# crictl ps -a
CONTAINER           IMAGE               CREATED             STATE               NAME                      ATTEMPT             POD ID
2253e00ef29ed       8a5cc299272d9       23 seconds ago      Exited              kube-apiserver            5                   a649423b54576
07b0332bbc905       0048118155842       2 minutes ago       Exited              etcd                      5                   67771d72b688e
508deffb96afa       0ce02f92d3e43       5 minutes ago       Running             kube-controller-manager   0                   b91aa7f7c3795
1a0d12d7cfb03       721ba97f54a65       5 minutes ago       Running             kube-scheduler            0                   2d9efef11d36a

syslog 패턴

  • 지속적으로 자신을 못찾고 있음

    Mar 19 03:27:28 ip-10-0-111-69 kubelet[1520]: E0319 03:27:28.802423    1520 kubelet.go:2412] "Error getting node" err="node \"ip-10-0-111-69.ap-northeast-2.compute.internal\" not found"
  • 아래 내역을 보면 etc에도 시도하는 것으로 보임 (없으니 에러 상태)

    Mar 19 03:27:40 ip-10-0-111-69 kubelet[1520]: E0319 03:27:40.737228    1520 event.go:273] Unable to write event: '&v1.Event{TypeMeta:v1.TypeMeta{Kind:"", APIVersion:""}, ObjectMeta:v1.ObjectMeta{Name:"ip-10-0-111-69.ap-northeast-2.compute.internal.16dda7cf8d0d8216", GenerateName:"", Namespace:"default", SelfLink:"", UID:"", ResourceVersion:"", Generation:0, CreationTimestamp:v1.Time{Time:time.Time{wall:0x0, ext:0, loc:(*time.Location)(nil)}}, DeletionTimestamp:(*v1.Time)(nil), DeletionGracePeriodSeconds:(*int64)(nil), Labels:map[string]string(nil), Annotations:map[string]string(nil), OwnerReferences:[]v1.OwnerReference(nil), Finalizers:[]string(nil), ClusterName:"", ManagedFields:[]v1.ManagedFieldsEntry(nil)}, InvolvedObject:v1.ObjectReference{Kind:"Node", Namespace:"", Name:"ip-10-0-111-69.ap-northeast-2.compute.internal", UID:"ip-10-0-111-69.ap-northeast-2.compute.internal", APIVersion:"", ResourceVersion:"", FieldPath:""}, Reason:"NodeHasSufficientMemory", Message:"Node ip-10-0-111-69.ap-northeast-2.compute.internal status is now: NodeHasSufficientMemory", Source:v1.EventSource{Component:"kubelet", Host:"ip-10-0-111-69.ap-northeast-2.compute.internal"}, FirstTimestamp:v1.Time{Time:time.Time{wall:0xc0856e7321058a16, ext:6139425698, loc:(*time.Location)(0x77ab6e0)}}, LastTimestamp:v1.Time{Time:time.Time{wall:0xc0856e732c3cf1cf, ext:6327606104, loc:(*time.Location)(0x77ab6e0)}}, Count:9, Type:"Normal", EventTime:v1.MicroTime{Time:time.Time{wall:0x0, ext:0, loc:(*time.Location)(nil)}}, Series:(*v1.EventSeries)(nil), Action:"", Related:(*v1.ObjectReference)(nil), ReportingController:"", ReportingInstance:""}': 'Patch "https://siim-test6-apiserver-646080935.ap-northeast-2.elb.amazonaws.com:6443/api/v1/namespaces/default/events/ip-10-0-111-69.ap-northeast-2.compute.internal.16dda7cf8d0d8216": EOF'(may retry after sleeping)
  • etcd 띄우다가 실패한 흔적도

    Mar 19 03:27:36 ip-10-0-111-69 kubelet[1520]: E0319 03:27:36.433488    1520 pod_workers.go:836] "Error syncing pod, skipping" err="failed to \"StartContainer\" for \"etcd\" with CrashLoopBackOff: \"back-off 5m0s restarting failed container=etcd pod=etcd-ip-10-0-111-69.ap-northeast-2.compute.internal_kube-system(c0b4bb76af39f9f0dbf742c339080a98)\"" pod="kube-system/etcd-ip-10-0-111-69.ap-northeast-2.compute.internal" podUID=c0b4bb76af39f9f0dbf742c339080a98

위 내역으로 판단해본결과, 그리고 다양한 시도를 해본 결과 kubeadm을 통해서 port를 변경하여 띄우는 것은 불가!!

root@ip-10-0-76-149:~# crictl logs 07b0332bbc905
{"level":"info","ts":"2022-03-19T05:31:34.285Z","caller":"etcdmain/etcd.go:72","msg":"Running: ","args":["etcd","--advertise-client-urls=https://$HOSTNAME:32379","--cert-file=/etc/kubernetes/pki/etcd/server.crt","--client-cert-auth=true","--data-dir=/var/lib/etcd","--initial-advertise-peer-urls=https://10.0.76.149:2380","--initial-cluster=ip-10-0-76-149.ap-northeast-2.compute.internal=https://10.0.76.149:2380","--key-file=/etc/kubernetes/pki/etcd/server.key","--listen-client-urls=https://$HOSTNAME:32379","--listen-metrics-urls=http://127.0.0.1:2381","--listen-peer-urls=https://10.0.76.149:2380","--name=ip-10-0-76-149.ap-northeast-2.compute.internal","--peer-cert-file=/etc/kubernetes/pki/etcd/peer.crt","--peer-client-cert-auth=true","--peer-key-file=/etc/kubernetes/pki/etcd/peer.key","--peer-trusted-ca-file=/etc/kubernetes/pki/etcd/ca.crt","--snapshot-count=10000","--trusted-ca-file=/etc/kubernetes/pki/etcd/ca.crt"]}
{"level":"warn","ts":"2022-03-19T05:31:34.285Z","caller":"etcdmain/etcd.go:74","msg":"failed to verify flags","error":"expected IP in URL for binding (https://$HOSTNAME:32379)"}
  • 설정하지 않은 값들은 kubeadm이 만들어진 노드의 IP를 넣어서 실행시켜주시만 override한 부분은 그대로 대입하고
  • 받아들이는 부분은 ‘http://NODE_IP:PORT’형태여야 함
  • 노드 IP를 미리 알수 없음 -끝-

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
type: lma feature related to lma management
Projects
None yet
Development

No branches or pull requests

3 participants