section3

Manual Scheduling

모든 파드에는 기본적으로 nodeName이라는 항목이 있는데 매니페스트 파일을 만들 때 이 필드를 지정하지 않으면 쿠버네티스가 자동으로 추가한다.

scheduling_process

스케줄링 기본 프로세스는

  1. 스케줄러가 모든 파드를 확인해 nodeName 속성이 설정되지 않은 파드를 찾는다.

  2. 스케줄링 알고리즘을 실행해 해당 파드에 적합한 노드를 식별한다.

  3. 식별되면 바인딩 객체를 생성해 노드 이름 속성을 해당 노드의 이름을 설정해 파드를 노드에 스케줄링한다.

수동 스케줄링 프로세스는

  1. 파드 생성시 nodeName 필드를 설정해 파드를 특정 노드에 할당한다.

  2. 이미 생성된 파드는 바인딩 객체를 생성하고 이를 JSON 형식으로 변환해 바인딩 API에 POST 요청을 보낸다.

scheduling_json

문제풀이1

  1. nginx.yaml 파일을 이용해 pod를 만들어봐라: kubectl create -f nginx.yaml

  2. POD의 상태가 어떤가: Pending

  3. 왜 POD가 Pending 상태인가:

    kubectl get pods --namespace kube-system
     NAME                                   READY   STATUS    RESTARTS   AGE
     coredns-768b85b76f-wk8fq               1/1     Running   0          25m
     coredns-768b85b76f-zbxfm               1/1     Running   0          25m
     etcd-controlplane                      1/1     Running   0          25m
     kube-apiserver-controlplane            1/1     Running   0          25m
     kube-controller-manager-controlplane   1/1     Running   0          25m
     kube-proxy-9s855                       1/1     Running   0          24m
     kube-proxy-tszdh                       1/1     Running   0          25m

    scheduler가 없어서 pending 상태다.

  4. pod를 node01에 스케줄링해라

    kubectl delete pod nginx
    
    kubectl get nodes
    NAME           STATUS   ROLES           AGE   VERSION
    controlplane   Ready    control-plane   28m   v1.30.0
    node01         Ready    <none>          27m   v1.30.0
    
    cat nginx.yaml 
    ---
    apiVersion: v1
    kind: Pod
    metadata:
    name: nginx
    spec:
    nodeName: node01
    containers:
    -  image: nginx
        name: nginx
    
    
    kubectl get pods -o wide
    NAME    READY   STATUS    RESTARTS   AGE   IP           NODE     NOMINATED NODE   READINESS GATES
    nginx   1/1     Running   0          15s   10.244.1.2   node01   <none>           <none>

    혹은

    kubectl replace --force -f nginx.yaml

Labels and Selectors

레이블: 각 객체에 부착된 속성으로 키-값 형태로 정의되며 객체를 그룹화하고 분류할 수 있다. 셀렉터: 특정 조건을 만족하는 레이블을 가진 객체들을 필터링하는 방법으로 특정 속성을 가진 객체들을 쉽게 찾을 수 있다.

대부분의 객체(파드, 서비스, 레플리카셋, 디플로이먼트)에 적용된다.

ReplicaSet에서 Selector를, Pod 정의 파일에서 Labels를 추가하면 사용 가능하며 ReplicaSet 정의 파일에서 template 내 label에는 pod의 라벨을, ReplicaSet의 최상위 label에는 ReplicaSet의 라벨을 넣어주면 된다.

Annotation

Label은 객체를 그룹화하는데 사용, Annotation은 부가 정보를 기록하는 용도

ex) 빌드 정보 연락처 등등

문제풀이2

  1. label이 dev인 pod의 갯수는: 7개

    • kubectl get pods --selector selector=dev

  2. bu가 finance 비즈니스 유닛의 pod의 갯수: 6

    • kubectl get pods --selector bu=finance --no-headers | wc -l

  3. env가 prod인 모든 object의 갯수: 7

    • kubectl get all --selector env=prod --no-headers | wc -l

  4. env가 prod, bu=finance, tier=frontend

    • kubectl get all --selector env=prod,bu=finance,tier=frontend

  5. replicaset-definition-1.yaml파일을 수정해서 실행해봐라

    kubectl apply -f replicaset-definition-1
    
    apiVersion: apps/v1
    kind: ReplicaSet
    metadata:
    name: replicaset-1
    spec:
    replicas: 2
    selector:
        matchLabels:
            tier: front-end
    template:
        metadata:
        labels:
            tier: nginx -> front-end
        spec:
        containers:
        - name: nginx
            image: nginx

Taints and Tolerations

Taint는 일종의 벌레기피제로 생각하고 Tolerations는 특정 향기를 좋아하는 벌레라고 생각하면 편하며, 보안이나 클러스터 침입과는 관련이 없다. 노드에 어떤 파드를 배치할지 제한하는데 사용된다.

예시

  1. 클러스터 설정: 3개의 워커 노드와 4개의 파드가 있다고 가정했을때 기본적으로 스케줄러는 제한 없이 파드를 균등하게 배치한다.

  2. 특정 노드 전용 리소스 생성: 노드 1에 특정 애플리케이션 전용 리소스를 할당하고, 다른 파드가 배치되지 않도록 taint를 추가한다.

  3. taint 적용: 노드 1에 blue라는 taint를 추가하고, 기본적으로 모든 파드는 toleration이 없으므로 이 taint 피해간다.

  4. 특정 pod에 toleration 추가: 파드 D에 blue taint를 견딜 수 있는 toleration을 추가해 노드1이 배치될 수 있도록 한다.

taints의 효과

  1. NoSchedule: 파드가 노드에 스케줄링되지 않음

  2. PreferNoSchedule: 가능하면 파드를 피하지만, 보장은 없음

  3. NoExecute: 새로운 파드는 스케줄링되지 않고, 기존 파드는 퇴출됨

node에 taint 추가

kubectl taint nodes node1 app=blue:NoSchedule

pod에 toleration 추가

spec:
  tolerations:
  - key: "app"
    operator: "Equal"
    value: "blue"
    effect: "NoSchedule"

taint와 toleration은 pod를 특정 node에서 실행하도록 강제하는 것이 아니라 pod의 배포 위치를 특정하고 싶다면 Affinity를 설정해야 한다.

실제로 kubernetes의 master node는 taint를 통해 pod들의 배치를 막으며,

kubectl describe node kubemaster | grep Taint

해당 명령어를 통해 확인할 수 있다.

문제풀이3

  1. node가 몇개 있는지: 2개

    • kubectl get nodes

  2. node1 node에 taint 설정이 있는지: node

    • kubectl describe node node01 | grep -i taints

  3. node01에 spray=mortein이라는 taint를 NoSchedule로 추가하기

    • kubectl taint node node01 spray=mortein:NoSchedule

  4. Create a new pod with the nginx image and pod name as mosquito.

    • kubectl create -f nginx-pod.yaml

  5. pod가 pending 상태에 있는 이유: pod가 배치될 수 있는 node가 존재하지 않아서

    Events:
    Type     Reason            Age   From               Message
    ----     ------            ----  ----               -------
    Warning  FailedScheduling  88s   default-scheduler  0/2 nodes are available: 1 node(s) had untolerated taint {node-role.kubernetes.io/control-plane: }, 1 node(s) had untolerated taint {spray: mortein}. preemption: 0/2 nodes are available: 2 Preemption is not helpful for scheduling.
  6. Create another pod named bee with the nginx image, which has a toleration set to the taint mortein: operator: Equal은 key, value가 모두 일치해야 하고, Exists는 key만 체크함

 apiVersion: v1
 kind: Pod
 metadata:
 creationTimestamp: null
 labels:
    run: bee
 name: bee
 spec:
 containers:
 - image: nginx
    name: bee
    resources: {}
 tolerations:
 - key: spray
    value: mortein
    effect: NoSchedule
 dnsPolicy: ClusterFirst
 restartPolicy: Always
 status: {}
  1. Contolplane에서 Remove the taint on controlplane, which currently has the taint effect of NoSchedule.

    kubectl taint nodes controlplane node-role.kubernetes.io/control-plane:NoSchedule-

Node Selectors & Node Affinity

만약 데이터 처리같이 높은 성능을 필요로 하는 pod가 존재하고, 그에 맞춰 node를 큰거 하나랑 작은거 두 개를 준비했다면 특정 node에서만 pod가 실행되도록 설정해야 한다. 그 때 사용할 수 있는 것

Node Selectors

Node Selectors 노드에 이미 지정된 라벨을 기반으로 pod가 찾아간다.

## node에 label 추가
kubectl label nodes node-1 size=Large

## pod에 nodeSelector 추가
apiVersion:
kind: Pod
metadata:
   name: myapp-pod
spec:
   containers:
   - name: data

하지만 단순한 키-값 매칭만 가능하며 복잡한 조건(large or medium 등)이 불가능해 주로 Node Affinity를 쓴다

Node Affinity

or이나 not 표현을 사용할 수 없는 Node Selectors의 한계를 극복하기 위해 등장했다.

spec:
  affinity:
    nodeAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
        nodeSelectorTerms:
          - matchExpressions:
              - key: size
                operator: In
                values:
                  - large

size=large 라벨이 있는 노드에서만 pod가 실행되며 NotIn이나 values에 값을 추가해 하나라도 매칭되면 배치되게 할 수도 있다.

Exists: 해당 키가 존재하면 선택(값 비교 X)

Node Affinity 타입에는

타입
동작 방식

requiredDuringSchedulingIgnoredDuringExecution

필수 조건: 매칭되는 노드가 없으면 Pod는 스케줄링되지 않음. 실행 중에는 영향을 받지 않음.

preferredDuringSchedulingIgnoredDuringExecution

우선 조건: 매칭되는 노드가 있으면 배치, 없으면 다른 노드에도 배치 가능.

requiredDuringSchedulingRequiredDuringExecution

(예정) 필수 조건 + 실행 중에도 적용: 실행 중에도 라벨 변경 시 Pod를 퇴출(evict).

실행중에는 기존 타입들은 변경된 라벨을 반영하지 않음

문제풀이4

  1. How many Labels exist on node node01

    controlplane ~ ➜  kubectl describe node node01 | grep -i labels -A 10
    Labels:             beta.kubernetes.io/arch=amd64
                      beta.kubernetes.io/os=linux
                      kubernetes.io/arch=amd64
                      kubernetes.io/hostname=node01
                      kubernetes.io/os=linux
  2. What is the value set to the label key beta.kubernetes.io/arch on node01? amd64

  3. Apply a label color=blue to node node01

    kubectl label nodes node01 color=blue
  4. Create a new deployment named blue with the nginx image and 3 replicas.

    controlplane ~ ➜  kubectl create deployment blue --image=nginx --replicas=3 --dry-run=client -o yaml > blue-nginx.yaml
    
    controlplane ~ ➜  ls
    blue-nginx.yaml  sample.yaml
    
    controlplane ~ ➜  cat blue-nginx.yaml 
    apiVersion: apps/v1
    kind: Deployment
    metadata:
    creationTimestamp: null
    labels:
       app: blue
    name: blue
    spec:
    replicas: 3
    selector:
       matchLabels:
          app: blue
    strategy: {}
    template:
       metadata:
          creationTimestamp: null
          labels:
          app: blue
       spec:
          containers:
          - image: nginx
          name: nginx
          resources: {}
    status: {}
    
    controlplane ~ ➜  kubectl apply -f blue-nginx.yaml 
    deployment.apps/blue created
  5. blue pod는 어느 node에 배치될 수 있는가?

  6. Set Node Affinity to the deployment to place the pods on node01 only.

    cat blue-nginx.yaml 
    apiVersion: apps/v1
    kind: Deployment
    metadata:
    creationTimestamp: null
    labels:
       app: blue
    name: blue
    spec:
    replicas: 3
    selector:
       matchLabels:
          app: blue
    strategy: {}
    template:
       metadata:
          creationTimestamp: null
          labels:
          app: blue
       spec:
          containers:
          - image: nginx
          name: nginx
          resources: {}
          affinity:
          nodeAffinity:
             requiredDuringSchedulingIgnoredDuringExecution:
                nodeSelectorTerms:
                - matchExpressions:
                   - key: size
                      operator: In
                      values:
                      - large
  7. Which nodes are the pods placed on now?

    kubectl get pods -o wide
    NAME                    READY   STATUS    RESTARTS   AGE   IP           NODE     NOMINATED NODE   READINESS GATES
    blue-5659879b55-2mrvs   1/1     Running   0          75s   172.17.1.5   node01   <none>           <none>
    blue-5659879b55-7w6kl   1/1     Running   0          73s   172.17.1.6   node01   <none>           <none>
    blue-5659879b55-8hx99   1/1     Running   0          77s   172.17.1.4   node01   <none>           <none>
  8. Create a new deployment named red with the nginx image and 2 replicas, and ensure it gets placed on the controlplane node only.

    cat red-nginx.yaml 
    apiVersion: apps/v1
    kind: Deployment
    metadata:
    creationTimestamp: null
    labels:
       app: red
    name: red
    spec:
    replicas: 2
    selector:
       matchLabels:
          app: red
    strategy: {}
    template:
       metadata:
          creationTimestamp: null
          labels:
          app: red
       spec:
          containers:
          - image: nginx
          name: nginx
          resources: {}
          affinity:
          nodeAffinity:
             requiredDuringSchedulingIgnoredDuringExecution:
                nodeSelectorTerms:
                - matchExpressions:
                   - key: node-role.kubernetes.io/control-plane
                      operator: Exists

taint toleration 설정을 하면 각각의 pod가 node에 배치되도록 설정한다. 벌레기피제와 특정 향기를 좋아하는 벌레 비유와 같이 taint를 node에 뿌리면 해당 설정을 좋아하는 pod가 붙게된다. 하지만 해당 상황에서는 내가 배치하고자 하는 pod가 taint가 없는 node에 붙을 수 있다.

이 때 Node Affinity를 이용해 pod를 node에 특정할 수 있다. 하지만 해당 상황에서는 또 내가 배치하고자 하는 pod가 아닌 pod가 오면 안되는 node에 붙을 수 있다.

이럴 떄 taint, toleration과 Node Affinity를 섞어서 이용하면 특정 node에 pod가 배치되도록 강제할 수 있다.

문제풀이5

  1. A pod called rabbit is deployed. Identify the CPU requirements set on the Pod

    kubectl describe pod rabbit
    
        Restart Count:  0
     Limits:
       cpu:  1
     Requests:
       cpu:        500m
     Environment:  <none>
  2. Delete the rabbit Pod. kubectl delete pod rabbit

  3. Another pod called elephant has been deployed in the default namespace. It fails to get to a running state. Inspect this pod and identify the Reason why it is not running.

    kubectl describe pod elephant
     State:          Waiting
       Reason:       CrashLoopBackOff
     Last State:     Terminated
       Reason:       OOMKilled
       Exit Code:    1
       Started:      Wed, 05 Mar 2025 09:14:47 +0000
       Finished:     Wed, 05 Mar 2025 09:14:47 +0000
     Ready:          False
     Restart Count:  2
  4. The status OOMKilled indicates that it is failing because the pod ran out of memory. Identify the memory limit set on the POD.

        Limits:
      memory:  10Mi
    Requests:
      memory:     5Mi
  5. The elephant pod runs a process that consumes 15Mi of memory. Increase the limit of the elephant pod to 20Mi.

    # 해당 명령어로 현재 pod 정보로 elephant.yaml 파일 출력 
    kubectl get pod elephant -o yaml > elephant.yaml
    
    # memory limits를 20Mi로 수정
    
    # 기존의 elephant.yaml을 대체
    kubectl replace -f elephant.yaml --force

Daemon Sets

kube-porxy, weave-net 같은 네트워킹 컴포넌트들이 DaemonSet으로 띄워져있다. 모든 pod에 기본적으로 띄워져야 하는 어플리케이션들이 DaemonSet으로 만들어진다.

kubectl get daemonsets
kubectl describe daemonsets monitoring-daemon

위의 명령어로 확인 가능하다.

문제풀이6

  1. 모든 namespaces에서 떠 있는 Daemonsets의 갯수

    kubectl get daemonsets --all-namespaces
    NAMESPACE      NAME              DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR            AGE
    kube-flannel   kube-flannel-ds   1         1         1       1            1           <none>                   4m13s
    kube-system    kube-proxy        1         1         1       1            1           kubernetes.io/os=linux   4m14s
  2. kube-proxy가 떠있는 namespace: kube-system

  3. On how many nodes are the pods scheduled by the DaemonSet kube-proxy?

       kubectl describe daemonset kube-proxy --namespace=kube-system
       Name:           kube-proxy
       Selector:       k8s-app=kube-proxy
       Node-Selector:  kubernetes.io/os=linux
       Labels:         k8s-app=kube-proxy
       Annotations:    deprecated.daemonset.template.generation: 1
       Desired Number of Nodes Scheduled: 1
       Current Number of Nodes Scheduled: 1
       Number of Nodes Scheduled with Up-to-date Pods: 1
       Number of Nodes Scheduled with Available Pods: 1
       Number of Nodes Misscheduled: 0
       Pods Status:  1 Running / 0 Waiting / 0 Succeeded / 0 Failed

Static pods

기본적으로 worker node는 master node의 kube-apiserver, kube-scheduler, etcd cluster, controller-manager 등에 의해 통제되지만 만약 Master Node가 존재하지 않는다면 Worker Node

Pod 상세 정보를 제공할 API 서버가 존재하지 않는다 이 때 기본적으로 etc/kubernetes/manifests 디렉토리에 pod 정의 파일을 넣으면 kubelet이 주기적으로 해당 파일을 읽고 호스트를 만든다.

이걸 static pod라고 하며 replicaset이나 deployment는 생성할 수 없다.

kubelet.service의 --pod-manifest-path 항목을 보면 경로를 확인할 수 있다. .service 파일에 직접 입력할 수도 있고, config 파일을 제공해서 이용할 수도 있다.

![[Pasted image 20250310182736.png]]

kubectl 명령어는 kube-apiserver에서 입력받기 때문에 docker ps 등 컨테이너 서비스의 명령어를 사용해야 한다.

kubelet에서는 kube-api에서 명령하는 pod와 static pod 두 가지 모두 공존 가능하며 kube-api에서 static pod도 readonly로 정보를 읽을 수 있다.

각각의 node에 static pod를 이용해 controller manager, apiserver, etce cluster 등등 모든 요소를 띄워놓고 독립적으로 사용 가능하다.

static pod, daemonsets 둘 다 kube-scheduler에서 자유롭다.

문제풀이 7

  1. How many static pods exist in this cluster in all namespaces? 4, static pod는 기본적으로 -controlplane으로 네이밍 된다.

     controlplane ~ ✖ kubectl get pods --all-namespaces | grep controlplane
     kube-system    etcd-controlplane                      1/1     Running   0          15m
     kube-system    kube-apiserver-controlplane            1/1     Running   0          15m
     kube-system    kube-controller-manager-controlplane   1/1     Running   0          15m
     kube-system    kube-scheduler-controlplane            1/1     Running   0          15m
  2. Which of the below components is NOT deployed as a static pod? coredns

    controlplane ~ ➜  kubectl get pods -o wide --all-namespaces | grep controlplane
    kube-flannel   kube-flannel-ds-c99cx                  1/1     Running   0          17m   192.168.65.225   controlplane   <none>           <none>
    kube-system    coredns-7484cd47db-sc2cg               1/1     Running   0          17m   172.17.0.2       controlplane   <none>           <none>
    kube-system    coredns-7484cd47db-wwhbn               1/1     Running   0          17m   172.17.0.3       controlplane   <none>           <none>
    kube-system    etcd-controlplane                      1/1     Running   0          18m   192.168.65.225   controlplane   <none>           <none>
    kube-system    kube-apiserver-controlplane            1/1     Running   0          18m   192.168.65.225   controlplane   <none>           <none>
    kube-system    kube-controller-manager-controlplane   1/1     Running   0          18m   192.168.65.225   controlplane   <none>           <none>
    kube-system    kube-proxy-6cdb9                       1/1     Running   0          17m   192.168.65.225   controlplane   <none>           <none>
    kube-system    kube-scheduler-controlplane            1/1     Running   0          18m   192.168.65.225   controlplane   <none>           <none>
  3. Which of the below components is NOT deployed as a static POD? kube-api-server

    controlplane ~ ➜  kubectl get pods --all-namespaces | grep controlplane
    kube-system    etcd-controlplane                      1/1     Running   0          35m
    kube-system    kube-apiserver-controlplane            1/1     Running   0          35m
    kube-system    kube-controller-manager-controlplane   1/1     Running   0          35m
    kube-system    kube-scheduler-controlplane            1/1     Running   0          35m
  4. What is the path of the directory holding the static pod definition files? ps aux | grep kubelet 해당 명령어를 입력하면 --config 파일 위치가 나오는데 해당 파일을 열어서 staticPodPath를 사용하면 static pod 파일 위치가 확인 가능하다.

  5. Create a static pod named static-busybox that uses the busybox image and the command sleep 1000

    kubectl run --restart=Never --image=busybox static-busybox --dry-run=client -o yaml --command -- sleep 1000 > /etc/kubernetes/manifests/static-busybox.yaml
6.  We just created a new static pod named **static-greenbox**. Find it and delete it.
This question is a bit tricky. But if you use the knowledge you gained in the previous questions in this lab, you should be able to find the answer to it.


### 문제풀이 8
1. What is the name of the POD that deploys the default kubernetes scheduler in this environment?
controlplane ~ ✖ k get pods -n kube-system
NAME                                   READY   STATUS    RESTARTS   AGE
coredns-7484cd47db-46hwv               1/1     Running   0          5m39s
coredns-7484cd47db-ldwlb               1/1     Running   0          5m39s
etcd-controlplane                      1/1     Running   0          5m44s
kube-apiserver-controlplane            1/1     Running   0          5m44s
kube-controller-manager-controlplane   1/1     Running   0          5m44s
kube-proxy-nx25b                       1/1     Running   0          5m39s
kube-scheduler-controlplane            1/1     Running   0          5m44s
```

2. Let's create a configmap that the new scheduler will employ using the concept of ConfigMap as a volume. We have already given a configMap definition file called my-scheduler-configmap.yaml at /root/ path that will create a configmap with name my-scheduler-config using the content of file /root/my-scheduler-config.yaml.

k create -f /root/my-scheduler-configmap.yaml
 ```
3. Deploy an additional scheduler to the cluster following the given specification.
 Use the manifest file provided at `/root/my-scheduler.yaml`. Use the same image as used by the default kubernetes scheduler.
 ```bash
 vi my-scheduler.yaml, image를 registry.k8s.io/kube-scheduler:v1.32.0로 변경
 k create -f my-scheduler.yaml 실행
 ```

4. A POD definition file is given. Use it to create a POD with the new custom scheduler. File is located at `/root/nginx-pod.yaml`
```bash
 apiVersion: v1
 kind: Pod 
 metadata:
   name: nginx
 spec:
   schedulerName: my-scheduler
   containers:
   - image: nginx
     name: nginx
 ```


## Scheduler Profiles

스케줄링은

Scheduling Queue - Filtering - Scoring - Binding 순서로 이뤄진다.


1. Scheduling
 - PriorityClass kind로 정의 가능하며 pod-definition에는 priorityClassName으로 매칭해줄 수 있다.
 - 이 과정에서 높은 priority를 가진 POD가 Queue에서 먼저 배치된다.
 - PrioritySort Plugin
2. Filtering
 - pod의 조건에 맞지 않는 node를 제거한다
 - NodeResourcesFit, NodeName, NodeUnschedulable Plugin
3. Scoring
 - 배치 후 남은 노드의 리소스양을 계산한 후 가장 많은 리소스가 남게 되는 node가 선택되어 Binding된다.
 - NodeResourcesFit ImageLocality Plugin
4. Binding
 - pod를 적합한 node에 배치하는 과정
 - DefaultBinder Plugin


각 과정에서는 필요한 플러그인들이 있으며 각각의 플러그인들은 Scheduling Queue, Filtering, Scoreing, Binding의 Extension들에 binding된다. queueSort, preFilter, filter, postFilter, preScore 등의 Extension들이 있고 필요한 플러그인들을 연결할 수 있다.

1.18 이후 여러 스케줄러가 하나의 config에서 설정될 수 있다.

## RBAC


```bash developer-role.yaml
apiVersion: rbac.autorization.k8s.io/v1
kind: Role
metadata:
 name: developer
rules:
- apiGroups: [""]
resources: ["pods"]
verbs: ["create"]
resourceNames: ["blue", "orange"]

Admission Controllers

![[Pasted image 20250317183621.png]]

Admission Controller는

kubectl - kubeapi server - authentication - authorization - admission controller - action

사이에 껴 있는데 인증과정 후에 NamespaceAutoProvision 등과 같이 존재하지 않는 namespace로 명령이 들어왔을 때 자동으로 생성하는 등 기능을 가진 Controller들이 존재한다

문제풀이 9

  1. admission controller의 역할이 아닌 것은: 사용자 인증

  2. Which admission controller is not enabled by default?

  3. Which admission controller is enabled in this cluster which is normally disabled? grep enable-admission-plugins /etc/kubernetes/manifests/kube-apiserver.yaml --enable-admission-plugins=NodeRestriction

  4. /etc/kubernetes/manifest/kubeapi-server.yaml에서 수정하면 admission controller 수정 가능

✅ Validating Admission Controller (검증)

• 요청을 검증(Validate)한 후, 허용하거나 거부(Allow/Deny)

• 예: NamespaceExists

• 요청한 네임스페이스가 존재하는지 확인하고, 없으면 요청 거부

✅ Mutating Admission Controller (수정)

• 요청을 수정(Mutate)하여 적용

• 예: DefaultStorageClass

• PVC(Persistent Volume Claim) 요청 시 StorageClass가 없으면 기본값을 자동 추가

✅ Validating + Mutating Admission Controller

• 요청을 수정 후 검증하는 Admission Controller

• 예:

• NamespaceAutoProvisioning → 네임스페이스가 없으면 생성 (Mutating)

• NamespaceExists → 존재 여부 검증 (Validating)

• 순서 중요: Mutating → Validating 순으로 실행되어야 정상 동작

📌 기본 내장 Admission Controller 외에, 사용자 정의 Admission Controller를 추가 가능

• Kubernetes에서는 MutatingAdmissionWebhook, ValidatingAdmissionWebhook을 제공하여 외부 웹훅(Webhook) 기반 Admission Controller를 만들 수 있음

✅ Admission Webhook 동작 방식

  1. 클러스터 내 또는 외부에 Admission Webhook 서버 배포

  2. Kubernetes 요청이 기본 Admission Controller를 통과한 후, Webhook을 호출

  3. Webhook 서버는 요청을 AdmissionReview JSON 객체로 수신

  4. Webhook 서버는 요청을 검토하고, allowed: true(허용) 또는 allowed: false(거부) 응답

✅ Webhook 서버 개발 (예: Python)

• validate() → 요청을 검증하고 특정 조건이 맞으면 거부

• mutate() → 요청을 수정하여 특정 값을 자동 추가

• JSON Patch 형식으로 요청 객체를 수정할 수도 있음

• 개발 후 Kubernetes 클러스터 내부 또는 외부에서 실행 가능

문제풀이 10

  1. Which of the below combination is correct for Mutating and validating admission controllers

  2. mutating 먼저 그 다음 validating 실행된다

  3. Create TLS secret webhook-server-tls for secure webhook communication in webhook-demo namespace. kubectl create secret tls webhook-server-tls --cert=/root/keys/webhook-server-tls.crt --key=/root/keys/webhook-server-tls.key -n webhook-demo

  4. Create webhook deployment now. kubectl create -f /root/webhook-deployment.yaml

  5. Create webhook service now. kubectl create -f /root/webhook-service.yaml

  6. We have added MutatingWebhookConfiguration under /root/webhook-configuration.yaml. 어떤 request에서 동작하는가?

    rules:
       - operations: [ "CREATE" ]
         apiGroups: [""]
         apiVersions: ["v1"]
         resources: ["pods"]
     admissionReviewVersions: ["v1beta1"]
     sideEffects: None
  7. Now lets deploy MutatingWebhookConfiguration in /root/webhook-configuration.yaml kubectl create -f /root/webhook-configuration.yaml

Last updated