0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從零開始搭建Kubernetes集群步驟

Linux愛好者 ? 來源:Escape 的博客 ? 作者:Escape ? 2021-09-01 14:33 ? 次閱讀

雖然網(wǎng)上有大量從零搭建 K8S 的文章,但大都針對老版本,若直接照搬去安裝最新的 1.20 版本會遇到一堆問題。故此將我的安裝步驟記錄下來,希望能為讀者提供 copy and paste 式的集群搭建幫助。

1. 部署準(zhǔn)備工作

部署最小化 K8S 集群:master + node1 + node2

Ubuntu 是一款基于 Debian Linux 的以桌面應(yīng)用為主的操作系統(tǒng),內(nèi)容涵蓋文字處理、電子郵件、軟件開發(fā)工具和 Web 服務(wù)等,可供用戶免費下載、使用和分享。

? vgs

Current machine states:

master running (virtualbox)

node1 running (virtualbox)

node2 running (virtualbox)

1.1 基礎(chǔ)環(huán)境信息

設(shè)置系統(tǒng)主機(jī)名以及 Host 文件各節(jié)點之間的相互解析

使用這個的 Vagrantfile 啟動的三節(jié)點服務(wù)已經(jīng)配置好了

以下使用 master 節(jié)點進(jìn)行演示查看,其他節(jié)點操作均一致

# hostnamectl

vagrant@k8s-master:~$ hostnamectl

Static hostname: k8s-master

# hosts

vagrant@k8s-master:~$ cat /etc/hosts

127.0.0.1 localhost

127.0.1.1 vagrant.vm vagrant

192.168.30.30 k8s-master

192.168.30.31 k8s-node1

192.168.30.32 k8s-node2

# ping

vagrant@k8s-master:~$ ping k8s-node1

PING k8s-node1 (192.168.30.31) 56(84) bytes of data.

64 bytes from k8s-node1 (192.168.30.31): icmp_seq=1 ttl=64 time=0.689 ms

1.2 阿里源配置

配置 Ubuntu 的阿里源來加速安裝速度

阿里源鏡像地址

# 登錄服務(wù)器

? vgssh master/node1/nod2

Welcome to Ubuntu 18.04.2 LTS (GNU/Linux 4.15.0-50-generic x86_64)

# 設(shè)置阿里云Ubuntu鏡像

$ sudo cp /etc/apt/sources.list{,.bak}

$ sudo vim /etc/apt/sources.list

# 配置kubeadm的阿里云鏡像源

$ sudo vim /etc/apt/sources.list

deb https://mirrors.aliyun.com/kubernetes/apt kubernetes-xenial main

$ sudo gpg --keyserver keyserver.ubuntu.com --recv-keys BA07F4FB

$ sudo gpg --export --armor BA07F4FB | sudo apt-key add -

# 配置docker安裝

$ curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -

$ sudo apt-key fingerprint 0EBFCD88

$ sudo vim /etc/apt/sources.list

deb [arch=amd64] https://download.docker.com/linux/ubuntu bionic stable

# 更新倉庫

$ sudo apt update

$ sudo apt dist-upgrade

1.3 基礎(chǔ)工具安裝

部署階段的基礎(chǔ)工具安裝

基礎(chǔ)組件 docker

部署工具 kubeadm

路由規(guī)則 ipvsadm

時間同步 ntp

# 基礎(chǔ)工具安裝

$ sudo apt install -y

docker-ce docker-ce-cli containerd.io

kubeadm ipvsadm

ntp ntpdate

nginx supervisor

# 將當(dāng)前普通用戶加入docker組(需重新登錄)

$ sudo usermod -a -G docker $USER# 服務(wù)啟用

$ sudo systemctl enable docker.service

$ sudo systemctl start docker.service

$ sudo systemctl enable kubelet.service

$ sudo systemctl start kubelet.service

1.4 操作系統(tǒng)配置

操作系統(tǒng)相關(guān)配置

關(guān)閉緩存

配置內(nèi)核參數(shù)

調(diào)整系統(tǒng)時區(qū)

升級內(nèi)核版本(默認(rèn)為4.15.0的版本)

# 關(guān)閉緩存

$ sudo swapoff -a

# 為K8S來調(diào)整內(nèi)核參數(shù)

$ sudo touch /etc/sysctl.d/kubernetes.conf

$ sudo cat 》 /etc/sysctl.d/kubernetes.conf 《《EOF

net.bridge.bridge-nf-call-iptables = 1 # 開啟網(wǎng)橋模式(必須)

net.bridge.bridge-nf-call-ip6tables = 1 # 開啟網(wǎng)橋模式(必須)

net.ipv6.conf.all.disable_ipv6 = 1 # 關(guān)閉IPv6協(xié)議(必須)

net.ipv4.ip_forward = 1 # 轉(zhuǎn)發(fā)模式(默認(rèn)開啟)

vm.panic_on_oom=0 # 開啟OOM(默認(rèn)開啟)

vm.swappiness = 0 # 禁止使用swap空間

vm.overcommit_memory=1 # 不檢查物理內(nèi)存是否夠用

fs.inotify.max_user_instances=8192

fs.inotify.max_user_watches=1048576

fs.file-max = 52706963 # 設(shè)置文件句柄數(shù)量

fs.nr_open = 52706963 # 設(shè)置文件的最大打開數(shù)量

net.netfilter.nf_conntrack_max = 2310720

EOF

# 查看系統(tǒng)內(nèi)核參數(shù)的方式

$ sudo sysctl -a | grep xxx

# 使內(nèi)核參數(shù)配置文件生效

$ sudo sysctl -p /etc/sysctl.d/kubernetes.conf

# 設(shè)置系統(tǒng)時區(qū)為中國/上海

$ sudo timedatectl set-timezone Asia/Shanghai

# 將當(dāng)前的UTC時間寫入硬件時鐘

$ sudo timedatectl set-local-rtc 0

1.5 開啟 ipvs 服務(wù)

開啟 ipvs 服務(wù)

kube-proxy 開啟 ipvs 的前置條件

# 載入指定的個別模塊

$ modprobe br_netfilter

# 修改配置

$ cat 》 /etc/sysconfig/modules/ipvs.modules 《《EOF

#!/bin/bash

modprobe -- ip_vs

modprobe -- ip_vs_rr

modprobe -- ip_vs_wrr

modprobe -- ip_vs_sh

modprobe -- nf_conntrack_ipv

EOF

# 加載配置

$ chmod 755 /etc/sysconfig/modules/ipvs.modules

&& bash /etc/sysconfig/modules/ipvs.modules

&& lsmod | grep -e ip_vs -e nf_conntrack_ipv

2. 部署 Master 節(jié)點

節(jié)點最低配置: 2C+2G 內(nèi)存;從節(jié)點資源盡量充足

kubeadm 工具的 init 命令,即可初始化以單節(jié)點部署的 master。為了避免翻墻,這里可以使用阿里云的谷歌源來代替。在執(zhí)行 kubeadm 部署命令的時候,指定對應(yīng)地址即可。當(dāng)然,可以將其加入本地的鏡像庫之中,更易維護(hù)。

注意事項

阿里云谷歌源地址

使用 kubeadm 定制控制平面配置

# 登錄服務(wù)器

? vgssh master

Welcome to Ubuntu 18.04.2 LTS (GNU/Linux 4.15.0-50-generic x86_64)

# 部署節(jié)點(命令行)# 注意pod和service的地址需要不同(否則會報錯)

$ sudo kubeadm init

--kubernetes-version=1.20.2

--image-repository registry.aliyuncs.com/google_containers

--apiserver-advertise-address=192.168.30.30

--pod-network-cidr=10.244.0.0/16

--service-cidr=10.245.0.0/16

# 部署鏡像配置(配置文件)

$ sudo kubeadm init --config 。/kubeadm-config.yaml

Your Kubernetes control-plane has initialized successfully!

# 查看IP段是否生效(iptable)

$ ip route show

10.244.0.0/24 dev cni0 proto kernel scope link src 10.244.0.1

10.244.1.0/24 via 10.244.1.0 dev flannel.1 onlink

10.244.2.0/24 via 10.244.2.0 dev flannel.1 onlink

# # 查看IP段是否生效(ipvs)

$ ipvsadm -L -n

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-》 RemoteAddress:Port Forward Weight ActiveConn InActConn

配置文件定義

接口使用了 v1beta2 版本

配置主節(jié)點 IP 地址為 192.168.30.30

為 flannel 分配的是 10.244.0.0/16 網(wǎng)段

選擇的 kubernetes 是當(dāng)前最新的 1.20.2 版本

加入了 controllerManager 的水平擴(kuò)容功能

# kubeadm-config.yaml# sudo kubeadm config print init-defaults 》 kubeadm-config.yamlapiVersion: kubeadm.k8s.io/v1beta2imageRepository: registry.aliyuncs.com/google_containerskind: ClusterConfigurationkubernetesVersion: v1.20.2apiServer:

extraArgs:

advertise-address: 192.168.30.30networking:

podSubnet: 10.244.0.0/16controllerManager:

ExtraArgs:

horizontal-pod-autoscaler-use-rest-clients: “true”

horizontal-pod-autoscaler-sync-period: “10s”

node-monitor-grace-period: “10s”

執(zhí)行成功之后會輸出如下信息,需要安裝如下步驟操作下

第一步 在 kubectl 默認(rèn)控制和操作集群節(jié)點的時候,需要使用到 CA 的密鑰,傳輸過程是通過 TLS 協(xié)議保障通訊的安全性。通過下面 3 行命令拷貝密鑰信息到當(dāng)前用戶家目錄下,這樣 kubectl 執(zhí)行時會首先訪問 .kube 目錄,使用這些授權(quán)信息訪問集群。

第二步 之后添加 worker 節(jié)點時,要通過 token 才能保障安全性。因此,先把顯示的這行命令保存下來,以備后續(xù)使用會用到。

# master setting step one

To start cluster, you need to run the following as a regular user:

mkdir -p $HOME/.kube

sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

sudo chown $(id -u):$(id -g) $HOME/.kube/config

Alternatively, if you are the root user, you can run:

export KUBECONFIG=/etc/kubernetes/admin.conf

# master setting step two

You should now deploy a pod network to the cluster.

Run “kubectl apply -f [podnetwork].yaml” with one of the options listed:

https://kubernetes.io/docs/concepts/cluster-administration/addons/

Join any number of worker nodes by running the following on each as root:

kubeadm join 192.168.30.30:6443

--token lebbdi.p9lzoy2a16tmr6hq

--discovery-token-ca-cert-hash

sha256:6c79fd83825d7b2b0c3bed9e10c428acf8ffcd615a1d7b258e9b500848c20cae

將子節(jié)點加入主節(jié)點中

$ kubectl get nodes

NAME STATUS ROLES AGE VERSION

k8s-master NotReady control-plane,master 62m v1.20.2

k8s-node1 NotReady 《none》 82m v1.20.2

k8s-node2 NotReady 《none》 82m v1.20.2

# 查看token令牌

$ sudo kubeadm token list

# 生成token令牌

$ sudo kubeadm token create

# 忘記sha編碼

$ openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt

| openssl rsa -pubin -outform der 2》/dev/null

| openssl dgst -sha256 -hex | sed ‘s/^.* //’

# 生成一個新的 token 令牌(比上面的方便)

$ kubeadm token generate

# 直接生成 join 命令(比上面的方便)

$ kubeadm token create 《token_generate》 --print-join-command --ttl=0

執(zhí)行完成之后可以通過如下命令,查看主節(jié)點信息

默認(rèn)生成四個命名空間default、kube-system、kube-public、kube-node-lease部署的核心服務(wù)有以下幾個 (kube-system)coredns、etcd

kube-apiserver、kube-scheduler

kube-controller-manager、kube-controller-manager此時 master 并沒有 ready 狀態(tài)(需要安裝網(wǎng)絡(luò)插件),下一章節(jié)中,我們將安裝 flannel 這個網(wǎng)絡(luò)插件

# 命名空間

$ kubectl get namespace

NAME STATUS AGE

default Active 19m

kube-node-lease Active 19m

kube-public Active 19m

kube-system Active 19m

# 核心服務(wù)

$ kubectl get pod -n kube-system

NAME READY STATUS RESTARTS AGE

coredns-7f89b7bc75-bh42f 1/1 Running 0 19m

coredns-7f89b7bc75-dvzpl 1/1 Running 0 19m

etcd-k8s-master 1/1 Running 0 19m

kube-apiserver-k8s-master 1/1 Running 0 19m

kube-controller-manager-k8s-master 1/1 Running 0 19m

kube-proxy-5rlpv 1/1 Running 0 19m

kube-scheduler-k8s-master 1/1 Running 0 19m

3. 部署 flannel 網(wǎng)絡(luò)

網(wǎng)絡(luò)服務(wù)用于管理 K8S 集群中的服務(wù)網(wǎng)絡(luò)

flannel 網(wǎng)絡(luò)需要指定 IP 地址段,即上一步中通過編排文件設(shè)置的 10.244.0.0/16。其實可以通過 flannel 官方和 HELM 工具直接部署服務(wù),但是原地址是需要搭梯子的。所以,可以將其內(nèi)容保存在如下配置文件中,修改對應(yīng)鏡像地址。

部署 flannel 服務(wù)的官方下載地址

# 部署flannel服務(wù)# 1.修改鏡像地址(如果下載不了的話)# 2.修改Network為--pod-network-cidr的參數(shù)IP段

$ kubectl apply -f 。/kube-flannel.yml

# 如果部署出現(xiàn)問題可通過如下命令查看日志

$ kubectl logs kube-flannel-ds-6xxs5 --namespace=kube-system

$ kubectl describe pod kube-flannel-ds-6xxs5 --namespace=kube-system

66c66ff4-0ad0-11ec-911a-12bb97331649.png

如果使用當(dāng)中存在問題的,可以參考官方的問題手冊

因為我們這里使用的是 Vagrant 虛擬出來的機(jī)器進(jìn)行 K8S 的部署,但是在運行對應(yīng) yaml 配置的時候,會報錯。通過查看日志發(fā)現(xiàn)是因為默認(rèn)綁定的是虛擬機(jī)上面的 eth0 這塊網(wǎng)卡,而這塊網(wǎng)卡是 Vagrant 使用的,我們應(yīng)該綁定的是 eth1 才對。

Vagrant 通常為所有 VM 分配兩個接口,第一個為所有主機(jī)分配的 IP 地址為 10.0.2.15,用于獲得 NAT 的外部流量。這樣會導(dǎo)致 flannel 部署存在問題。通過官方問題說明,我們可以使用 --iface=eth1 這個參數(shù)選擇第二個網(wǎng)卡。

對應(yīng)的參數(shù)使用方式,可以參考 flannel use –iface=eth1 中的回答自行添加,而這里我直接修改了啟動的配置文件,在啟動服務(wù)的時候通過 args 修改了,如下所示。

$ kubectl get pods -n kube-system

NAME READY STATUS RESTARTS AGE

coredns-7f89b7bc75-bh42f 1/1 Running 0 61m

coredns-7f89b7bc75-dvzpl 1/1 Running 0 61m

etcd-k8s-master 1/1 Running 0 62m

kube-apiserver-k8s-master 1/1 Running 0 62m

kube-controller-manager-k8s-master 1/1 Running 0 62m

kube-flannel-ds-zl148 1/1 Running 0 44s

kube-flannel-ds-ll523 1/1 Running 0 44s

kube-flannel-ds-wpmhw 1/1 Running 0 44s

kube-proxy-5rlpv 1/1 Running 0 61m

kube-scheduler-k8s-master 1/1 Running 0 62m

配置文件如下所示

---apiVersion: policy/v1beta1kind: PodSecurityPolicymetadata:

name: psp.flannel.unprivileged

annotations:

seccomp.security.alpha.kubernetes.io/allowedProfileNames: docker/default

seccomp.security.alpha.kubernetes.io/defaultProfileName: docker/default

apparmor.security.beta.kubernetes.io/allowedProfileNames: runtime/default

apparmor.security.beta.kubernetes.io/defaultProfileName: runtime/defaultspec:

privileged: false

volumes:

- configMap

- secret

- emptyDir

- hostPath

allowedHostPaths:

- pathPrefix: “/etc/cni/net.d”

- pathPrefix: “/etc/kube-flannel”

- pathPrefix: “/run/flannel”

readOnlyRootFilesystem: false

# Users and groups

runAsUser:

rule: RunAsAny

supplementalGroups:

rule: RunAsAny

fsGroup:

rule: RunAsAny

# Privilege Escalation

allowPrivilegeEscalation: false

defaultAllowPrivilegeEscalation: false

# Capabilities

allowedCapabilities: [“NET_ADMIN”, “NET_RAW”]

defaultAddCapabilities: []

requiredDropCapabilities: []

# Host namespaces

hostPID: false

hostIPC: false

hostNetwork: true

hostPorts:

- min: 0

max: 65535

# SELinux

seLinux:

# SELinux is unused in CaaSP

rule: “RunAsAny”---kind: ClusterRoleapiVersion: rbac.authorization.k8s.io/v1metadata:

name: flannelrules:

- apiGroups: [“extensions”]

resources: [“podsecuritypolicies”]

verbs: [“use”]

resourceNames: [“psp.flannel.unprivileged”]

- apiGroups:

- “”

resources:

- pods

verbs:

- get

- apiGroups:

- “”

resources:

- nodes

verbs:

- list

- watch

- apiGroups:

- “”

resources:

- nodes/status

verbs:

- patch---kind: ClusterRoleBindingapiVersion: rbac.authorization.k8s.io/v1metadata:

name: flannelroleRef:

apiGroup: rbac.authorization.k8s.io

kind: ClusterRole

name: flannelsubjects:

- kind: ServiceAccount

name: flannel

namespace: kube-system---apiVersion: v1kind: ServiceAccountmetadata:

name: flannel

namespace: kube-system---kind: ConfigMapapiVersion: v1metadata:

name: kube-flannel-cfg

namespace: kube-system

labels:

tier: node

app: flanneldata:

cni-conf.json: |

{

“name”: “cbr0”,

“cniVersion”: “0.3.1”,

“plugins”: [

{

“type”: “flannel”,

“delegate”: {

“hairpinMode”: true,

“isDefaultGateway”: true

}

},

{

“type”: “portmap”,

“capabilities”: {

“portMappings”: true

}

}

}

net-conf.json: |

{

“Network”: “10.244.0.0/16”,

“Backend”: {

“Type”: “vxlan”

}

}

---apiVersion: apps/v1kind: DaemonSetmetadata:

name: kube-flannel-ds

namespace: kube-system

labels:

tier: node

app: flannelspec:

selector:

matchLabels:

app: flannel

template:

metadata:

labels:

tier: node

app: flannel

spec:

affinity:

nodeAffinity:

requiredDuringSchedulingIgnoredDuringExecution:

nodeSelectorTerms

- matchExpressions:

- key: kubernetes.io/os

operator: In

values:

- linux

hostNetwork: true

priorityClassName: system-node-critical

tolerations:

- operator: Exists

effect: NoSchedule

serviceAccountName: flannel

initContainers:

- name: install-cni

image: quay.io/coreos/flannel:v0.13.1-rc1

command:

- cp

args:

- -f

- /etc/kube-flannel/cni-conf.json

- /etc/cni/net.d/10-flannel.conflist

volumeMounts:

- name: cni

mountPath: /etc/cni/net.d

- name: flannel-cfg

mountPath: /etc/kube-flannel/

containers:

- name: kube-flannel

image: quay.io/coreos/flannel:v0.13.1-rc1

command:

- /opt/bin/flanneld

args:

- --ip-masq

- --kube-subnet-mgr

- --iface=eth1

resources:

requests:

cpu: “100m”

memory: “50Mi”

limits:

cpu: “100m”

memory: “50Mi”

securityContext:

privileged: false

capabilities:

add: [“NET_ADMIN”, “NET_RAW”]

env:

- name: POD_NAME

valueFrom

fieldRef:

fieldPath: metadata.name

- name: POD_NAMESPACE

valueFrom:

fieldRef:

fieldPath: metadata.namespace

volumeMounts:

- name: run

mountPath: /run/flannel

- name: flannel-cfg

mountPath: /etc/kube-flannel/

volumes:

- name: run

hostPath:

path: /run/flannel

- name: cni

hostPath:

path: /etc/cni/net.d

- name: flannel-cfg

configMap:

name: kube-flannel-cfg

至此集群部署成功!如果有參數(shù)錯誤需要修改,你也可以在 reset 后重新 init 集群。

$ kubectl get nodes

NAME STATUS ROLES AGE VERSION

k8s-master Ready control-plane,master 62m v1.20.2

k8s-node1 Ready control-plane,master 82m v1.20.2

k8s-node2 Ready control-plane,master 82m v1.20.2

# 重啟集群

$ sudo kubeadm reset

$ sudo kubeadm init

4. 部署 dashboard 服務(wù)

以 WEB 頁面的可視化 dashboard 來監(jiān)控集群的狀態(tài)

這個還是會遇到需要搭梯子下載啟動配置文件的問題,下面是對應(yīng)的下載地址,可以下載之后上傳到服務(wù)器上面在進(jìn)行部署。

部署 dashboard 服務(wù)的官方下載地址

# 部署flannel服務(wù)

$ kubectl apply -f 。/kube-dashboard.yaml

# 如果部署出現(xiàn)問題可通過如下命令查看日志

$ kubectl logs

kubernetes-dashboard-c9fb67ffc-nknpj

--namespace=kubernetes-dashboard

$ kubectl describe pod

kubernetes-dashboard-c9fb67ffc-nknpj

--namespace=kubernetes-dashboard

$ kubectl get svc -n kubernetes-dashboard

NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE

dashboard-metrics-scraper ClusterIP 10.245.214.11 《none》 8000/TCP 26s

kubernetes-dashboard ClusterIP 10.245.161.146 《none》 443/TCP 26s

需要注意的是 dashboard 默認(rèn)不允許外網(wǎng)訪問,即使通過 kubectl proxy 允許外網(wǎng)訪問。但 dashboard 又只允許 HTTPS 訪問,這樣 kubeadm init 時自簽名的 CA 證書是不被瀏覽器承認(rèn)的。

我采用的方案是 Nginx 作為反向代理,使用 Lets Encrypt 提供的有效證書對外提供服務(wù),再經(jīng)由 proxy_pass 指令反向代理到 kubectl proxy 上,如下所示。此時,本地可經(jīng)由 8888 訪問到 dashboard 服務(wù),再通過 Nginx 訪問它。

# 代理(可以使用supervisor)

$ kubectl proxy --accept-hosts=‘^*$’

$ kubectl proxy --port=8888 --accept-hosts=‘^*$’# 測試代理是否正常(默認(rèn)監(jiān)聽在8001端口上)

$ curl -X GET -L http://localhost:8001

# 本地(可以使用nginx)

proxy_pass http://localhost:8001;

proxy_pass http://localhost:8888;

# 外網(wǎng)訪問如下URL地址

https://mydomain/api/v1/namespaces/kubernetes-dashboard/services/https/proxy/#/login

配置文件整理

nginx

supervisor

# k8s.conf

client_max_body_size 80M;

client_body_buffer_size 128k;

proxy_connect_timeout 600;

proxy_read_timeout 600;

proxy_send_timeout 600;

server {

listen 8080 ssl;

server_name _;

ssl_certificate /etc/kubernetes/pki/ca.crt;

ssl_certificate_key /etc/kubernetes/pki/ca.key;

access_log /var/log/nginx/k8s.access.log;

error_log /var/log/nginx/k8s.error.log error;

location / {

proxy_set_header X-Forwarded-Proto $scheme;

proxy_set_header Host $http_host;

proxy_set_header X-Real-IP $remote_addr;

proxy_pass http://localhost:8001/api/v1/namespaces/kubernetes-dashboard/services/https/proxy/;

}

}

# k8s.conf

[program:k8s-master]

command=kubectl proxy --accept-hosts=‘^*$’

user=vagrant

environment=KUBECONFIG=“/home/vagrant/.kube/config”

stopasgroup=true

stopasgroup=true

autostart=true

autorestart=unexpected

stdout_logfile_maxbytes=1MB

stdout_logfile_backups=10

stderr_logfile_maxbytes=1MB

stderr_logfile_backups=10

stderr_logfile=/var/log/supervisor/k8s-stderr.log

stdout_logfile=/var/log/supervisor/k8s-stdout.log

配置文件如下所示

# Copyright 2017 The Kubernetes Authors.## Licensed under the Apache License, Version 2.0 (the “License”);# you may not use this file except in compliance with the License.# You may obtain a copy of the License at## http://www.apache.org/licenses/LICENSE-2.0## Unless required by applicable law or agreed to in writing, software# distributed under the License is distributed on an “AS IS” BASIS,# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.# See the License for the specific language governing permissions and# limitations under the License.apiVersion: v1kind: Namespacemetadata:

name: kubernetes-dashboard---apiVersion: v1kind: ServiceAccountmetadata:

labels:

k8s-app: kubernetes-dashboard

name: kubernetes-dashboard

namespace: kubernetes-dashboard---kind: ServiceapiVersion: v1metadata:

labels:

k8s-app: kubernetes-dashboard

name: kubernetes-dashboard

namespace: kubernetes-dashboardspec:

ports:

- port: 443

targetPort: 8443

selector:

k8s-app: kubernetes-dashboard---apiVersion: v1kind: Secretmetadata:

labels:

k8s-app: kubernetes-dashboard

name: kubernetes-dashboard-certs

namespace: kubernetes-dashboardtype: Opaque---apiVersion: v1kind: Secretmetadata:

labels:

k8s-app: kubernetes-dashboard

name: kubernetes-dashboard-csrf

namespace: kubernetes-dashboardtype: Opaquedata:

csrf: “”---apiVersion: v1kind: Secretmetadata:

labels:

k8s-app: kubernetes-dashboard

name: kubernetes-dashboard-key-holder

namespace: kubernetes-dashboardtype: Opaque---kind: ConfigMapapiVersion: v1metadata:

labels:

k8s-app: kubernetes-dashboard

name: kubernetes-dashboard-settings

namespace: kubernetes-dashboard---kind: RoleapiVersion: rbac.authorization.k8s.io/v1metadata:

labels:

k8s-app: kubernetes-dashboard

name: kubernetes-dashboard

namespace: kubernetes-dashboardrules:

# Allow Dashboard to get, update and delete Dashboard exclusive secrets.

- apiGroups: [“”]

resources: [“secrets”]

resourceNames:

“kubernetes-dashboard-key-holder”,

“kubernetes-dashboard-certs”,

“kubernetes-dashboard-csrf”,

verbs: [“get”, “update”, “delete”]

# Allow Dashboard to get and update ‘kubernetes-dashboard-settings’ config map.

- apiGroups: [“”]

resources: [“configmaps”]

resourceNames: [“kubernetes-dashboard-settings”]

verbs: [“get”, “update”]

# Allow Dashboard to get metrics.

- apiGroups: [“”]

resources: [“services”]

resourceNames: [“heapster”, “dashboard-metrics-scraper”]

verbs: [“proxy”]

- apiGroups: [“”]

resources: [“services/proxy”]

resourceNames:

“heapster”,

“http”,

“https”,

“dashboard-metrics-scraper”,

“http:dashboard-metrics-scraper”,

verbs: [“get”]---kind: ClusterRoleapiVersion: rbac.authorization.k8s.io/v1metadata:

labels:

k8s-app: kubernetes-dashboard

name: kubernetes-dashboardrules:

# Allow Metrics Scraper to get metrics from the Metrics server

- apiGroups: [“metrics.k8s.io”]

resources: [“pods”, “nodes”]

verbs: [“get”, “l(fā)ist”, “watch”]---apiVersion: rbac.authorization.k8s.io/v1kind: RoleBindingmetadata:

labels:

k8s-app: kubernetes-dashboard

name: kubernetes-dashboard

namespace: kubernetes-dashboardroleRef:

apiGroup: rbac.authorization.k8s.io

kind: Role

name: kubernetes-dashboardsubjects:

- kind: ServiceAccount

name: kubernetes-dashboard

namespace: kubernetes-dashboard---apiVersion: rbac.authorization.k8s.io/v1kind: ClusterRoleBindingmetadata:

name: kubernetes-dashboardroleRef:

apiGroup: rbac.authorization.k8s.io

kind: ClusterRole

name: kubernetes-dashboardsubjects:

- kind: ServiceAccount

name: kubernetes-dashboard

namespace: kubernetes-dashboard---kind: DeploymentapiVersion: apps/v1metadata:

labels:

k8s-app: kubernetes-dashboard

name: kubernetes-dashboard

namespace: kubernetes-dashboardspec:

replicas: 1

revisionHistoryLimit: 10

selector:

matchLabels:

k8s-app: kubernetes-dashboard

template:

metadata:

labels:

k8s-app: kubernetes-dashboard

spec:

containers:

- name: kubernetes-dashboard

image: registry.cn-shanghai.aliyuncs.com/jieee/dashboard:v2.0.4

imagePullPolicy: Always

ports:

- containerPort: 8443

protocol: TCP

args:

- --auto-generate-certificates

- --namespace=kubernetes-dashboard

# Uncomment the following line to manually specify Kubernetes API server Host

# If not specified, Dashboard will attempt to auto discover the API server and connect

# to it. Uncomment only if the default does not work.

# - --apiserver-host=http://my-address:port

volumeMounts:

- name: kubernetes-dashboard-certs

mountPath: /certs

# Create on-disk volume to store exec logs

- mountPath: /tmp

name: tmp-volume

livenessProbe:

httpGet:

scheme: HTTPS

path: /

port: 8443

initialDelaySeconds: 30

timeoutSeconds: 30

securityContext:

allowPrivilegeEscalation: false

readOnlyRootFilesystem: true

runAsUser: 1001

runAsGroup: 2001

volumes:

- name: kubernetes-dashboard-certs

secret:

secretName: kubernetes-dashboard-certs

- name: tmp-volume

emptyDir: {}

serviceAccountName: kubernetes-dashboard

nodeSelector:

“kubernetes.io/os”: linux

# Comment the following tolerations if Dashboard must not be deployed on master

tolerations:

- key: node-role.kubernetes.io/master

effect: NoSchedule---kind: ServiceapiVersion: v1metadata:

labels:

k8s-app: dashboard-metrics-scraper

name: dashboard-metrics-scraper

namespace: kubernetes-dashboardspec:

ports:

- port: 8000

targetPort: 8000

selector:

k8s-app: dashboard-metrics-scraper---kind: DeploymentapiVersion: apps/v1metadata:

labels:

k8s-app: dashboard-metrics-scraper

name: dashboard-metrics-scraper

namespace: kubernetes-dashboardspec:

replicas: 1

revisionHistoryLimit: 10

selector:

matchLabels:

k8s-app: dashboard-metrics-scraper

template:

metadata:

labels:

k8s-app: dashboard-metrics-scraper

annotations:

seccomp.security.alpha.kubernetes.io/pod: “runtime/default”

spec:

containers:

- name: dashboard-metrics-scraper

image: registry.cn-shanghai.aliyuncs.com/jieee/metrics-scraper:v1.0.4

ports:

- containerPort: 8000

protocol: TCP

livenessProbe:

httpGet:

scheme: HTTP

path: /

port: 8000

initialDelaySeconds: 30

timeoutSeconds: 30

volumeMounts:

- mountPath: /tmp

name: tmp-volume

securityContext:

allowPrivilegeEscalation: false

readOnlyRootFilesystem: true

runAsUser: 1001

runAsGroup: 2001

serviceAccountName: kubernetes-dashboard

nodeSelector:

“kubernetes.io/os”: linux

# Comment the following tolerations if Dashboard must not be deployed on master

tolerations:

- key: node-role.kubernetes.io/master

effect: NoSchedule

volumes:

- name: tmp-volume

emptyDir: {}

第一種:登錄 dashboard 的方式(配置文件)

采用 token 方式

采用秘鑰文件方式

66d45d76-0ad0-11ec-911a-12bb97331649.jpg

# 創(chuàng)建管理員帳戶(dashboard)

$ cat 《《EOF | kubectl apply -f -

apiVersion: v1

kind: ServiceAccount

metadata:

name: admin-user

namespace: kubernetes-dashboard

EOF

# 將用戶綁定已經(jīng)存在的集群管理員角色

$ cat 《《EOF | kubectl apply -f -

apiVersion: rbac.authorization.k8s.io/v1

kind: ClusterRoleBinding

metadata:

name: admin-user

roleRef:

apiGroup: rbac.authorization.k8s.io

kind: ClusterRole

name: cluster-admin

subjects:

- kind: ServiceAccount

name: admin-user

namespace: kubernetes-dashboard

EOF

# 獲取可用戶于訪問的token令牌

$ kubectl -n kubernetes-dashboard describe secret

$(kubectl -n kubernetes-dashboard get secret

| grep admin-user | awk ‘{print $1}’)

登錄界面展示

針對 Chrome 瀏覽器,在空白處點擊然后輸入:thisisunsafe

針對 Firefox 瀏覽器,遇到證書過期,添加例外訪問

第二種:授權(quán) dashboard 權(quán)限(不適用配置文件)

如果登錄之后提示權(quán)限問題的話,可以執(zhí)行如下操作

把 serviceaccount 綁定在 clusteradmin

授權(quán) serviceaccount 用戶具有整個集群的訪問管理權(quán)限

# 創(chuàng)建serviceaccount

$ kubectl create serviceaccount dashboard-admin -n kube-system

# 把serviceaccount綁定在clusteradmin# 授權(quán)serviceaccount用戶具有整個集群的訪問管理權(quán)限

$ kubectl create clusterrolebinding

dashboard-cluster-admin --clusterrole=cluster-admin

--serviceaccount=kube-system:dashboard-admin

# 獲取serviceaccount的secret信息,可得到token令牌的信息

$ kubectl get secret -n kube-system

# 通過上邊命令獲取到dashboard-admin-token-slfcr信息

$ kubectl describe secret 《dashboard-admin-token-slfcr》 -n kube-system

# 瀏覽器訪問登錄并把token粘貼進(jìn)去登錄即可

https://192.168.30.30:8080/

# 快捷查看token的命令

$ kubectl describe secrets -n kube-system

$(kubectl -n kube-system get secret | awk ‘/admin/{print $1}’)

轉(zhuǎn)載:Escape 的博客

原文:https://tinyurl.com/y5cp67a3,
編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Web
    Web
    +關(guān)注

    關(guān)注

    2

    文章

    1254

    瀏覽量

    69210
  • Linux
    +關(guān)注

    關(guān)注

    87

    文章

    11177

    瀏覽量

    208498
  • 主機(jī)
    +關(guān)注

    關(guān)注

    0

    文章

    973

    瀏覽量

    34966
  • Ubuntu
    +關(guān)注

    關(guān)注

    5

    文章

    555

    瀏覽量

    29438

原文標(biāo)題:手把手教你部署一個最小化的 Kubernetes 集群

文章出處:【微信號:LinuxHub,微信公眾號:Linux愛好者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Kubernetes集群搭建容器云需要幾臺服務(wù)器?

    Kubernetes集群搭建容器云需要幾臺服務(wù)器?至少需要4臺服務(wù)器。搭建容器云所需的服務(wù)器數(shù)量以及具體的搭建
    的頭像 發(fā)表于 10-21 10:06 ?60次閱讀

    使用AD8001放大一個100mv左右的信號,經(jīng)過放大的信號低電平都是三點幾伏,不能夠從零開始,為什么?

    請問,如圖我想使用AD8001放大一個100mv左右的信號,然后使用比較器輸出信號進(jìn)行計數(shù),但是現(xiàn)在經(jīng)過放大的信號低電平都是三點幾伏,不能夠從零開始,請問這是什么原因呢?如圖,紅色是需要放大的信號,紫色是經(jīng)過放大的信號。
    發(fā)表于 08-20 06:17

    使用Velero備份Kubernetes集群

    Velero 是 heptio 團(tuán)隊(被 VMWare 收購)開源的 Kubernetes 集群備份、遷移工具。
    的頭像 發(fā)表于 08-05 15:43 ?293次閱讀
    使用Velero備份<b class='flag-5'>Kubernetes</b><b class='flag-5'>集群</b>

    如何使用Kubeadm命令在PetaExpress Ubuntu系統(tǒng)上安裝Kubernetes集群

    Kubernetes,通??s寫為K8s,是一個開源的容器編排平臺,旨在自動化容器化應(yīng)用的部署、擴(kuò)展和管理。有了Kubernetes,您可以輕松地部署、更新和擴(kuò)展應(yīng)用,而無需擔(dān)心底層基礎(chǔ)設(shè)施。
    的頭像 發(fā)表于 07-15 13:31 ?763次閱讀
    如何使用Kubeadm命令在PetaExpress Ubuntu系統(tǒng)上安裝<b class='flag-5'>Kubernetes</b><b class='flag-5'>集群</b>

     K8S學(xué)習(xí)教程一:使用PetaExpress云服務(wù)器安裝Minikube 集群

    ? 什么是Minikube Minikube是一款工具,主要用于在本地運行 Kubernetes 集群。Kubernetes 開源的平臺,用于自動化容器化應(yīng)用的部署、擴(kuò)展和管理,而Minikube
    的頭像 發(fā)表于 07-01 15:41 ?272次閱讀
     K8S學(xué)習(xí)教程一:使用PetaExpress云服務(wù)器安裝Minikube <b class='flag-5'>集群</b>

     海外云服務(wù)器搭建pi節(jié)點詳細(xì)步驟

     海外云服務(wù)器搭建pi節(jié)點簡單嗎?海外云服務(wù)器搭建pi節(jié)點步驟有哪些?小編為您整理發(fā)布海外云服務(wù)器搭建pi節(jié)點相關(guān)內(nèi)容。
    的頭像 發(fā)表于 02-21 10:16 ?964次閱讀

    淺析Ranther管理K8S集群

    Rancher 基于 Kubernetes 添加了新的功能,包括統(tǒng)一所有集群的身份驗證和 RBAC,讓系統(tǒng)管理員從一個位置控制全部集群的訪問。
    的頭像 發(fā)表于 01-21 10:28 ?818次閱讀
    淺析Ranther管理K8S<b class='flag-5'>集群</b>

    使用Jenkins和單個模板部署多個Kubernetes組件

    在持續(xù)集成和部署中,我們通常需要部署多個實例或組件到Kubernetes集群中。通過Jenkins的管道腳本,我們可以自動化這個過程。在本文中,我將演示如何使用Jenkins Pipeline及單個
    的頭像 發(fā)表于 01-02 11:40 ?651次閱讀
    使用Jenkins和單個模板部署多個<b class='flag-5'>Kubernetes</b>組件

    Kubernetes RBAC:掌握權(quán)限管理的精髓

    Kubernetes RBAC(Role-Based Access Control)是 Kubernetes 中一項關(guān)鍵的安全功能,它通過細(xì)粒度的權(quán)限控制機(jī)制,確保集群資源僅被授權(quán)的用戶或服務(wù)賬號訪問。
    的頭像 發(fā)表于 12-25 09:43 ?420次閱讀

    Kubernetes開發(fā)指南之深入理解CRD

    CRD本身是Kubernetes內(nèi)置的資源類型,全稱是CustomResourceDefinition,可以通過命令查看,kubectl get查看集群內(nèi)定義的CRD資源。
    的頭像 發(fā)表于 12-13 18:19 ?759次閱讀
    <b class='flag-5'>Kubernetes</b>開發(fā)指南之深入理解CRD

    創(chuàng)客新手村,ESP32從零開始(1)水果小夜燈

    外的內(nèi)容? 符合以上任何一項,你都適合伊娃老師的創(chuàng)客新手村! 學(xué)習(xí)模式 在創(chuàng)客新手村,你不需要死記硬背,而是通過輕松有趣的方式,帶你走進(jìn)ESP32的好玩世界。 通過項目實踐,你可以從零開始學(xué)習(xí)如何使用ESP32,連接各種傳感器,從中探索項目的
    的頭像 發(fā)表于 12-12 15:56 ?1328次閱讀
    創(chuàng)客新手村,ESP32<b class='flag-5'>從零開始</b>(1)水果小夜燈

    php運行環(huán)境的搭建方法

    搭建PHP運行環(huán)境是開發(fā)PHP應(yīng)用程序的基礎(chǔ),本文將詳盡、詳實、細(xì)致地介紹從零開始搭建PHP運行環(huán)境的方法,包括選擇操作系統(tǒng)、安裝Web服務(wù)器、安裝PHP以及配置相關(guān)組件等。 首先,選擇合適
    的頭像 發(fā)表于 12-04 14:56 ?1161次閱讀

    Kubernetes 集群及其生態(tài)搭建

    上一次接觸到kubernetes集群的時候已經(jīng)是一年以前了,那個時候官方的版本還只是 v1.10 ,而現(xiàn)在過去一年的時間了,官方版本已經(jīng)快速的迭代到了 v1.17 了,社區(qū)也越來越成熟、相關(guān)的生態(tài)
    的頭像 發(fā)表于 11-01 16:04 ?416次閱讀
    <b class='flag-5'>Kubernetes</b> <b class='flag-5'>集群</b>及其生態(tài)<b class='flag-5'>搭建</b>

    基于Kubernetes集群的typecho博客搭建方案

    Kubernetes提供了強大的高可用性特性,它可以自動管理和調(diào)度容器實例,確保應(yīng)用程序在集群中始終可用。還可以監(jiān)控和自動修復(fù)故障的容器實例,提高博客的穩(wěn)定性和可靠性。
    發(fā)表于 10-30 10:02 ?363次閱讀
    基于<b class='flag-5'>Kubernetes</b><b class='flag-5'>集群</b>的typecho博客<b class='flag-5'>搭建</b>方案

    示波器_從零開始手把手測電源開環(huán)增益/電源環(huán)路頻響曲線/PSM

    示波器_ 從零開始手把手測電源開環(huán)增益/電源環(huán)路頻響 曲線/ PSM 我們之前有篇文章從理論到實踐演示了如何測量電源環(huán)路的開環(huán)增益曲線,不過偏重于理論和原理,沒有很多細(xì)節(jié)的展現(xiàn),所以這片文章從另外
    發(fā)表于 10-26 15:54