Kubernetes Cloud Native 实践 ( 十 ) 相关问题

kyaa111 10月前 ⋅ 240 阅读

全文目录

Kubernetes Cloud Native 实践 ( 一 ) 安装

Kubernetes Cloud Native 实践 ( 二 ) 简单使用

Kubernetes Cloud Native 实践 ( 三 ) NFS/PV/PVC

Kubernetes Cloud Native 实践 ( 四 ) 中间件上云

Kubernetes Cloud Native 实践 ( 五 ) 应用上云

Kubernetes Cloud Native 实践 ( 六 ) 集成ELK日志平台

Kubernetes Cloud Native 实践 ( 七 ) 应用监控

Kubernetes Cloud Native 实践 ( 八 ) CICD集成

Kubernetes Cloud Native 实践 ( 九 ) 运维管理

Kubernetes Cloud Native 实践 ( 十 ) 相关问题

Kubernetes Cloud Native 实践 ( 十一 ) 运行截图

相关问题

  1. root@slave1:~# kubectl get pods --all-namespaces

    The connection to the server localhost:8080 was refused - did you specify the right host or     port?
    

在/etc/profile文件末尾增加 export KUBECONFIG=/etc/kubernetes/kubelet.conf 然后执行source /etc/profile

  1. 如果pod一直被Evicted

用这个命令排查 kubectl get events --field-selector involvedObject.name= --all-namespaces 比如 NAMESPACE LAST SEEN TYPE REASON OBJECT MESSAGE tigera-operator 49s Warning Evicted pod/tigera-operator-dd6f5f75-bt7kc The node had condition: [DiskPressure].

  1. 部署k8s动态持久卷nfs报错如下:waiting for a volume to be created, either by external provisioner “gxf-nfs-storag

将前面的nfs-client-provisioner的deployment镜像改为easzlab/nfs-subdir-external-provisioner:v4.0.1, 将旧deployment删除重新应用

  1. kube-apiserver跑到了slave节点运行, 一直在重启

先允许主节点参与调度 kubectl taint nodes --all node-role.kubernetes.io/master- 然后 vim /etc/kubernetes/manifests/kube-apiserver.yaml 在spec下添加 nodeSelector: node-role.kubernetes.io/master: "" 保存后当前k8s会自动重启 然后kubectl delete pods -n kube-system -l component=kube-apiserver 再kubectl apply -f /etc/kubernetes/manifests/kube-apiserver.yaml 如果kube-apiserver日志报错说端口被占用, 将kube-apiserver-localhost这个pod删除即可 最后禁止master参与调度 kubectl taint nodes node-role.kubernetes.io/master=:NoSchedule