2016-01-26 7 views
1

Я пытаюсь настроить кластер Kubernetes, используя команду: https://coreos.com/kubernetes/docs/latest/getting-started.html.Отключено подключение сервера API Kubernetes

Я нахожусь в шаге 2 (Развертывание мастера), где, когда я запускаю главную службу, главная служба находится в активном состоянии, но не может связываться с сервером API. Кроме того, запущено 6 контейнеров, но журналы пустые. Пожалуйста, найдите журнал для кубе ниже:

Jan 26 07:54:18 kubernetes-1.novalocal systemd[1]: Started kubelet.service. 
    Jan 26 07:54:20 kubernetes-1.novalocal kubelet[1115]: W0126 07:54:20.214551 1115 server.go:585] Could not load kubeconfig file /var/lib/kubelet/kubeconfig: stat /var/lib/kubelet/kubeconfig: no such file or directory. Trying auth path instead. 
    Jan 26 07:54:20 kubernetes-1.novalocal kubelet[1115]: W0126 07:54:20.214631 1115 server.go:547] Could not load kubernetes auth path /var/lib/kubelet/kubernetes_auth: stat /var/lib/kubelet/kubernetes_auth: no such file or directory. Continuing with defaults. 
    Jan 26 07:54:20 kubernetes-1.novalocal kubelet[1115]: I0126 07:54:20.217269 1115 plugins.go:71] No cloud provider specified. 
    Jan 26 07:54:20 kubernetes-1.novalocal kubelet[1115]: I0126 07:54:20.219217 1115 manager.go:128] cAdvisor running in container: "/system.slice/kubelet.service" 
    Jan 26 07:54:20 kubernetes-1.novalocal kubelet[1115]: I0126 07:54:20.672952 1115 fs.go:108] Filesystem partitions: map[/dev/vda9:{mountpoint:/ major:254 minor:9 fsType: blockSize:0} /dev/vda3:{mountpoint:/usr major:254 minor:3 fsType: blockSize:0} /dev/vda6:{mountpoi 
    Jan 26 07:54:20 kubernetes-1.novalocal kubelet[1115]: I0126 07:54:20.856238 1115 manager.go:163] Machine: {NumCores:2 CpuFrequency:1999999 MemoryCapacity:4149022720 MachineID:5a493caa9327449cabd050ac6cd2e065 SystemUUID:5A493CAA-9327-449C-ABD0-50AC6CD2E065 BootID:541d 
    Jan 26 07:54:20 kubernetes-1.novalocal kubelet[1115]: I0126 07:54:20.858067 1115 manager.go:169] Version: {KernelVersion:4.3.3-coreos-r2 ContainerOsVersion:CoreOS 899.5.0 DockerVersion:1.9.1 CadvisorVersion: CadvisorRevision:} 
    Jan 26 07:54:20 kubernetes-1.novalocal kubelet[1115]: I0126 07:54:20.862564 1115 server.go:798] Adding manifest file: /etc/kubernetes/manifests 
    Jan 26 07:54:20 kubernetes-1.novalocal kubelet[1115]: I0126 07:54:20.862655 1115 server.go:808] Watching apiserver 
    Jan 26 07:54:21 kubernetes-1.novalocal kubelet[1115]: I0126 07:54:21.165506 1115 plugins.go:56] Registering credential provider: .dockercfg 
    Jan 26 07:54:21 kubernetes-1.novalocal kubelet[1115]: E0126 07:54:21.171563 1115 kubelet.go:2284] Error updating node status, will retry: error getting node "192.168.111.32": Get http://127.0.0.1:8080/api/v1/nodes/192.168.111.32: dial tcp 127.0.0.1:8080: connection r 
    Jan 26 07:54:21 kubernetes-1.novalocal kubelet[1115]: E0126 07:54:21.172329 1115 kubelet.go:2284] Error updating node status, will retry: error getting node "192.168.111.32": Get http://127.0.0.1:8080/api/v1/nodes/192.168.111.32: dial tcp 127.0.0.1:8080: connection r 
    Jan 26 07:54:21 kubernetes-1.novalocal kubelet[1115]: E0126 07:54:21.173114 1115 kubelet.go:2284] Error updating node status, will retry: error getting node "192.168.111.32": Get http://127.0.0.1:8080/api/v1/nodes/192.168.111.32: dial tcp 127.0.0.1:8080: connection refused 

Также представлены следующие контейнеры.

2bf275350996  gcr.io/google_containers/podmaster:1.1  "/podmaster --etcd-se" 26 minutes ago  Up 26 minutes       k8s_controller-manager-elector.5b0f7cea_kube-podmaster-192.168.111.32_kube-system_3b8350635fe89ab366063da0be8969fd_1f370f8c 
    c64042286744  gcr.io/google_containers/podmaster:1.1  "/podmaster --etcd-se" 26 minutes ago  Up 26 minutes       k8s_scheduler-elector.bc3d71be_kube-podmaster-192.168.111.32_kube-system_3b8350635fe89ab366063da0be8969fd_c9ecb387 
    81bd74d0396a  gcr.io/google_containers/hyperkube:v1.1.2 "/hyperkube proxy --m" 26 minutes ago  Up 26 minutes       k8s_kube-proxy.176f5569_kube-proxy-192.168.111.32_kube-system_8a987aa8c76c4d76bd80ccff5b65ffea_840d8228 
    39494ed8e814  gcr.io/google_containers/pause:0.8.0  "/pause"     27 minutes ago  Up 27 minutes       k8s_POD.6d00e006_kube-podmaster-192.168.111.32_kube-system_3b8350635fe89ab366063da0be8969fd_36b73b1d 
    632dc0a2f612  gcr.io/google_containers/pause:0.8.0  "/pause"     27 minutes ago  Up 27 minutes       k8s_POD.6d00e006_kube-apiserver-192.168.111.32_kube-system_86819bf93f678db0ee778b8c8bb658dc_815c6627 
    361b297b37f9  gcr.io/google_containers/pause:0.8.0  "/pause"     27 minutes ago  Up 27 minutes       k8s_POD.6d00e006_kube-proxy-192.168.111.32_kube-system_8a987aa8c76c4d76bd80ccff5b65ffea_7a6182ed 
+0

Вы установили сервер API? – George

ответ

1

Они пытаются поговорить с небезопасной версией API, которая не должна работать между машинами. Это будет работать только на мастера. Кроме того, мастер не настроен на прием работы (register_node = false), поэтому ожидается, что он не сообщит о своем статусе.

Ключевой элемент информации, которую мы пропускаем, из какой машины вышел этот журнал? Правильно ли вы установили параметр MASTER_HOST=?

Адрес главного узла. В большинстве случаев это будет общедоступный IP-адрес узла. Рабочие узлы должны быть в состоянии достигнуть мастер-узел (ы) с помощью этого адреса на порту 443.

Кроме того, обратите внимание, этот section of the docs:

Обратите внимание, что kubelet работает на главном узле может повторяться лог пытается опубликовать свой статус на сервере API. Эти предупреждения являются ожидаемым поведением и могут быть проигнорированы. Будущие выпуски Kubernetes планируют более грамотно обрабатывать это общее решение развертывания.

+0

Журналы поступают от главного узла. Я в конце этого раздела документации - https://coreos.com/kubernetes/docs/latest/deploy-master.html – KarthikJ

Смежные вопросы