2017-01-29 1 views
0

Я только начинаю с кубернетов. Я следую wiki, предоставленному pipelineIO, и настраиваю все. Я успешно настроил кубернеты, но другие инструменты, которые мне нужно запустить на кластерах havent, прошли успешно. Вот Баш скрипт для них:Ошибка настройки инструментов на кубернетах в локальной системе

#!/bin/sh 

echo '...MySql...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/sql.ml/mysql-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/sql.ml/mysql-svc.yaml 

echo '...HDFS...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/hdfs.ml/hdfs-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/hdfs.ml/hdfs-svc.yaml 

echo '...Hive Metastore...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/metastore.ml/metastore-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/metastore.ml/metastore-svc.yaml 

echo '...Spark - Master...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/apachespark.ml/spark-master-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/apachespark.ml/spark-master-svc.yaml 

echo '...Spark - Worker...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/apachespark.ml/spark-worker-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/apachespark.ml/spark-worker-svc.yaml 

echo '...JupyterHub...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/jupyterhub.ml/jupyterhub-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/jupyterhub.ml/jupyterhub-svc.yaml 

echo '...Dashboard - Weavescope...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/dashboard.ml/weavescope/weavescope.yaml 
kubectl describe svc weavescope-app 

Из них только weavescope был успешно установить и остальные показывают ошибки, как показано на картинке:

enter image description here

Я не понимаю, что пошло не так и как это исправить. Я не смог решить проблему, выполнив поиск в Интернете. Я не думаю, что какие-либо изображения докеров были загружены кубернетами, но я не знаю, является ли это проблемой или нет. Пожалуйста помоги.

пс: Если это в любом случае требуется:
ОС: Ubuntu 16,04
CPU: Intel i5 6200
GPU: Nvidia GeForce 940MX

EDIT 1:
я не нашел ничего о findSelector после выполнив запрос kubectl describe node minikube, вот выход:

Name:   minikube 
Role:   
Labels:   beta.kubernetes.io/arch=amd64 
      beta.kubernetes.io/os=linux 
      kubernetes.io/hostname=minikube 
Taints:   <none> 
CreationTimestamp: Mon, 30 Jan 2017 02:16:46 +0530 
Phase:   
Conditions: 
    Type   Status LastHeartbeatTime   LastTransitionTime   Reason    Message 
    ----   ------ -----------------   ------------------   ------    ------- 
    OutOfDisk   False Tue, 31 Jan 2017 02:55:10 +0530  Mon, 30 Jan 2017 02:16:46 +0530  KubeletHasSufficientDisk kubelet has sufficient disk space available 
    MemoryPressure False Tue, 31 Jan 2017 02:55:10 +0530  Mon, 30 Jan 2017 02:16:46 +0530  KubeletHasSufficientMemory kubelet has sufficient memory available 
    DiskPressure  False Tue, 31 Jan 2017 02:55:10 +0530  Mon, 30 Jan 2017 02:16:46 +0530  KubeletHasNoDiskPressure kubelet has no disk pressure 
    Ready   True Tue, 31 Jan 2017 02:55:10 +0530  Mon, 30 Jan 2017 02:16:47 +0530  KubeletReady   kubelet is posting ready status 
Addresses:  192.168.99.100,192.168.99.100,minikube 
Capacity: 
alpha.kubernetes.io/nvidia-gpu: 0 
cpu:     2 
memory:    2049008Ki 
pods:     110 
Allocatable: 
alpha.kubernetes.io/nvidia-gpu: 0 
cpu:     2 
memory:    2049008Ki 
pods:     110 
System Info: 
Machine ID:   112c60c791a944ff93bbc446e8c28598 
System UUID:   E0D8970E-F2E2-4503-A282-756ADA83592A 
Boot ID:   9305d5d2-11e9-411a-b335-b5aa3d59432e 
Kernel Version:  4.7.2 
OS Image:   Buildroot 2016.08 
Operating System:  linux 
Architecture:   amd64 
Container Runtime Version: docker://1.11.1 
Kubelet Version:  v1.5.1 
Kube-Proxy Version:  v1.5.1 
ExternalID:   minikube 
Non-terminated Pods:  (4 in total) 
    Namespace   Name     CPU Requests CPU Limits Memory Requests Memory Limits 
    ---------   ----     ------------ ---------- --------------- ------------- 
    default   weavescope-probe-zk779   50m (2%) 50m (2%) 0 (0%)  0 (0%) 
    kube-system   kube-addon-manager-minikube  5m (0%)  0 (0%)  50Mi (2%) 0 (0%) 
    kube-system   kube-dns-v20-75pq6   110m (5%) 0 (0%)  120Mi (5%)220Mi (10%) 
    kube-system   kubernetes-dashboard-5q16v  0 (0%)  0 (0%)  0 (0%)  0 (0%) 
Allocated resources: 
    (Total limits may be over 100 percent, i.e., overcommitted. 
    CPU Requests CPU Limits Memory Requests Memory Limits 
    ------------ ---------- --------------- ------------- 
    165m (8%) 50m (2%) 170Mi (8%) 220Mi (10%) 
Events: 
    FirstSeen LastSeen Count From   SubObjectPath Type  Reason   Message 
    --------- -------- ----- ----   ------------- -------- ------   ------- 
    17m  17m  1 {kube-proxy minikube}   Normal  Starting  Starting kube-proxy. 
    17m  17m  1 {kubelet minikube}   Normal  Starting  Starting kubelet. 
    17m  17m  1 {kubelet minikube}   Warning  ImageGCFailed  unable to find data for container/
    17m  17m  1 {kubelet minikube}   Normal  NodeHasSufficientDisk Node minikube status is now: NodeHasSufficientDisk 
    17m  17m  1 {kubelet minikube}   Normal  NodeHasSufficientMemory Node minikube status is now: NodeHasSufficientMemory 
    17m  17m  1 {kubelet minikube}   Normal  NodeHasNoDiskPressure Node minikube status is now: NodeHasNoDiskPressure 
    17m  17m  1 {kubelet minikube}   Warning  Rebooted  Node minikube has been rebooted, boot id: 9305d5d2-11e9-411a-b335-b5aa3d59432e 

EDIT 2:

[email protected]:~$ kubectl get pods 
NAME      READY  STATUS    RESTARTS AGE 
hdfs-gv0ss     0/1  Completed   0   8h 
jupyterhub-master-tt81t 0/1  ContainerCreating 0   8h 
metastore-1-2-1-4qdnz  0/1  ContainerCreating 0   8h 
mysql-master-8ksch   0/1  Completed   0   8h 
spark-master-2-0-1-r8g9j 1/1  Running    1   8h 
spark-worker-2-0-1-9v45w 0/1  Completed   0   8h 
weavescope-app-lkl15  0/1  ContainerCreating 0   8h 
weavescope-probe-s5zsd  0/1  ContainerCreating 0   6h 

Копы завершены, но не работают, кроме искрового. Как я могу запустить их?

ответ

1

Проблема заключается в том, что ReplicationControllers развертывается есть селектор узлов:

nodeSelector: 
    training: "true" 

Селектор узел будет влиять на планирование стручков. В этом случае планировщик ищет узлы с меткой training со значением true.

Мое подозрение, что у вас нет узла с этой меткой. Чтобы посмотреть на метки данного узла, вы можете использовать kubectl describe node $NODE_NAME. Дополнительная информация о node selectors here.

Редактировать: Как вы можете видеть из вывода kubectl, ваш узел не имеет метки training=true. Узел имеет метки:

Name:   minikube 
Role:   
Labels: beta.kubernetes.io/arch=amd64 
     beta.kubernetes.io/os=linux 
     kubernetes.io/hostname=minikube 

По этой причине нет подходящего узла для развертывания ваших рабочих нагрузок. Если вы хотите пометить узел, вы можете kubectl label node minikube training=true.

+0

Я отредактировал мой вопрос, пожалуйста, прочитайте вывод и скажите мне, что там не так. Спасибо –

+0

Я обновил ответ. – AlexBrand

+0

Прочтите изменения. Я вытащил все необходимые изображения, но они не работают. –

Смежные вопросы