Re: Casablanca oof module pods are waiting on init status #oof


Borislav Glozman
 

Hi,

 

You can look in the log of the init containers of those pods to see what they are waiting for.

Find the init containers by running kubectl get po -n <namespace> <pod name>

Use kubectl logs -n <namespace> <pod name> -c <name of the init container>

 

Thanks,

Borislav Glozman

O:+972.9.776.1988

M:+972.52.2835726

amdocs-a

Amdocs a Platinum member of ONAP

 

From: onap-discuss@... <onap-discuss@...> On Behalf Of gulsum atici
Sent: Monday, December 24, 2018 4:57 PM
To: onap-discuss@...
Subject: [onap-discuss] Casablanca oof module pods are waiting on init status #oof

 

Hello,

OOF  module pods are  waiting  for init  for hours  abd  can't  become  running  status.  They have  some dependencies  inside  OOF module  and   AAF module. 

AAF module  is completely  running.   After  recreating  OOF  module  pods   several times, status  didn't  change.  

dev-aaf-aaf-cm-858d9bbd58-qlbzr                               1/1       Running            0          1h

dev-aaf-aaf-cs-db78f4b6-ph6c4                                 1/1       Running            0          1h

dev-aaf-aaf-fs-cc68f85f7-5jzbm                                1/1       Running            0          1h

dev-aaf-aaf-gui-8f979c4d9-tqj7q                               1/1       Running            0          1h

dev-aaf-aaf-hello-84df87c74b-9xp8x                            1/1       Running            0          1h

dev-aaf-aaf-locate-74466c9857-xqqp5                           1/1       Running            0          1h

dev-aaf-aaf-oauth-65db47977f-7rfk5                            1/1       Running            0          1h

dev-aaf-aaf-service-77454cb8c-b9bmp                           1/1       Running            0          1h

dev-aaf-aaf-sms-7b5db59d6-vkjlm                               1/1       Running            0          1h

dev-aaf-aaf-sms-quorumclient-0                                1/1       Running            0          1h

dev-aaf-aaf-sms-quorumclient-1                                1/1       Running            0          1h

dev-aaf-aaf-sms-quorumclient-2                                1/1       Running            0          1h

dev-aaf-aaf-sms-vault-0                                       2/2       Running            1          1h

 

 

dev-oof-music-tomcat-64d4c64db7-gff9j                         0/1       Init:1/3           5          1h

dev-oof-music-tomcat-64d4c64db7-kqg9m                         0/1       Init:1/3           5          1h

dev-oof-music-tomcat-64d4c64db7-vmhdt                         0/1       Init:1/3           5          1h

dev-oof-oof-7b4bccc8d7-4wdx7                                  1/1       Running            0          1h

dev-oof-oof-cmso-service-55499fdf4c-h2pnx                     1/1       Running            0          1h

dev-oof-oof-has-api-7d9b977b48-vq8bq                          0/1       Init:0/3           5          1h

dev-oof-oof-has-controller-7f5b6c5f7-2fq68                    0/1       Init:0/3           6          1h

dev-oof-oof-has-data-b57bd54fb-xp942                          0/1       Init:0/4           5          1h

dev-oof-oof-has-healthcheck-mrd87                             0/1       Init:0/1           5          1h

dev-oof-oof-has-onboard-jtxsv                                 0/1       Init:0/2           6          1h

dev-oof-oof-has-reservation-5869b786b-8krtc                   0/1       Init:0/4           5          1h

dev-oof-oof-has-solver-5c75888465-f7pfm                       0/1       Init:0/4           6          1h

In the  pod  logs, there isn't  any  errors, containers are  all  waiting for  initiliaze  but  stuck at that  point.

Events:

  Type    Reason   Age              From           Message

  ----    ------   ----             ----           -------

  Normal  Pulling  5m (x7 over 1h)  kubelet, kub1  pulling image "oomk8s/readiness-check:2.0.0"

  Normal  Pulled   5m (x7 over 1h)  kubelet, kub1  Successfully pulled image "oomk8s/readiness-check:2.0.0"

  Normal  Created  5m (x7 over 1h)  kubelet, kub1  Created container

  Normal  Started  5m (x7 over 1h)  kubelet, kub1  Started container

ubuntu@kub2:~$ kubectl logs -f   dev-oof-oof-has-api-7d9b977b48-vq8bq -n onap 

Error from server (BadRequest): container "oof-has-api" in pod "dev-oof-oof-has-api-7d9b977b48-vq8bq" is waiting to start: PodInitializing
***************************************************

Events:

  Type    Reason   Age              From           Message

  ----    ------   ----             ----           -------

  Normal  Pulling  3m (x8 over 1h)  kubelet, kub3  pulling image "oomk8s/readiness-check:2.0.0"

  Normal  Pulled   3m (x8 over 1h)  kubelet, kub3  Successfully pulled image "oomk8s/readiness-check:2.0.0"

  Normal  Created  3m (x8 over 1h)  kubelet, kub3  Created container

  Normal  Started  3m (x8 over 1h)  kubelet, kub3  Started container

ubuntu@kub3:$ kubectl  logs  -f   dev-oof-oof-has-onboard-jtxsv  -n onap 

Error from server (BadRequest): container "oof-has-onboard" in pod "dev-oof-oof-has-onboard-jtxsv" is waiting to start: PodInitializing

 

 

 

This email and the information contained herein is proprietary and confidential and subject to the Amdocs Email Terms of Service, which you may review at https://www.amdocs.com/about/email-terms-of-service

Join onap-discuss@lists.onap.org to automatically receive all group messages.