Статьи

Мультимастерный кластер Kubernetes на Amazon с помощью Kops

Начало работы с Kubernetes 1.4 с использованием Spring Boot и Couchbase объясняет, как начать работу с Kubernetes 1.4 в Amazon Web Services. В кластере создается служба Couchbase, а приложение Spring Boot сохраняет документ JSON в базе данных. Для запуска кластера используется скрипт kube-up.sh из бинарной загрузки Kubernetes по адресу github.com/kubernetes/kubernetes/releases/download/v1.4.0/kubernetes.tar.gz . Этот скрипт способен создавать кластер Kubernetes только с одним мастером. Это фундаментальный недостаток распределенных приложений, когда мастер становится единой точкой отказа.

Встречайте копы — сокращение от Kubernetes Operations.

Это самый простой способ запустить высокодоступный кластер Kubernetes. Сценарий kubectl — это интерфейс командной строки для запуска команд с запущенными кластерами. Думайте о kops как о kubectl для кластера .

Этот блог покажет, как создать высокодоступный кластер Kubernetes на Amazon, используя kops . И как только кластер будет создан, он создаст на нем службу Couchbase и запустит приложение Spring Boot для хранения документа JSON в базе данных.

Огромное спасибо Джастинсб , Сарахсу , Разичу, Джейгорреллу, пожиманию плечами, Бкпандей и другим на свободном канале Кубернетеса за помощь в прояснении деталей!

Скачать копы и кубектл

  • Загрузите последнюю версию Kops . Этот блог был протестирован с 1.4.1 на OSX. Полный набор команд для kops можно увидеть:
01
02
03
04
05
06
07
08
09
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
Usage:
  kops [command]
  
Available Commands:
  create         create resources
  delete         delete clusters
  describe       describe objects
  edit           edit items
  export         export clusters/kubecfg
  get            list or get objects
  import         import clusters
  rolling-update rolling update clusters
  secrets        Manage secrets & keys
  toolbox        Misc infrequently used commands
  update         update clusters
  upgrade        upgrade clusters
  version        Print the client version information
  
Flags:
      --alsologtostderr                  log to standard error as well as files
      --config string                    config file (default is $HOME/.kops.yaml)
      --log_backtrace_at traceLocation   when logging hits line file:N, emit a stack trace (default :0)
      --log_dir string                   If non-empty, write log files in this directory
      --logtostderr                      log to standard error instead of files (default false)
      --name string                      Name of cluster
      --state string                     Location of state storage
      --stderrthreshold severity         logs at or above this threshold go to stderr (default 2)
  -v, --v Level                          log level for V logs
      --vmodule moduleSpec               comma-separated list of pattern=N settings for file-filtered logging
  
Use "kops [command] --help" for more information about a command.
  • Скачать kubectl :
1
curl -Lo kubectl http://storage.googleapis.com/kubernetes-release/release/v1.4.1/bin/darwin/amd64/kubectl && chmod +x kubectl
  • Включите kubectl в ваш kubectl .

Создать Bucket и NS Records на Amazon

В настоящее время требуется немного настройки, и, надеюсь, это будет исправлено в следующих выпусках. Создание кластера в AWS предоставляет подробные инструкции и дополнительную информацию. Вот то, что блог следовал:

  • Выберите домен, где будет размещен кластер Kubernetes. Этот блог использует домен kubernetes.arungupta.me . Вы можете выбрать домен верхнего уровня или поддомен.
  • Amazon Route 53 — это высокодоступная и масштабируемая служба DNS. Войдите в консоль Amazon и создайте размещенную зону для этого домена с помощью службы Route 53

Kops организовали зональный-1024x555

Созданная зона выглядит так:

kopš организовали зоны, созданный-1024x275

Значения, показанные в столбце « Value , важны, так как они будут использованы позже для создания записей NS.

  • Создайте корзину S3 с помощью Amazon Console для хранения конфигурации кластера — это называется state store .

Kops-s3-ковш-1024x496

  • Домен kubernetes.arungupta.me размещен на GoDaddy. Для каждого значения, показанного в столбце «Значение» размещенной зоны Route53, создайте запись NS, используя Центр управления доменом GoDaddy для этого домена. Выберите тип записи:

Kops-GoDaddy-надстройка зона рекорд-1024x588

Для каждого значения добавьте запись, как показано:

Kops-GoDaddy-надстройка зона рекорд-1024x588

Завершено множество записей вида

kopš-GoDaddy-адд-нс-запись-1024x980

Начать мультимедийный кластер Kubernetes

Давайте немного разберемся с регионами и зонами Амазонки:

Amazon EC2 размещается в нескольких местах по всему миру. Эти местоположения состоят из регионов и зон доступности. Каждый регион — это отдельная географическая зона. Каждый регион имеет несколько изолированных мест, известных как зоны доступности.

Высокодоступный кластер Kubernetes можно создавать в разных зонах, но не в разных регионах.

  • Узнайте зоны доступности в пределах региона:
01
02
03
04
05
06
07
08
09
10
11
12
13
14
15
16
17
18
19
20
21
22
23
aws ec2 describe-availability-zones --region us-west-2
{
    "AvailabilityZones": [
        {
            "State": "available",
            "RegionName": "us-west-2",
            "Messages": [],
            "ZoneName": "us-west-2a"
        },
        {
            "State": "available",
            "RegionName": "us-west-2",
            "Messages": [],
            "ZoneName": "us-west-2b"
        },
        {
            "State": "available",
            "RegionName": "us-west-2",
            "Messages": [],
            "ZoneName": "us-west-2c"
        }
    ]
}
  • Создайте мультимастерный кластер:
1
kops-darwin-amd64 create cluster --name=kubernetes.arungupta.me --cloud=aws --zones=us-west-2a,us-west-2b,us-west-2c --master-size=m4.large --node-count=3 --node-size=m4.2xlarge --master-zones=us-west-2a,us-west-2b,us-west-2c --state=s3://kops-couchbase --yes

Большинство переключателей говорят сами за себя. Некоторые переключатели нуждаются в небольшом объяснении:

  • Указание нескольких зон с помощью --master-zones (должно быть нечетным числом) создает несколько мастеров по AZ
  • --cloud=aws необязательно, если облако может быть выведено из зон
  • --yes используется для указания немедленного создания кластера. В противном случае в сегменте сохраняется только состояние, и кластер необходимо создавать отдельно.

Полный набор переключателей CLI можно увидеть:

01
02
03
04
05
06
07
08
09
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
./kops-darwin-amd64 create cluster --help
Creates a k8s cluster.
  
Usage:
  kops create cluster [flags]
  
Flags:
      --admin-access string         Restrict access to admin endpoints (SSH, HTTPS) to this CIDR.  If not set, access will not be restricted by IP.
      --associate-public-ip         Specify --associate-public-ip=[true|false] to enable/disable association of public IP for master ASG and nodes. Default is 'true'. (default true)
      --channel string              Channel for default versions and configuration to use (default "stable")
      --cloud string                Cloud provider to use - gce, aws
      --dns-zone string             DNS hosted zone to use (defaults to last two components of cluster name)
      --image string                Image to use
      --kubernetes-version string   Version of kubernetes to run (defaults to version in channel)
      --master-size string          Set instance size for masters
      --master-zones string         Zones in which to run masters (must be an odd number)
      --model string                Models to apply (separate multiple models with commas) (default "config,proto,cloudup")
      --network-cidr string         Set to override the default network CIDR
      --networking string           Networking mode to use.  kubenet (default), classic, external. (default "kubenet")
      --node-count int              Set the number of nodes
      --node-size string            Set instance size for nodes
      --out string                  Path to write any local output
      --project string              Project to use (must be set on GCE)
      --ssh-public-key string       SSH public key to use (default "~/.ssh/id_rsa.pub")
      --target string               Target - direct, terraform (default "direct")
      --vpc string                  Set to use a shared VPC
      --yes                         Specify --yes to immediately create the cluster
      --zones string                Zones in which to run the cluster
  
Global Flags:
      --alsologtostderr                  log to standard error as well as files
      --config string                    config file (default is $HOME/.kops.yaml)
      --log_backtrace_at traceLocation   when logging hits line file:N, emit a stack trace (default :0)
      --log_dir string                   If non-empty, write log files in this directory
      --logtostderr                      log to standard error instead of files (default false)
      --name string                      Name of cluster
      --state string                     Location of state storage
      --stderrthreshold severity         logs at or above this threshold go to stderr (default 2)
  -v, --v Level                          log level for V logs
      --vmodule moduleSpec               comma-separated list of pattern=N settings for file-filtered logging
  • Как только кластер создан, узнайте больше о кластере:
1
2
3
4
5
kubectl cluster-info
Kubernetes master is running at https://api.kubernetes.arungupta.me
KubeDNS is running at https://api.kubernetes.arungupta.me/api/v1/proxy/namespaces/kube-system/services/kube-dns
  
To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.
  • Проверьте клиент кластера и версию сервера:
1
2
3
kubectl version
Client Version: version.Info{Major:"1", Minor:"4", GitVersion:"v1.4.1", GitCommit:"33cf7b9acbb2cb7c9c72a10d6636321fb180b159", GitTreeState:"clean", BuildDate:"2016-10-10T18:19:49Z", GoVersion:"go1.7.1", Compiler:"gc", Platform:"darwin/amd64"}
Server Version: version.Info{Major:"1", Minor:"4", GitVersion:"v1.4.3", GitCommit:"4957b090e9a4f6a68b4a40375408fdc74a212260", GitTreeState:"clean", BuildDate:"2016-10-16T06:20:04Z", GoVersion:"go1.6.3", Compiler:"gc", Platform:"linux/amd64"}
  • Проверьте все узлы в кластере:
1
2
3
4
5
6
7
8
kubectl get nodes
NAME                                           STATUS    AGE
ip-172-20-111-151.us-west-2.compute.internal   Ready     1h
ip-172-20-116-40.us-west-2.compute.internal    Ready     1h
ip-172-20-48-41.us-west-2.compute.internal     Ready     1h
ip-172-20-49-105.us-west-2.compute.internal    Ready     1h
ip-172-20-80-233.us-west-2.compute.internal    Ready     1h
ip-172-20-82-93.us-west-2.compute.internal     Ready     1h

Или узнайте только главные узлы:

1
2
3
4
5
kubectl get nodes -l kubernetes.io/role=master
NAME                                           STATUS    AGE
ip-172-20-111-151.us-west-2.compute.internal   Ready     1h
ip-172-20-48-41.us-west-2.compute.internal     Ready     1h
ip-172-20-82-93.us-west-2.compute.internal     Ready     1h
  • Проверьте все кластеры:
1
2
3
kops-darwin-amd64 get clusters --state=s3://kops-couchbase
NAME            CLOUD    ZONES
kubernetes.arungupta.me    aws    us-west-2a,us-west-2b,us-west-2c

Kubernetes Dashboard Аддон

По умолчанию кластер, созданный с помощью kops, не имеет панели мониторинга пользовательского интерфейса. Но это может быть добавлено как дополнение:

1
2
3
kubectl create -f https://raw.githubusercontent.com/kubernetes/kops/master/addons/kubernetes-dashboard/v1.4.0.yaml
deployment "kubernetes-dashboard-v1.4.0" created
service "kubernetes-dashboard" created

Теперь полные сведения о кластере можно увидеть:

1
2
3
4
5
6
kubectl cluster-info
Kubernetes master is running at https://api.kubernetes.arungupta.me
KubeDNS is running at https://api.kubernetes.arungupta.me/api/v1/proxy/namespaces/kube-system/services/kube-dns
kubernetes-dashboard is running at https://api.kubernetes.arungupta.me/api/v1/proxy/namespaces/kube-system/services/kubernetes-dashboard
  
To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.

И панель управления пользовательского интерфейса Kubernetes находится по указанному URL. В нашем случае это https://api.kubernetes.arungupta.me/ui и выглядит так:

kopš-kubernetes-щ-1024x764

Учетные данные для доступа к этой панели мониторинга можно получить с помощью команды kubectl config view . Значения показаны как:

1
2
3
4
- name: kubernetes.arungupta.me-basic-auth
  user:
    password: PASSWORD
    username: admin

Развернуть Couchbase Service

Как объясняется в разделе Начало работы с Kubernetes 1.4 с использованием Spring Boot и Couchbase , давайте запустим сервис Couchbase:

1
2
3
kubectl create -f ~/workspaces/kubernetes-java-sample/maven/couchbase-service.yml
service "couchbase-service" created
replicationcontroller "couchbase-rc" created

Этот файл конфигурации находится по адресу github.com/arun-gupta/kubernetes-java-sample/blob/master/maven/couchbase-service.yml .

Получить список услуг:

1
2
3
4
kubectl get svc
NAME                CLUSTER-IP     EXTERNAL-IP   PORT(S)                                AGE
couchbase-service   100.65.4.139   <none>        8091/TCP,8092/TCP,8093/TCP,11210/TCP   27s
kubernetes          100.64.0.1     <none>        443/TCP                                2h

Опишите услугу:

01
02
03
04
05
06
07
08
09
10
11
12
13
14
15
16
kubectl describe svc/couchbase-service
Name:            couchbase-service
Namespace:        default
Labels:            <none>
Selector:        app=couchbase-rc-pod
Type:            ClusterIP
IP:            100.65.4.139
Port:            admin    8091/TCP
Endpoints:        100.96.5.2:8091
Port:            views    8092/TCP
Endpoints:        100.96.5.2:8092
Port:            query    8093/TCP
Endpoints:        100.96.5.2:8093
Port:            memcached    11210/TCP
Endpoints:        100.96.5.2:11210
Session Affinity:    None

Получи стручки:

1
2
3
kubectl get pods
NAME                 READY     STATUS    RESTARTS   AGE
couchbase-rc-e35v5   1/1       Running   0          1m

Запустите Spring Boot Application

Приложение Spring Boot работает с сервисом Couchbase и сохраняет в нем документ JSON.

Запустите приложение Spring Boot:

1
2
kubectl create -f ~/workspaces/kubernetes-java-sample/maven/bootiful-couchbase.yml
job "bootiful-couchbase" created

Этот файл конфигурации находится по адресу github.com/arun-gupta/kubernetes-java-sample/blob/master/maven/bootiful-couchbase.yml .

Смотрите список всех контейнеров:

1
2
3
4
5
<
kubectl get pods --show-all
NAME READY STATUS RESTARTS AGE
bootiful-couchbase-ainv8 0/1 Completed 0 1m
couchbase-rc-e35v5 1/1 Running 0 3m

Проверьте журналы полного пакета:

01
02
03
04
05
06
07
08
09
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
kubectl logs bootiful-couchbase-ainv8
 
. ____ _ __ _ _
/\\ / ___'_ __ _ _(_)_ __ __ _ \ \ \ \
( ( )\___ | '_ | '_| | '_ \/ _` | \ \ \ \
\\/ ___)| |_)| | | | | || (_| | ) ) ) )
' |____| .__|_| |_|_| |_\__, | / / / /
=========|_|==============|___/=/_/_/_/
:: Spring Boot :: (v1.4.0.RELEASE)
 
2016-11-02 18:48:56.035 INFO 7 --- [ main] org.example.webapp.Application : Starting Application v1.0-SNAPSHOT on bootiful-couchbase-ainv8 with PID 7 (/maven/bootiful-couchbase.jar started by root in /)
2016-11-02 18:48:56.040 INFO 7 --- [ main] org.example.webapp.Application : No active profile set, falling back to default profiles: default
2016-11-02 18:48:56.115 INFO 7 --- [ main] s.c.a.AnnotationConfigApplicationContext : Refreshing org.springframework.context.annotation.AnnotationConfigApplicationContext@108c4c35: startup date [Wed Nov 02 18:48:56 UTC 2016]; root of context hierarchy
2016-11-02 18:48:57.021 INFO 7 --- [ main] com.couchbase.client.core.CouchbaseCore : CouchbaseEnvironment: {sslEnabled=false, sslKeystoreFile='null', sslKeystorePassword='null', queryEnabled=false, queryPort=8093, bootstrapHttpEnabled=true, bootstrapCarrierEnabled=true, bootstrapHttpDirectPort=8091, bootstrapHttpSslPort=18091, bootstrapCarrierDirectPort=11210, bootstrapCarrierSslPort=11207, ioPoolSize=8, computationPoolSize=8, responseBufferSize=16384, requestBufferSize=16384, kvServiceEndpoints=1, viewServiceEndpoints=1, queryServiceEndpoints=1, searchServiceEndpoints=1, ioPool=NioEventLoopGroup, coreScheduler=CoreScheduler, eventBus=DefaultEventBus, packageNameAndVersion=couchbase-java-client/2.2.8 (git: 2.2.8, core: 1.2.9), dcpEnabled=false, retryStrategy=BestEffort, maxRequestLifetime=75000, retryDelay=ExponentialDelay{growBy 1.0 MICROSECONDS, powers of 2; lower=100, upper=100000}, reconnectDelay=ExponentialDelay{growBy 1.0 MILLISECONDS, powers of 2; lower=32, upper=4096}, observeIntervalDelay=ExponentialDelay{growBy 1.0 MICROSECONDS, powers of 2; lower=10, upper=100000}, keepAliveInterval=30000, autoreleaseAfter=2000, bufferPoolingEnabled=true, tcpNodelayEnabled=true, mutationTokensEnabled=false, socketConnectTimeout=1000, dcpConnectionBufferSize=20971520, dcpConnectionBufferAckThreshold=0.2, dcpConnectionName=dcp/core-io, callbacksOnIoPool=false, queryTimeout=7500, viewTimeout=7500, kvTimeout=2500, connectTimeout=5000, disconnectTimeout=25000, dnsSrvEnabled=false}
2016-11-02 18:48:57.245 INFO 7 --- [ cb-io-1-1] com.couchbase.client.core.node.Node : Connected to Node couchbase-service
2016-11-02 18:48:57.291 INFO 7 --- [ cb-io-1-1] com.couchbase.client.core.node.Node : Disconnected from Node couchbase-service
2016-11-02 18:48:57.533 INFO 7 --- [ cb-io-1-2] com.couchbase.client.core.node.Node : Connected to Node couchbase-service
2016-11-02 18:48:57.638 INFO 7 --- [-computations-4] c.c.c.core.config.ConfigurationProvider : Opened bucket books
2016-11-02 18:48:58.152 INFO 7 --- [ main] o.s.j.e.a.AnnotationMBeanExporter : Registering beans for JMX exposure on startup
Book{isbn=978-1-4919-1889-0, name=Minecraft Modding with Forge, cost=29.99}
2016-11-02 18:48:58.402 INFO 7 --- [ main] org.example.webapp.Application : Started Application in 2.799 seconds (JVM running for 3.141)
2016-11-02 18:48:58.403 INFO 7 --- [ Thread-5] s.c.a.AnnotationConfigApplicationContext : Closing org.springframework.context.annotation.AnnotationConfigApplicationContext@108c4c35: startup date [Wed Nov 02 18:48:56 UTC 2016]; root of context hierarchy
2016-11-02 18:48:58.404 INFO 7 --- [ Thread-5] o.s.j.e.a.AnnotationMBeanExporter : Unregistering JMX-exposed beans on shutdown
2016-11-02 18:48:58.410 INFO 7 --- [ cb-io-1-2] com.couchbase.client.core.node.Node : Disconnected from Node couchbase-service
2016-11-02 18:48:58.410 INFO 7 --- [ Thread-5] c.c.c.core.config.ConfigurationProvider : Closed bucket books

Обновленная панель мониторинга теперь выглядит следующим образом:

Kops-панель-с приложениями

Удалить кластер Kubernetes

Kubernetes кластер может быть удален как:

001
002
003
004
005
006
007
008
009
010
011
012
013
014
015
016
017
018
019
020
021
022
023
024
025
026
027
028
029
030
031
032
033
034
035
036
037
038
039
040
041
042
043
044
045
046
047
048
049
050
051
052
053
054
055
056
057
058
059
060
061
062
063
064
065
066
067
068
069
070
071
072
073
074
075
076
077
078
079
080
081
082
083
084
085
086
087
088
089
090
091
092
093
094
095
096
097
098
099
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
kops-darwin-amd64 delete cluster --name=kubernetes.arungupta.me --state=s3://kops-couchbase --yes
TYPE            NAME                                            ID
autoscaling-config    master-us-west-2a.masters.kubernetes.arungupta.me-20161101235639            master-us-west-2a.masters.kubernetes.arungupta.me-20161101235639
autoscaling-config    master-us-west-2b.masters.kubernetes.arungupta.me-20161101235639            master-us-west-2b.masters.kubernetes.arungupta.me-20161101235639
autoscaling-config    master-us-west-2c.masters.kubernetes.arungupta.me-20161101235639            master-us-west-2c.masters.kubernetes.arungupta.me-20161101235639
autoscaling-config    nodes.kubernetes.arungupta.me-20161101235639                        nodes.kubernetes.arungupta.me-20161101235639
autoscaling-group    master-us-west-2a.masters.kubernetes.arungupta.me                    master-us-west-2a.masters.kubernetes.arungupta.me
autoscaling-group    master-us-west-2b.masters.kubernetes.arungupta.me                    master-us-west-2b.masters.kubernetes.arungupta.me
autoscaling-group    master-us-west-2c.masters.kubernetes.arungupta.me                    master-us-west-2c.masters.kubernetes.arungupta.me
autoscaling-group    nodes.kubernetes.arungupta.me                                nodes.kubernetes.arungupta.me
dhcp-options        kubernetes.arungupta.me                                    dopt-9b7b08ff
iam-instance-profile    masters.kubernetes.arungupta.me                                masters.kubernetes.arungupta.me
iam-instance-profile    nodes.kubernetes.arungupta.me                                nodes.kubernetes.arungupta.me
iam-role        masters.kubernetes.arungupta.me                                masters.kubernetes.arungupta.me
iam-role        nodes.kubernetes.arungupta.me                                nodes.kubernetes.arungupta.me
instance        master-us-west-2a.masters.kubernetes.arungupta.me                    i-8798eb9f
instance        master-us-west-2b.masters.kubernetes.arungupta.me                    i-eca96ab3
instance        master-us-west-2c.masters.kubernetes.arungupta.me                    i-63fd3dbf
instance        nodes.kubernetes.arungupta.me                                i-21a96a7e
instance        nodes.kubernetes.arungupta.me                                i-57fb3b8b
instance        nodes.kubernetes.arungupta.me                                i-5c99ea44
internet-gateway    kubernetes.arungupta.me                                    igw-b624abd2
keypair            kubernetes.kubernetes.arungupta.me-18:90:41:6f:5f:79:6a:a8:d5:b6:b8:3f:10:d5:d3:f3    kubernetes.kubernetes.arungupta.me-18:90:41:6f:5f:79:6a:a8:d5:b6:b8:3f:10:d5:d3:f3
route-table        kubernetes.arungupta.me                                    rtb-e44df183
route53-record        api.internal.kubernetes.arungupta.me.                            Z6I41VJM5VCZV/api.internal.kubernetes.arungupta.me.
route53-record        api.kubernetes.arungupta.me.                                Z6I41VJM5VCZV/api.kubernetes.arungupta.me.
route53-record        etcd-events-us-west-2a.internal.kubernetes.arungupta.me.                Z6I41VJM5VCZV/etcd-events-us-west-2a.internal.kubernetes.arungupta.me.
route53-record        etcd-events-us-west-2b.internal.kubernetes.arungupta.me.                Z6I41VJM5VCZV/etcd-events-us-west-2b.internal.kubernetes.arungupta.me.
route53-record        etcd-events-us-west-2c.internal.kubernetes.arungupta.me.                Z6I41VJM5VCZV/etcd-events-us-west-2c.internal.kubernetes.arungupta.me.
route53-record        etcd-us-west-2a.internal.kubernetes.arungupta.me.                    Z6I41VJM5VCZV/etcd-us-west-2a.internal.kubernetes.arungupta.me.
route53-record        etcd-us-west-2b.internal.kubernetes.arungupta.me.                    Z6I41VJM5VCZV/etcd-us-west-2b.internal.kubernetes.arungupta.me.
route53-record        etcd-us-west-2c.internal.kubernetes.arungupta.me.                    Z6I41VJM5VCZV/etcd-us-west-2c.internal.kubernetes.arungupta.me.
security-group        masters.kubernetes.arungupta.me                                sg-3e790f47
security-group        nodes.kubernetes.arungupta.me                                sg-3f790f46
subnet            us-west-2a.kubernetes.arungupta.me                            subnet-3cdbc958
subnet            us-west-2b.kubernetes.arungupta.me                            subnet-18c3f76e
subnet            us-west-2c.kubernetes.arungupta.me                            subnet-b30f6deb
volume            us-west-2a.etcd-events.kubernetes.arungupta.me                        vol-202350a8
volume            us-west-2a.etcd-main.kubernetes.arungupta.me                        vol-0a235082
volume            us-west-2b.etcd-events.kubernetes.arungupta.me                        vol-401f5bf4
volume            us-west-2b.etcd-main.kubernetes.arungupta.me                        vol-691f5bdd
volume            us-west-2c.etcd-events.kubernetes.arungupta.me                        vol-aefe163b
volume            us-west-2c.etcd-main.kubernetes.arungupta.me                        vol-e9fd157c
vpc            kubernetes.arungupta.me                                    vpc-e5f50382
  
internet-gateway:igw-b624abd2    still has dependencies, will retry
keypair:kubernetes.kubernetes.arungupta.me-18:90:41:6f:5f:79:6a:a8:d5:b6:b8:3f:10:d5:d3:f3    ok
instance:i-5c99ea44    ok
instance:i-63fd3dbf    ok
instance:i-eca96ab3    ok
instance:i-21a96a7e    ok
autoscaling-group:master-us-west-2a.masters.kubernetes.arungupta.me    ok
autoscaling-group:master-us-west-2b.masters.kubernetes.arungupta.me    ok
autoscaling-group:master-us-west-2c.masters.kubernetes.arungupta.me    ok
autoscaling-group:nodes.kubernetes.arungupta.me    ok
iam-instance-profile:nodes.kubernetes.arungupta.me    ok
iam-instance-profile:masters.kubernetes.arungupta.me    ok
instance:i-57fb3b8b    ok
instance:i-8798eb9f    ok
route53-record:Z6I41VJM5VCZV/etcd-events-us-west-2a.internal.kubernetes.arungupta.me.    ok
iam-role:nodes.kubernetes.arungupta.me    ok
iam-role:masters.kubernetes.arungupta.me    ok
autoscaling-config:nodes.kubernetes.arungupta.me-20161101235639    ok
autoscaling-config:master-us-west-2b.masters.kubernetes.arungupta.me-20161101235639    ok
subnet:subnet-b30f6deb    still has dependencies, will retry
subnet:subnet-3cdbc958    still has dependencies, will retry
subnet:subnet-18c3f76e    still has dependencies, will retry
autoscaling-config:master-us-west-2a.masters.kubernetes.arungupta.me-20161101235639    ok
autoscaling-config:master-us-west-2c.masters.kubernetes.arungupta.me-20161101235639    ok
volume:vol-0a235082    still has dependencies, will retry
volume:vol-202350a8    still has dependencies, will retry
volume:vol-401f5bf4    still has dependencies, will retry
volume:vol-e9fd157c    still has dependencies, will retry
volume:vol-aefe163b    still has dependencies, will retry
volume:vol-691f5bdd    still has dependencies, will retry
security-group:sg-3f790f46    still has dependencies, will retry
security-group:sg-3e790f47    still has dependencies, will retry
Not all resources deleted; waiting before reattempting deletion
    internet-gateway:igw-b624abd2
    security-group:sg-3f790f46
    volume:vol-aefe163b
    route-table:rtb-e44df183
    volume:vol-401f5bf4
    subnet:subnet-18c3f76e
    security-group:sg-3e790f47
    volume:vol-691f5bdd
    subnet:subnet-3cdbc958
    volume:vol-202350a8
    volume:vol-0a235082
    dhcp-options:dopt-9b7b08ff
    subnet:subnet-b30f6deb
    volume:vol-e9fd157c
    vpc:vpc-e5f50382
internet-gateway:igw-b624abd2    still has dependencies, will retry
volume:vol-e9fd157c    still has dependencies, will retry
subnet:subnet-3cdbc958    still has dependencies, will retry
subnet:subnet-18c3f76e    still has dependencies, will retry
subnet:subnet-b30f6deb    still has dependencies, will retry
volume:vol-0a235082    still has dependencies, will retry
volume:vol-aefe163b    still has dependencies, will retry
volume:vol-691f5bdd    still has dependencies, will retry
volume:vol-202350a8    still has dependencies, will retry
volume:vol-401f5bf4    still has dependencies, will retry
security-group:sg-3f790f46    still has dependencies, will retry
security-group:sg-3e790f47    still has dependencies, will retry
Not all resources deleted; waiting before reattempting deletion
    subnet:subnet-b30f6deb
    volume:vol-e9fd157c
    vpc:vpc-e5f50382
    internet-gateway:igw-b624abd2
    security-group:sg-3f790f46
    volume:vol-aefe163b
    route-table:rtb-e44df183
    volume:vol-401f5bf4
    subnet:subnet-18c3f76e
    security-group:sg-3e790f47
    volume:vol-691f5bdd
    subnet:subnet-3cdbc958
    volume:vol-202350a8
    volume:vol-0a235082
    dhcp-options:dopt-9b7b08ff
subnet:subnet-18c3f76e    still has dependencies, will retry
subnet:subnet-b30f6deb    still has dependencies, will retry
internet-gateway:igw-b624abd2    still has dependencies, will retry
subnet:subnet-3cdbc958    still has dependencies, will retry
volume:vol-691f5bdd    still has dependencies, will retry
volume:vol-0a235082    still has dependencies, will retry
volume:vol-202350a8    still has dependencies, will retry
volume:vol-401f5bf4    still has dependencies, will retry
volume:vol-aefe163b    still has dependencies, will retry
volume:vol-e9fd157c    still has dependencies, will retry
security-group:sg-3e790f47    still has dependencies, will retry
security-group:sg-3f790f46    still has dependencies, will retry
Not all resources deleted; waiting before reattempting deletion
    internet-gateway:igw-b624abd2
    security-group:sg-3f790f46
    volume:vol-aefe163b
    route-table:rtb-e44df183
    volume:vol-401f5bf4
    subnet:subnet-18c3f76e
    security-group:sg-3e790f47
    volume:vol-691f5bdd
    subnet:subnet-3cdbc958
    volume:vol-202350a8
    volume:vol-0a235082
    dhcp-options:dopt-9b7b08ff
    subnet:subnet-b30f6deb
    volume:vol-e9fd157c
    vpc:vpc-e5f50382
subnet:subnet-b30f6deb    still has dependencies, will retry
volume:vol-202350a8    still has dependencies, will retry
internet-gateway:igw-b624abd2    still has dependencies, will retry
subnet:subnet-18c3f76e    still has dependencies, will retry
volume:vol-e9fd157c    still has dependencies, will retry
volume:vol-aefe163b    still has dependencies, will retry
volume:vol-401f5bf4    still has dependencies, will retry
volume:vol-691f5bdd    still has dependencies, will retry
security-group:sg-3e790f47    still has dependencies, will retry
security-group:sg-3f790f46    still has dependencies, will retry
subnet:subnet-3cdbc958    still has dependencies, will retry
volume:vol-0a235082    still has dependencies, will retry
Not all resources deleted; waiting before reattempting deletion
    internet-gateway:igw-b624abd2
    security-group:sg-3f790f46
    volume:vol-aefe163b
    route-table:rtb-e44df183
    subnet:subnet-18c3f76e
    security-group:sg-3e790f47
    volume:vol-691f5bdd
    volume:vol-401f5bf4
    volume:vol-202350a8
    subnet:subnet-3cdbc958
    volume:vol-0a235082
    dhcp-options:dopt-9b7b08ff
    subnet:subnet-b30f6deb
    volume:vol-e9fd157c
    vpc:vpc-e5f50382
subnet:subnet-18c3f76e    ok
volume:vol-e9fd157c    ok
volume:vol-401f5bf4    ok
volume:vol-0a235082    ok
volume:vol-691f5bdd    ok
subnet:subnet-3cdbc958    ok
volume:vol-aefe163b    ok
subnet:subnet-b30f6deb    ok
internet-gateway:igw-b624abd2    ok
volume:vol-202350a8    ok
security-group:sg-3f790f46    ok
security-group:sg-3e790f47    ok
route-table:rtb-e44df183    ok
vpc:vpc-e5f50382    ok
dhcp-options:dopt-9b7b08ff    ok
  
Cluster deleted

couchbase.com/containers предоставляет более подробную информацию о том, как запустить Couchbase в различных контейнерах.

Больше информации о Couchbase: