Статьи

Оператор Kubernetes Spark в OpenShift Origin (часть 1)

Эта серия статей об операторе искры Kubernetes от Radanalytics.io на
Происхождение OpenShift . Это оператор с открытым исходным кодом для управления
Apache Spark кластеры и приложения.

Чтобы развернуть оператор в OpenShift Origin, в первый раз вам необходимо клонировать для него GitHub-репозиторий:

1
git clone https://github.com/radanalyticsio/spark-operator.git

Затем войдите в кластер с помощью командной строки OpenShift
ок :

1
oc login -u <username>:<password>

Предполагая, что, как и в средах OpenShift Origin, с которыми я и мои команды работали, у разработчиков нет прав на создание CRD, вам нужно использовать Config Maps, поэтому вам нужно создать оператора с помощью
Файл operator-com.yaml, предоставленный в клонированном репо:

1
oc apply -f manifest/operator-cm.yaml

Вывод команды выше должен быть следующим:

1
serviceaccount/spark-operator created<br>role.rbac.authorization.k8s.io/edit-resources created<br>rolebinding.rbac.authorization.k8s.io/spark-operator-edit-resources created<br>deployment.apps/spark-operator created

После того, как оператор был успешно создан, вы можете попытаться создать свой первый кластер. Выберите конкретный проект, который вы хотите использовать:

1
oc project <project_name>

а затем создайте небольшой кластер Spark (1 мастер и 2 рабочих), используя файл примера для ConfigMaps, доступный в клонированном репо:

1
oc apply -f examples/cluster-cm.yaml

Вот содержимое этого файла:

01
02
03
04
05
06
07
08
09
10
11
12
apiVersion: v1
kind: ConfigMap
metadata:
  name: my-spark-cluster
  labels:
    radanalytics.io/kind: SparkCluster
data:
  config: |-
    worker:
      instances: "2"
    master:
      instances: "1"

Вывод вышеуказанной команды:

1
configmap/my-spark-cluster created

После успешного создания кластера, глядя на веб-интерфейс OpenShift, ситуация должна выглядеть следующим образом:

Искровой оператор

Чтобы получить доступ к веб-интерфейсу Spark, вам необходимо создать для него маршрут. Это можно сделать с помощью пользовательского интерфейса OpenShift Origin, выбрав службу Spark и нажав
ссылка на маршрут . Как только маршрут будет создан, веб-интерфейс Spark для мастера (см. Рисунок ниже) и рабочих будет доступен из-за пределов OpenShift.

Искровой оператор

Теперь вы можете использовать кластер Spark. Вы можете начать тестирование, войдя в консоль главного модуля, запустив там оболочку Scala Spark и выполнив некоторый код:

Искровой оператор

Во второй части этой серии мы собираемся изучить детали реализации и конфигурации оператора Spark, прежде чем переходить к управлению приложениями Spark.

Смотрите оригинальную статью здесь: Оператор искры Kubernetes в OpenShift Origin (часть 1)

Мнения, высказанные участниками Java Code Geeks, являются их собственными.