Мониторинг Ceph кластера

Мониторинг Ceph кластера используя Prometheus и платформу визуализации Grafana.

Grafana - открытая и бесплатная платформа визуализации данных и мониторинга с поддержкой Graphite, InfluxDB, Prometheus, Elasticsearch и многих других баз.

Для мониторинга Ceph кластера мы будем использовать Prometheus

Prometheus - это система мониторинга с открытым исходным кодом, разработанная SoundCloud. Как и другие системы мониторинга, такие как InfluxDB и Graphite, Prometheus хранит все свои данные в базе данных временных рядов.

Установим актуальную версию Grafana с официального сайта:

yum install https://s3-us-west-2.amazonaws.com/grafana-releases/release/grafana-4.4.3-1.x86_64.rpm

Либо используя репозиторий /etc/yum.repos.d/grafana.repo:

[grafana]
name=grafana
baseurl=https://packagecloud.io/grafana/stable/el/6/$basearch
repo_gpgcheck=1
enabled=1
gpgcheck=1
gpgkey=https://packagecloud.io/gpg.key https://grafanarel.s3.amazonaws.com/RPM-GPG-KEY-grafana
sslverify=1
sslcacert=/etc/pki/tls/certs/ca-bundle.crt

И ставим пакет:

yum install grafana

Добавляем сервис в автозагрузку:

systemctl enable grafana-server.service

Запускаем сервис:

systemctl start grafana-server

После установки Grafana будет доступна по адресу: http://IP_ADDRESS:3000

Логин/пароль по умолчанию admin/admin.

Создаем non-root sudo пользователя prometheus.

echo "prometheus ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/prometheus && sudo chmod 0440 /etc/sudoers.d/prometheus

Загружаем стабильную версию продукта:

$ curl -LO "https://github.com/prometheus/prometheus/releases/download/v1.7.1/prometheus-1.7.1.linux-amd64.tar.gz"

Создаем директорию для Prometheus:

$ mkdir ~/Prometheus

И распаковываем в неё загруженный архив:

$ tar -xvzf ~/prometheus-1.7.1.linux-amd64.tar.gz

Проверяем установленную версию Prometheus:

$ /home/prometheus/Prometheus/prometheus-1.7.1.linux-amd64/prometheus -version

Увидим приблизительно следующий вывод:

prometheus, version 1.7.1 (branch: master, revision: 3afb3fffa3a29c3de865e1172fb740442e9d0133)
  build user:   root@0aa1b7fc430d
  build date:       20170612-11:44:05
  go version:       go1.8.3

В целом установка Prometheus завершена.

Переходим в директорию с установленным Prometheus

$ /home/prometheus/Prometheus/prometheus-1.7.1.linux-amd64/

Редактируем конфигурационный файл prometheus.yml:

...
 - job_name: 'ceph-exporter'
    static_configs:
   - targets: ['YOU_IP_ADDRESS:9128']
        labels:
          alias: ceph-exporter

Запускаем Prometheus в фоновом режиме:

nohup ./prometheus > prometheus.log 2>&1 &

Посмотреть лог-файл сервиса Prometheus:

tail -f prometheus.log

Вывод приблизительно следующий:

time="2017-09-14T12:21:58+03:00" level=info msg="Starting prometheus (version=1.7.1, branch=master, revision=3afb3fffa3a29c3de865e1172fb740442e9d0133)" source="main.go:88"
time="2017-09-14T12:21:58+03:00" level=info msg="Build context (go=go1.8.3, user=root@0aa1b7fc430d, date=20170612-11:44:05)" source="main.go:89"
time="2017-09-14T12:21:58+03:00" level=info msg="Host details (Linux 3.10.0-514.21.1.el7.x86_64 #1 SMP Thu May 25 17:04:51 UTC 2017 x86_64 InfraCephManage (none))" source="main.go:90"
time="2017-09-14T12:21:58+03:00" level=info msg="Loading configuration file prometheus.yml" source="main.go:252"
time="2017-09-14T12:21:58+03:00" level=info msg="Loading series map and head chunks..." source="storage.go:428"
time="2017-09-14T12:21:58+03:00" level=info msg="0 series loaded." source="storage.go:439"
time="2017-09-14T12:21:58+03:00" level=info msg="Starting target manager..." source="targetmanager.go:63"
time="2017-09-14T12:21:58+03:00" level=info msg="Listening on :9090" source="web.go:259"

Веб-интерфейс доступен по адресу: http://YOUR_IP_ADDRESS:9090

Для экспорта данных о Ceph кластере будем использовать Ceph Exporter

В данной статье будет рассмотрен пример с Docker-контейнером, на ГХ можно найти мануал по установке на Go.

Итак, установим Docker, если он еще не установлен в системе:

$ sudo yum install docker

Добавим в автозагрузку и запустим:

$ sudo systemctl enable docker
$ sudo  systemctl start docker

Выгружаем контейнер:

$ sudo docker pull digitalocean/ceph_exporter

Запускаем контейнер с дополнительными опциями (указываем папку с конфигурационными файлами Ceph, а также порт на котором будет слушаться экспортер):

$ sudo docker run -v /etc/ceph:/etc/ceph -p=9128:9128 -td digitalocean/ceph_exporter

Проверяем, что контейнер запущен:

$ sudo docker stats
CONTAINER   CPU %               MEM USAGE / LIMIT       MEM %               NET I/O               BLOCK I/O           PIDS
bc05ae2b7acb        0.04%               5.922 MiB / 992.7 MiB   0.60%               47.11 kB / 16.86 kB   23.66 MB / 0 B      16

Добавляем источник данных в Grafana:

Затем добавляем дашборд. В данном примере используется Ceph - Cluster шаблон с Grafana Labs. Добавляем его. (Для удобства можно использовать ID 917 для быстрого импорта).

Переходим в добавленный дашборд и, если все действия были выполнены правильно, то наблюдаем информацию о нашем Ceph кластере.