Замена диска в mdadm RAID1

Posted in Новости on июня 8, 2018 by admin

1. Вылетел диск :

cat /proc/mdstat
Personalities : [raid1] [raid10] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sdb1[1] sda1[2](F)
4200896 blocks [2/1] [_U]

md1 : active raid1 sdb2[1] sda2[2](F)
2104448 blocks [2/1] [_U]

md2 : active raid1 sdb3[1] sda3[2](F)
286728000 blocks [2/1] [_U]

unused devices:

2. Видим, что вылетел /dev/sda. Удаляем вылетевший диск из массивов :

mdadm /dev/md0 --remove /dev/sda1
mdadm /dev/md1 --remove /dev/sda2
mdadm /dev/md2 --remove /dev/sda3

3. Меняем вылетевший диск. Переносим таблицу разделов на новый чистый диск

!!!!!!!!!!!!!!!! WARNING !!!!!!!!!!!!!!!!! Очень внимательно смотрим направление копирования таблицы разделов, иначе затрем все данные
sfdisk -d /dev/sdb | sfdisk /dev/sda

4. Ставим граб на новый диск :

grub-install /dev/sda

5. Вносим в массивы новый диск :

mdadm /dev/md0 -a /dev/sda1
mdadm /dev/md1 -a /dev/sda2
mdadm /dev/md2 -a /dev/sda3

6. Смотрим за синхронизацией :

cat /proc/mdstat

Tags: , , ,

Device br0 does not seem to be present, delaying initialization.

Posted in Новости on марта 1, 2017 by admin


sed -i 's/TYPE=bridge/TYPE=Bridge/g' /etc/sysconfig/network-scripts/ifcfg-br0
shutdown -r now

Tags: ,

Расширение gluster volume

Posted in Новости on февраля 10, 2017 by admin

Допустим у нас есть два сервера ( s1 и s2 ) с brick и репликацией волюма и нам нужно добавить еще один ( s3 ). Условимся, что все ПО уже стоит на третьем ( gluster-server glusterfs и прочее сопутствующее ). Все операции будем проводить с одной из текущих нод :

1. Проверяем доступность гластера
gluster peer probe s3
Probe successful

2. Подключаем новый волюм и увеличиваем репликацию
gluster volume add-brick replica 3 s3:/path/to/mounted/brick
Add Brick successful

3. Проверяем теперь на любом из серверов, что волюм был изменен :
gluster volume info

Tags: , , ,

Быстрый сетап elasticsearch cluster на docker

Posted in Новости on апреля 14, 2016 by admin

node1 — master — 1.1.1.1
node2 — slave — 2.2.2.2
node3 — slave — 3.3.3.3

Одна нода :

docker run -d --name es-master -p 9200:9200 es
docker run -d --name es-slave1 --link es-master -e UNICAST_HOSTS=es-master es
docker run -d --name es-slave2 --link es-master -e UNICAST_HOSTS=es-master es

Между разными docker нодами.
node1 :

docker run --net=host -d --name elasticsearch -p 9200:9200 -p 9300:9300 -e CLUSTER=Prod itzg/elasticsearch

node2,node3 :

docker run --net=host -d --name elasticsearch -p 9200:9200 -p 9300:9300 -e UNICAST_HOSTS=1.1.1.1 -e CLUSTER=Prod itzg/elasticsearch

Tags: , , , ,

Запускаем docker consul кластер между физическими серверами

Posted in Новости on апреля 14, 2016 by admin

Серверы :

node1 - master - external ip : 1.1.1.1
node2 - slave - external ip : 2.2.2.2
node3 - slave - external ip : 3.3.3.3

Стартуем master :

docker run -d -v /mnt:/data \
--name consul \
-p 8300:8300 \
-p 8301:8301 \
-p 8301:8301/udp \
-p 8302:8302 \
-p 8302:8302/udp \
-p 8400:8400 \
-p 8500:8500 \
-p 53:53/udp \
progrium/consul -server -advertise=1.1.1.1 -bootstrap-expect 3

Стартуем первый slave :

docker run -d -v /mnt:/data \
--name consul \
-p 8300:8300 \
-p 8301:8301 \
-p 8301:8301/udp \
-p 8302:8302 \
-p 8302:8302/udp \
-p 8400:8400 \
-p 8500:8500 \
progrium/consul -server -advertise=2.2.2.2 -join 1.1.1.1

Стартуем второй slave :

docker run -d -v /mnt:/data \
--name consul \
-p 8300:8300 \
-p 8301:8301 \
-p 8301:8301/udp \
-p 8302:8302 \
-p 8302:8302/udp \
-p 8400:8400 \
-p 8500:8500 \
progrium/consul -server -advertise=3.3.3.3 -join 1.1.1.1

Tags: , , , ,