Вот так вот сложилось, что я последнее время плотно работаю с PostgreSQL, в связи с чем, очередная противозабывательная статья. Всё, здесь описанное, опирается на два великолепных документа: https://its.1c.ru/db/metod8dev/content/5971/hdoc и https://habr.com/ru/post/504044/
ДалееАвтор:
PgBouncer
Очередная противозабывательная заметка. Как обычно, всё начинается с того, что архитектура системы отсутствует, нагрузка возрастает, пользователи жалуются. Сервер PostgreSQL перестает справляться с нагрузкой, надо срочно подпереть костылём.
Возникает логичное(на взгляд инфраструктуры) желание отправить все SELECT на мастер и реплику, а все остальные запросы только на мастер. Попутно прочитано про мультиплексор PgBouncer, сразу ясно, что такой хорошей вещью хуже не сделаешь.
ДалееPostgreSQL 10. Кластер и резервное копирование.
Для того, чтобы проделанная работа не пропала даром, и чтобы легче было потом вспоминать пройденное, выкладываю краткую инструкцию по настройке кластера PostgreSQL 10 и резервного копирования с помощью BARMAN.
ДалееДоступ к удаленным сетям с помощью IPSec GRE туннеля между Cisco IOS и FreeBSD
Добрый день, уважаемые читатели. Хотел бы поделиться своим способом решения одной замысловатой задачи.
Допустим, имеется хост, по какой-либо причине недоступный на территории России. Доступ к этому хосту необходимо обеспечивать из небольшой локальной сети. Для решения проблемы есть возможность воспользоваться виртуальной машиной с FreeBSD 12, размещенной в облаке Microsoft Azure.
Схема стенда
Конфигурация маршрутизатора Cisco:
ДалееКак подключить к FreeBSD дисковый массив по FibreChannel и перенести туда Cacti
Для мониторинга у нас используется Cacti, который весьма разросся — RRD файлы теперь занимают больше 500Гб. Естественно, сервер большую часть времени занят тем, что пишет в эти файлы, ни на что другое времени у него практически не остается. В связи с этим мы решили подключить к серверу дисковый массив, что-бы немного разгрузиться по дискам.
Совет будет совсем коротенький, больше для того, что-бы не забыть самому:
Делаем вот что: полка разбита на 4 RAID0 массива, с помощью zpool собираем из в зеркало и монтируем в каталог Cacti.
camcontrol rescan all
camcontrol devlist | grep lun
gmultipath label -v DDN-v00 /dev/da0 /dev/da2
gmultipath label -v DDN-v01 /dev/da1 /dev/da3
gmultipath label -v DDN-v02 /dev/da4 /dev/da6
gmultipath label -v DDN-v03 /dev/da5 /dev/da7
gmultipath status
zpool create -m /usr/local/share/cacti/rra/cacti-zfs-00 cacti-zfs-00 mirror multipath/DDN-v00 multipath/DDN-v01
zpool create -m /usr/local/share/cacti/rra/cacti-zfs-01 cacti-zfs-01 mirror multipath/DDN-v02 multipath/DDN-v03
zpool status
Если вы не хотите изменять путь к файлам через интерфейс Cacti, то нужно внести изменения в две таблицы:
UPDATE poller_item SET rrd_path = replace(rrd_path, '/usr/local/share/cacti/rra/', '/usr/local/share/cacti/rra/cacti-zfs-00/') WHERE rrd_path LIKE "/usr/local/share/cacti/rra/MY_DEVICE_NAME%";
UPDATE data_template_data SET data_source_path = replace(data_source_path, '
SELECT rrd_name,rrd_path FROM poller_item WHERE rrd_path LIKE "/usr/local/share/cacti/rra/MY_DEVICE_NAME%";
SELECT name_cache,data_source_path FROM data_template_data WHERE name_cache LIKE "MY_DEVICE_NAME%";