вторник, 22 мая 2012 г.

Бег по граблям , или новый софт

Дерьмовая ситуация  с  современным софтописанием давно уже стала  общим местом , но в последнее время эта ситуация приобрела откровенно безумно-маразматический оттенок .
Ладно , я понимаю , что новый релиз  NB  сопровождается набором патчей размером в 2 Gb
Я еще могу предположить как происходят реинкарнация ошибок пятилетней давности  в драйверах Qlogic-a
Но вчерашняя ситуация - это уже загранью добра и зла .
Кратко сюжет  - продуктовая база стала сильно подтормаживать временами - вплоть до залипания консоли . Сотрудник (Зоркий сокол ) быстро нашел  источник проблем - см. картинку . 
Новая версия ораклового  агента EMGrid  жрет больше процессора , чем база , которую он должен мониторить . Охренеть .

ЗЫ.   Попытки штатного конфигурированя агента вчера успеха не дали .

понедельник, 21 мая 2012 г.

ZFS vs VxFS - part 2

В пятницу не успел закончить пред. заметку  - пришлось срочно убегать .
Итак , ситуация была весьма скверная , основной причиной этого являлась чрезмерная склонность ZFS  кэшировать данные .  На слабых  'дисках'  это проявляется очень хорошо .
После некоторых раздумий было решено переразбить рейд-группы и поменять файловую систему .
Понятно , что для этого понадобилось  перенести куда-то лежащие там данные и времени это заняло немало .
Переделка рейдов
Из  двух  групп  по 11 дисков   6 рейда было сделано  4 группы пятого рейда .
Каждая группа  приводилась на хост , как и ранее ,  одним луном .  
Файловая система .
Было решено перейти за хорошо знакомую  старую добрую VxFS , вот результат






"Почувствуйте разницу"(c)

Понятно , что это не совсем чистое сравнение файловых систем , но подчеркну следующие моменты

1. Число и сами диски  остались без изменений
2. Данные  после обратного перемещения  прежние
3. Характер доступа к данным также не поменялся


В целом замечено , что VxFS  более равномерно осуществляет запись  , иногда даже   уменьшая производительность по IOPS . В результате диски  не "заклинивает"  на бесконечных 100%  device busy

пятница, 18 мая 2012 г.

ZFS против VxFS - сравнение

Пару лет назад  получили  большую  полку AMS2500 , SATA 2T disk
Ее прицепили к серверу DWH , на некоторое время вечная проблема нехватки места была решена . Для получения наибольшей отдачи по месту  для DWH сделали пару 6  raid group  9+2 . Каждая группа отдавалась на хост как один Lun , сверху решили положить ZFS как продвинутую и современную файловую систему .
Сначала , как всегда , все хорошо работало . Затем народ стал жаловаться , вполне обычно - "все тормозит , запросы медленно выполняются"
Анализ показал , что несмотря на клятвенные заверения DBA , что данные на полке ТОЛЬКО для чтения  , на нее  идет запись . Причем немалая .
В результате времена выполнения становились временами просто астрономическими . Busy на дисках - 100%
Более глубокое изучение показало ,  что ZFS кэширует данные на запись в памяти , а  затем пытается сбросить их на диск . Причем такое впечатление , что сбросить все сразу . Результат  , понятно , очень плохой