Сайт · Форум · Инструменты · Блог Форум WindowsFAQ

Назад   Форум WindowsFAQ > Общий раздел > Железо, периферия

Тема закрыта
 
Действия над темой
Гость
 
Intel Rapid - замена SSD в RAID1 21-03-2016, 09:32
Привет!
Собственно пациент:
1. "Сервер" на базе материнки "ASUS Z97-K" с "Intel Rapid" и собранными двумя массивами RAID1.
2. В массиве из двух SSD, системный раздел + файловая база 1С, по предварительной информации вышел из строя один SSD
* Сообщение в оснастке "Технология хранения Intel Rapid" - "Состояние: возможна неисправность (Событие SMART)"
* CrystalDiskInfo - Техсостояние - "Плохо"
* CrystalDiskInfo - E7 - "Оставшийся ресурс SSD":
Текущее - 1
Наихудшее - 1
Порог - 10

Скрины: http://disk.tom.ru/j2svxmq

Т.к. с Intel Rapid в живую придётся работать впервые ("сервер" достался в наследство) готовлю план мероприятий по замене сразу обоих дисков в массиве с SSD на WD Re, т.к. по моему мнению HyperX SSD — SH103S3 не особо рассчитаны на выполнение тех задач которые им приходится выполнять сейчас в данной конфигурации.

Приблизительно план выглядит следующим образом:
1. Загрузка с Live CD Acronis True Image
2. Создание полного образа деградировавшего массива (в сеть|на usb hdd|на sata hdd)
3. Проверка работоспособности созданного образа на отдельном стенде
4. Замена вышедшего из строя SSD в массиве
5. Перестроение массива
6. Замена ещё работающего SSD в массиве
7. Перестроение массива

Вопрос:
Мелочи то, что SSD объёмом 120Gb меняю на WD Re 500Gb с потерей пространства за пределами 120Gb. Больше всего интересует вопрос сможет ли Acronis правильно идентифицировать "бюджетный RAID" на базе "Intel Rapid" в виде единого диска, а не в виде двух?
Реклама
Зарегистрируйтесь, чтобы скрыть этот блок
www_tank
Админ-блондинкО
 
Регистрация: сен 2002
Сообщений: 10 656
Сила репутации: 32
Репутация: 599
21-03-2016, 10:20 Инфо Контакт
я очень сильно сомневаюсь, что любой рэйд съест не то что один диск за два, а даже разнотиные диски в одном массиве.
конкретно с этим интел не приходилось работать
www_tank is offline
Гость
 
21-03-2016, 10:51
Цитата (автор www_tank):
я очень сильно сомневаюсь, что любой рэйд съест не то что один диск за два, а даже разнотиные диски в одном массиве.
конкретно с этим интел не приходилось работать
1. Количество дисков в массиве меняться не будет.
2. Из опыта работы с приличными RAID-контроллерами от LSI и Adaptec могу сказать, что лишнее пространство на диске большего объёма подключаемого в массив с дисками меньшего объёма просто остаётся неиспользованным и всё.
3. Суть вопроса именно Acronis - по остальным пунктам я более-менее готов практически к любому исходу.
Dmitry_4
Системный дефлоратор
 
Регистрация: май 2001
Город: Вильнюс
Сообщений: 15 974
Сила репутации: 42
Репутация: 880
21-03-2016, 12:36 Инфо Контакт
Ну если акронис увидит твой контроллер и массив, то проблем особо не должно быть.
Dmitry_4 is offline
Xray_Linux_Root
Debian'о-копатель
 
Регистрация: сен 2002
Город: Hz
Сообщений: 918
Сила репутации: 17
Репутация: 51
21-03-2016, 16:38 Инфо Контакт
Да, по ходу "увидит" - этого может быть недостаточно.
* 43073: Acronis Products: During Backup or Recovery Operation the Hard Drive Is Grayed out When Using Intel Smart Response Technology
Xray_Linux_Root is offline
Xray_Linux_Root
Debian'о-копатель
 
Регистрация: сен 2002
Город: Hz
Сообщений: 918
Сила репутации: 17
Репутация: 51
13-06-2016, 19:26 Инфо Контакт
Всё что описано ниже это мой личный опыт и моё личное мнение, как следствие потраченного вместо планировавшихся максимум 2 часов получилось 9 часов без восьми минут.

Как-то я не въехал в эту технологию.
0. Снял резервную копию средствами акрониса boot cd.
1. Выключил "сервер"
2. Снял проблемный SSD
3. На его место поставил HDD 500Gb (неразмеченный!!! проверял!)
4. Включил "сервер"
5. Сразу же попал в текстовое меню (Intel RST) где меня уведомили что массив деградировал, но обнаружен новый HDD который можно использовать взамен вышедшего из строя SSD. Запускаем перестроение? Запускаем!
6. Больше "сервер" с этого массива не смог загрузиться.

Это что же получается, если у меня "дохнет" один из двух "винтов" в "зеркале" Intel RST, то по факту "дохнет" весь массив? Этот вопрос представьте пульсирующим красным шрифтом размером от 48 до 80.

Вскрытие
1. Загрузился с флешки с моим любимым Debian'ом и что я вижу? Ни на рабочей SSD'шке ни на вновь подключенном HDD нет ни одного раздела... Куда делись?
2. И да, сколько по времени длится перестроение средствами Intel RST массива с размером в 111Гб? Ждал честно больше двух часов! (Да, бэкап акронисом всего за 10 минут слился).
3. Плюнул на этот "огрызок недорэйда" и затёр по первому мегабайту на каждом из "винтов" "сдохшего" массива.
4. Перезагрузил "сервер", массив как и следовало ожидать после п.3 рассыпался словно его никто не создавал.
5. Создал массив заново.
6. Восстановил из резервной копии предварительно созданной акронисом.
7. Восстановил "слетевший" порядок загрузочных устройств в BIOS
8. Загрузился в ОС, осмотрелся, работает.
9. Много и долго матерился!

З.Ы. Ну ничего лучше, по многим параметрам, чем MD нету!
Xray_Linux_Root is offline

Исправлено Xray_Linux_Root 13-06-2016 в 19:50.
Dmitry7777
Пользователь
 
Регистрация: ноя 2007
Город: Караганда
Сообщений: 8 073
Сила репутации: 29
Репутация: 929
13-06-2016, 22:30 Инфо Контакт
Вот поэтому я ВСЕГДА систему выношу на отдельный винт.
Только за прошлые выходные трюк с переездом винтов на Intel Rapid повторил дважды. (на двух недосерверах) И никаких проблем это не вызвало.
Подсовывал винт вместо вылетевшего, перестраивал массив на него. Затем отключал второй (старый но еще живой) винт, и вместо него подключал новый. По два раза массив перестраивался - и затем третьим шагом массив увеличивался на весь винт по размеру.

Но еще раз повторюсь - система была отдельным винтом.

Цитата (автор Xray_Linux_Root):
И да, сколько по времени длится перестроение средствами Intel RST массива с размером в 111Гб?
Ну у меня где-то по 320 гиг были винты. Перестроение занимало около 3-х часов.

Цитата (автор www_tank):
я очень сильно сомневаюсь, что любой рэйд съест не то что один диск за два, а даже разнотиные диски в одном массиве.
Вообще не проблема, как оказалось.

Кстати сказать. В следующие выходные по плану будет еще одна замена винтов в деградировавшем зеркале на Intel RST. Могу заскриншотить и выложить - если народу интересно.
Dmitry7777 is offline
Гость
 
14-06-2016, 04:57
Цитата (автор Dmitry7777):
Вот поэтому я ВСЕГДА систему выношу на отдельный винт.
. . .

Кстати сказать. В следующие выходные по плану будет еще одна замена винтов в деградировавшем зеркале на Intel RST. Могу заскриншотить и выложить - если народу интересно.
1. На массиве из SSD'шек только система и стояла

2. Скриншоть. Я как крепления "выбью" для установки 3,5" HDD в отсек 5,25" поменяю второй, ещё живой SSD в этом массиве. Посмотрим что будет в этот раз. Сравним.
Гость
 
14-06-2016, 05:00
Цитата (автор Dmitry7777):
Вот поэтому я ВСЕГДА систему выношу на отдельный винт.
Только за прошлые выходные трюк с переездом винтов на Intel Rapid повторил дважды. (на двух недосерверах) И никаких проблем это не вызвало.
Подсовывал винт вместо вылетевшего, перестраивал массив на него. Затем отключал второй (старый но еще живой) винт, и вместо него подключал новый. По два раза массив перестраивался - и затем третьим шагом массив увеличивался на весь винт по размеру.
. . .
Послу замены первого диска в массиве и запуска процесса перестроения система у тебя загружалась или надо было дожидаться перестроения?
Dmitry7777
Пользователь
 
Регистрация: ноя 2007
Город: Караганда
Сообщений: 8 073
Сила репутации: 29
Репутация: 929
14-06-2016, 06:19 Инфо Контакт
Система у меня загружается всегда. Потому что все недосервера (а у меня их много) я собираю по одной схеме. Винт под систему. Зеркало под базы 1С. Винт под бэкапы.
Но, кстати. Во время перестроения вся инфа на перестраиваемом зеркале доступна была.
Dmitry7777 is offline
Гость
 
14-06-2016, 07:14
Цитата (автор Dmitry7777):
. . .
Но, кстати. Во время перестроения вся инфа на перестраиваемом зеркале доступна была.
Воооот, а у меня почему-то нет. А почему нет - это хороший вопрос который мне в ближайшем будущем предстоит выяснить.
Гость
 
14-06-2016, 11:23


Добрался до "дохлой" SSD'шки.

Запросил S.M.A.R.T. статус: sudo smartctl -a /dev/sda

Код:
smartctl 6.4 2014-10-07 r4002 [i686-linux-3.16.0-4-686-pae] (local build)
Copyright (C) 2002-14, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     SandForce Driven SSDs
Device Model:     KINGSTON SH103S3120G
Serial Number:    50026B72480A4407
LU WWN Device Id: 5 0026b7 2480a4407
Firmware Version: 580ABBF0
User Capacity:    120*034*123*776 bytes [120 GB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    Solid State Device
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS, ACS-2 T13/2015-D revision 3
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Tue Jun 14 13:55:19 2016 NOVT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
See vendor-specific Attribute list for failed Attributes.

General SMART Values:
Offline data collection status:  (0x05)	Offline data collection activity
					was aborted by an interrupting command from host.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (  16)	The self-test routine was aborted by
					the host.
Total time to complete Offline 
data collection: 		(    1) seconds.
Offline data collection
capabilities: 			 (0x7d) SMART execute Offline immediate.
					No Auto Offline data collection support.
					Abort Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 (  48) minutes.
Conveyance self-test routine
recommended polling time: 	 (   2) minutes.
SCT capabilities: 	       (0x0025)	SCT Status supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x0032   120   120   050    Old_age   Always       -       0/0
  5 Retired_Block_Count     0x0033   100   100   003    Pre-fail  Always       -       0
  9 Power_On_Hours_and_Msec 0x0032   087   087   000    Old_age   Always       -       11544h+07m+41.400s
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       38
171 Program_Fail_Count      0x000a   100   100   000    Old_age   Always       -       0
172 Erase_Fail_Count        0x0032   100   100   000    Old_age   Always       -       0
174 Unexpect_Power_Loss_Ct  0x0030   000   000   000    Old_age   Offline      -       0
177 Wear_Range_Delta        0x0000   000   000   000    Old_age   Offline      -       93
181 Program_Fail_Count      0x000a   100   100   000    Old_age   Always       -       0
182 Erase_Fail_Count        0x0032   100   100   000    Old_age   Always       -       0
187 Reported_Uncorrect      0x0012   099   099   000    Old_age   Always       -       1
189 Airflow_Temperature_Cel 0x0000   031   042   000    Old_age   Offline      -       31 (Min/Max -22/42)
194 Temperature_Celsius     0x0022   031   042   000    Old_age   Always       -       31 (Min/Max -22/42)
195 ECC_Uncorr_Error_Count  0x001c   120   120   000    Old_age   Offline      -       0/0
196 Reallocated_Event_Count 0x0033   100   100   003    Pre-fail  Always       -       0
201 Unc_Soft_Read_Err_Rate  0x001c   120   120   000    Old_age   Offline      -       0/0
204 Soft_ECC_Correct_Rate   0x001c   120   120   000    Old_age   Offline      -       0/0
230 Life_Curve_Status       0x0013   100   100   000    Pre-fail  Always       -       100
231 SSD_Life_Left           0x0013   001   001   010    Pre-fail  Always   FAILING_NOW 1
233 SandForce_Internal      0x0032   000   000   000    Old_age   Always       -       32122
234 SandForce_Internal      0x0032   000   000   000    Old_age   Always       -       0
241 Lifetime_Writes_GiB     0x0032   000   000   000    Old_age   Always       -       0
242 Lifetime_Reads_GiB      0x0032   000   000   000    Old_age   Always       -       0

SMART Error Log not supported

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN     MIN_LBA     MAX_LBA  CURRENT_TEST_STATUS
    1           0           0  Not_testing
    2           0           0  Not_testing
    3           0           0  Not_testing
    4           0           0  Not_testing
    5           0           0  Not_testing
    6  4294967295  4295032830  Read_scanning was aborted by an interrupting command from host
Selective self-test flags (0x8):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
При этом: sudo fdisk -l /dev/sda
Код:
Disk /dev/sda: 111,8 GiB, 120034123776 bytes, 234441648 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x3da02d23

Device     Boot  Start       End   Sectors   Size Id Type
/dev/sda1  *      2048    206847    204800   100M  7 HPFS/NTFS/exFAT
/dev/sda2       206848 234434559 234227712 111,7G  7 HPFS/NTFS/exFAT
Оба раздела прекрасно монтируются и прекрасно читаются.
sweet
ipmanyak
 
Регистрация: ноя 2000
Сообщений: 5 527
Сила репутации: 33
Репутация: 976
14-06-2016, 14:29 Инфо Контакт
231 SSD_Life_Left 0x0013 001 001 010 Pre-fail Always FAILING_NOW 1
у нового
231 SSD_Life_Left 0x0013 100 100 010

http://media.kingston.com/support/do..._attribute.pdf стр.8

Normalized Value Range:
100 = Best = Full SSD life remains
1 = Worst = Insufficient Flash blocks remain in service for proper SSD operation

Raw Usage:
[0]: 0 = Life driven by PE cycles
1 = Life driven by Spare Blocks

Имхо диску скоро конец. Читать еще будет, но писать скоро перестанет. В данном случае запись прошла не через стандартную процедуру PE cycles , а через запасной Spare Block.
Если не прав, то пусть гуру поправят.
sweet is offline
Гость
 
15-06-2016, 12:01
Цитата (автор sweet):
231 SSD_Life_Left 0x0013 001 001 010 Pre-fail Always FAILING_NOW 1
у нового
231 SSD_Life_Left 0x0013 100 100 010

http://media.kingston.com/support/do..._attribute.pdf стр.8

Normalized Value Range:
100 = Best = Full SSD life remains
1 = Worst = Insufficient Flash blocks remain in service for proper SSD operation

Raw Usage:
[0]: 0 = Life driven by PE cycles
1 = Life driven by Spare Blocks

Имхо диску скоро конец. Читать еще будет, но писать скоро перестанет. В данном случае запись прошла не через стандартную процедуру PE cycles , а через запасной Spare Block.
Если не прав, то пусть гуру поправят.
Собственно говоря так и есть в дополнение ещё один скрин для данной SSD'шки
http://disk.tom.ru/wbpf7ah
Гость
 
08-08-2016, 11:59
Окончание истории.
Заменил последний SSD в массиве.
Предполагаю, что проблема с потерей данных при замене первого SSD связана либо с тем что что-то пошло не так при перестроении включенном из текстового конфигуратора RAID вызываемого при старте системы по Ctrl+I, либо с тем что не было включена процедура проверки и исправления, что в теории могло привести к рассинхронизации. В общем больше вопросов чем ответов осталось.

Но!
Замена последнего SSD прошла штатно и имела следующую последовательность действий:
1. Во первых было включено ежедневное проведение проверки и исправления вот так - http://disk.tom.ru/sf3hsx8
2. Сервер отключён от локальной сети, чтобы при неудачном восстановлении не возникло проблем с учётной записью компьютера в Active-Directory и не пришлось его выводить из домена и снова вводить.
3. Проверка целостности файловой системы на отсутствие ошибок: chkdsk /f c:
4. Перед заменой произведено резервное копирование образа массива сторонним ПО.
5. SSD был вынут и произведён пуск сервера, пуск удачный.
6. Сервер был выключен и в него был установлен HDD.
7. Сервер включен и перестроение массива было запущено уже из операционной системы Windows в оснастке "Технология хранения Intel Rapid".
8. Перестроение заняло 30-40 минут.
9. Т.к. SSD были на 120Гб, а оба новых HDD были на 500Гб после перестроения из ОС Windows в оснастке "Технология хранения Intel Rapid" было запущено расширение тома. Заняло 2,5-3 часа.
10. Тестовая перезагрузка сервера.
11. Сервер подключен к локальной сети.

Резюме.
Т.к. на любом этапе мог быть отказ, выполнялось всё с максимальной перестраховкой, а так же попутно оба HDD установленных на замену SSD были установлены в отсеки 5,25" т.к. корпус самый дешёвый "десктопный" и не предполагал установку более 2 HDD 3,5", а установлено их там теперь 4, и как результат на такую простую операцию пришлось "убить" 4 часа 20 минут сверхурочно.

З.Ы. Тему можно закрывать с резюме - РЕШЕНО
Тема закрыта


Назад   Форум WindowsFAQ > Общий раздел > Железо, периферия
Сохранить ссылку на эту тему у себя в
Действия над темой

 
Быстрый переход

Похожие темы
Тема Автор темы Форум Ответов Последнее сообщение
В 2016 году Intel планирует выпустить новый тип SSD накопителей на основе памяти 3D Xpoint DenTNT Обновления в блогах WindowsFAQ.ru 0 20-08-2015 13:00
Корпорация Intel: исследования, технологии, разработки, железо, финансы, планирование NewsBot Новости, аналитика, предупреждения 166 30-08-2014 00:20
Замена HDD на массиве RAID1 Primus Железо, периферия 14 26-08-2014 16:45
Ошибки на сервере Intel Server Board SE7520BD2SCSID2 Intel SC5300RP t1tan Администрирование и Локальные сети 1 21-12-2012 12:18
WinXP 64bit. Проблемы с ОЗУ. p5-vbnekit Железо, периферия 32 27-01-2010 01:39


Время 12:49. Временной пояс GMT +3.