Synology-Forum.nl
Hardware ondersteuning => NAS hardware vragen => Topic gestart door: wiltop op 13 mei 2015, 21:17:19
-
nieuwe schijf vervangen 3tb naar 5tb , geeft nu aan volume beschadigd
maar wordt niet aangegeven welke schijf dat is , alle 12 status normaal.
heb al een keer opnieuw opgestart , maar blijft hetzelfde
-
Ook niet ergens bij Opslagbeheer te vinden?
Of in de log files?
-
staat na vervangen disk1 , volume1 is overgegaan in beschadigde modus (11/12) 19.39
daarna
consistentie controle van systeemvolume (swap) is voltooid 19.40
daarna
volume1 is overgegaan in beschadigde modus (11/12) 19.52
bij volume1 kan ik alleen maar verwijderen aanklikken
geen beheer of iets dergelijks
van de tijden klopt niet veel , controle deed er toch wel twee dagen over
-
Welk model NAS heb je en hoeveel schijven zitten erin?
Kijk eens naar de smartstatus van je disken.
-
2413 volume1 met 3x 6tb en 9 x 4tb
1211 volume2 met 12 x 3tb
als ik bij status kijk is alles normaal
laatste schijf vervangen disk1 4tb voor 6tb , ruimte is niet aangepast was 41,63 tb en is het nu nog.
bij meldingen staat volume is overgegaan naar beschadigde modus (11/12)
bij opslagbeheer staat schijf vervangen minstens 3726 gb (dus niet de laatste 6tb)
geeft 11/12 niet aan , schijf 11 ?
-
Waarschijnlijk heb je dat volume in RAID 5 of gezien jouw waarden RAid 6 staan.
Alleen als je je SHR gebruikt zou door die vervanging je beschikbare capaciteit hoger worden.
Hij geeft toch wel aan welk van de twee volumes beschadigt is?
Uiteraard kan hij je niet vertellen welke disk het is, hij weet alleen dat de crc check niet meer in orde is maar door welke disk (of disken) dat veroorzaakt wordt kan de Raid software natuurlijk niet zien.
Controleer van alle disken de smartstatus, vermoeddelijk was met een disk iets aan de hand en kwam de raid software daar achter toen hij een rebuild deed van de vervangen disk.
Het is altijd verstandig eerst een "Data Scrubbing" te doen voor je disken vervangt, dan weet je tenminste zeker dat je een werkende uitgangs situatie hebt
Heeeeel misschien is het nog te herstellen door de oude disk terug te plaatsen, maar waarschijnlijk niet.
Ik zou in ieder geval eerst een backup maken.
-
het zijn shr volumes , ik heb dit al tig keer gedaan
vraag is nu , uitzetten en disk1 vervangen ?
heb ook een snelle smart test gedaan van disk 11, status normaal
-
Als je SHR hebt dan vermoed ik dat die nieuwe disk defect is.
Ik neem aan dat disk 11 in volume 2 zit?
Welke disk heb je dan vervangen disk1? En wat is de smart status van die vervangen disk.
-
in de 1211 volume2 zitten 12x3tb disken , status normaal
in de 2413 volume1 zitten 12 disken 3 x6tb en 9x 4tb , status beschadigd
disk 11 zit in volume1
disk 1 6tb . snelle smarttest gedaan , status normaal
de 1211 gebruik ik voor backup
zal de andere disken van volume1 ook ff testen
heb de oude disk nog van 4tb
-
alle 12 disken snelle smarttest gedaan , status alle normaal
bij 4tb geeft hij aan tijdsduur 1min , bij 6tb 2 min , ook bij disk1 (laatst vervangen)
nogmaals aandacht voor , bij opslagbeheer , vervangen schijf moet mintens 3726 gb zijn
disk1 is 6tb !
onderwerp zou moeten zijn van 4tb naar 6tb
-
Hij heeft die 6Tb ofwel niet toegevoegd ofwel hij is nog bezig.
Met zoveel disken kan het wel een week duren, zeker als ze redelijk gevuld zijn.
Staat er niet ergens bij de status dat hij nog bezig is?
-
de disk is toegevoegd , maar volume1 is hetzelfde gebleven nl 42,5 tb , had groter moeten zijn , ongeveer 44tb.
systeem is niet meer bezig met controleren of uitbreiden , normaal heb je eerst consistentie controle , en daarna uitbreiden (dat deed hij dus niet)
er stond bij die consistentie van systemvolume "swap" bij , kon mij dat vorige keren niet herinneren.
alles werkt nog normaal
zou ik disk1 nogmaals toevoegen , dus uitzetten en een nieuwe 6tb erin ?
-
in mijn geval hielp dit , ff afwachten of alles oke is , pariteit controle is weer bezig
Please enable the SSH service in DSM > Control Panel > Terminal, and use Putty ( http://the.earth.li/~sgtatham/putty/latest/x86/putty.exe ) to connect to your DiskStation with the account "root" and admin's password, then run the following commands:
mdadm -a /dev/md3 /dev/sda6
mdadm -a /dev/md4 /dev/sda7
This should fix the problem.