Synology-Forum.nl
Hardware ondersteuning => NAS hardware vragen => Topic gestart door: stijnpiron op 18 januari 2015, 16:47:31
-
Ik had 6 schijven die samen één volume vormden in combinatie met een 7e die functioneerde als hot spare.
So far so good.
Nu heb ik die 7e in het volume willen opnemen, lijkt gelukt want het volume bestaat nu uit 7 schijven, maar de opslagcapaciteit is niet vergroot...
What's wrong?
-
Maak eens een printscreen van:
Opslagbeheer > Volume (Wel openklappen, zodat alle schijven te zien zijn)
en
Opslagbeheer > HDD/SSD
En vertel welke stappen je hebt ondernomen.
-
En is rebuild al klaar?
Pas daarna komt de vrije ruimte beschikbaar.
-
En is rebuild al klaar?
Is inderdaad een vereiste, vandaar printscreens, dat zegt veel.
-
Waar kan ik de status van de rebuild nakijken? (ik vermoed wel dat die klaar is, aangezien dat al een week geleden begonnen is)
De screenshots:
[attach=1][attach=2]
-
Er klopt inderdaad iets niet, ik begrijp dat je van SHR2 (RAID5 +1) naar SHR(1) (RAID5) bent gegaan.
Ik kan dus niet testen maar, ik mag aannemen dat je dus een spare HD gewoon kunt verwijderen zodat deze vrij komt om toe te voegen aan je bestaande volume1 waardoor je SHR (RAID5) krijgt.
DSM laat ook zien SHR en geen spare disk echter, beschikbaar zou groter moeten zijn.
Maar, je moet ook gemerkt hebben dat na het toevoegen van 1 HD, je RAID5 gaat "herstellen" (duurt wel een heel tijdje), dat moet je gezien hebben het vak die ik rood heb aangegeven.:
[attachimg=1]
Kortom, naar mijn idee moet er iets misgegaan zijn zonder dat je het gemerkt hebt.
-
Als je 7 harde schijven van 3TB per stuk in SHR hebt staan, dan zou je 18TB beschikbaar moeten hebben en 3TB voor bescherming.
En die zie ik idd niet in je screenshots.
Maar met 6 harde schijven van 3TB per stuk in SHR hebt staan, dan zou je 15TB beschikbaar moeten hebben en 3TB voor bescherming.
Pas met 5 harde schijven krijg je de getallen in jouw screenshots.
Vreemd. ..
-
Inderdaad, dat betekent dat er nu 3TB zoek is. :S
-
6TB zelfs
@birdy waar haal jij uit de tekst dat ts van shr2 naar shr gaat?
-
@Handige Harry foutje van mij, het is gewoon SHR met Hot Spare.
Volgens mij mist hij 3TB, dus in gebruik 6 in SHR(RAID5) dus effectief 5:
[attachimg=1]
Doet hij er nog 1 HD bij, dus de 7e:
[attachimg=2]
(plaatjes zijn zonder overhead die je kwijt bent per HD).
-
Er is toch maar 3TB zoek?
ik kom van 6 schijven : 5*2.73 data + 2.73 pariteit = 13.65TB beschikbare opslag
zou dus nu 16.38TB moeten geworden zijn, which it didn't...
Kan ik die SHR op een of andere manier laten rebuilden zonder dat ik men data verlies?
-
@birdy heeft gelijk. Ik had niet aan het afronden gedacht.
-
Heb je al een herstart gedaan?
-
jazeker, ook een factory reset van de DSM (om wanhopig alle mogelijkheden te doorlopen, wetende dat het niets zal helpen...)
-
factory reset
Dat denk ik niet want dan zou je ALLES kwijt zijn.
Maar goed, denk dat je of 1x reset of 2x reset gedaan hebt, maar kennelijk niet heeft geholpen.
Ik denk dat je het beste een ticket hiervoor kunt inleggen, kunnen ze even op afstand kijken en misschien wel voor je herstellen:
Synology Ticket:
https://myds.synology.com/support/support_form.php?lang=nld
Of als je DS is geregistreerd of wilt registreren en dan een ticket:
https://myds.synology.com/support/register.php?lang=nld
Of via DSM (alleen versie 5 en hoger): Hoofdmenu > Support Center > Contact Support.
Of als je wilt bellen:
https://www.synology.com/nl-nl/company/contact_us
-
Volgens mij kloppen zijn getallen precies voor een Raid 6 systeem met 7 disken.
Hij is dan twee disken kwijt voor gegevens bescherming.
-
Hij heeft toch SHR ? En dan komt hij toch uit op raid 5?
En ik zie geen SHR2 in zijn screenshots.
Met raid 6 zou het idd kloppen, maar ik zie nergens dat het raid 6 is.
-
Het was geen RAID6 of SHR-2 maar SHR (RAID5) met Hot Spare, waarbij Hot Spare geen deel uitmaakt van RAID of SHR, die HS komt pas automatisch in actie als 1 HD defect raakt, rebuild enz.
Ik had 6 schijven die samen één volume vormden in combinatie met een 7e die functioneerde als hot spare.
-
Ik weet het ook niet, maar als je normaal een disk toevoegt aan een Raid 5 systeem dan is hij een behoorlijk lange tijd bezig met rebuilden.
Ik vermoed dat hij altijd al een Raid 6 had.
Misschien moet hij even inloggen met putty en naar z'n raidset kijken.
cat /proc/mdstat
Als ik het me goed herinner.
-
Lijkt me een goed plan dat TS dat doet @Ben(V)
Maar zou er dan geen SHR2 moeten staan in zijn screenshots?
-
Jazeker, er zou SHR-2 of RAID 6 moeten staan.
Dat er iets niet goed weergegeven wordt is ook duidelijk.
Er is ofwel diskruimte tekort ofwel een verkeerd raidtype.
-
cat /proc/mdstat
Als ik het me goed herinner.
Klopt!
Als het RAID6 (SHR-2) zou zijn dan moet je dat ook terug zien in:
[attachimg=1]
En daar zie ik het (ook) niet.
Maar goed, mocht blijken uit mdstat dat RAID6 wel in gebruik is dan zit er een bug in DSM GUI.
Ben benieuwd.........
-
Ben wel benieuwd.
Maar beter een bug in de gui dan zoveel diskruimte verdwenen.
In alle gevallen is een ticket aanmaken het beste.
-
Dat denk ik niet want dan zou je ALLES kwijt zijn.
"Reset to reinstall the operating system" Dit dus ;)
Ik heb een ticketje aangemaakt, hopelijk antwoorden ze vlot!
-
Ik weet het ook niet, maar als je normaal een disk toevoegt aan een Raid 5 systeem dan is hij een behoorlijk lange tijd bezig met rebuilden.
Ik vermoed dat hij altijd al een Raid 6 had.
Misschien moet hij even inloggen met putty en naar z'n raidset kijken.
cat /proc/mdstat
Als ik het me goed herinner.
Heb ik gedaan, hier een screenshot:[attach=1]
-
RAID5 dus en laat 7 HD`s in gebruik zien maar wel 3TB te weinig.
Wat krijg je te zien als je in terminal df
doet?
-
Als je goed naar de mdstat output kijkt, zie je dat één van de schijven de indicatie (S) heeft. Dat betekent dat één van de schijven nog de status hot-spare heeft. Die doet dus niet mee. Dus je hebt nu nog steeds 6 schijven in RAID met één hot spare.
Kijk maar eens in detail met mdstat --detail /dev/md2.
Blijkbaar is bij de schijf de markering van hot-spare blijven staan. Je moet het superblock wissen.
Eerst schijf uit array verwijderen:
mdadm --manage /dev/md2 --remove /dev/sdg5
dan:
mdadm --zero-superblock /dev/sdg5
en uiteindelijk:
Schijf weer toevoegen via volumebeheer.
-
RAID5 dus en laat 7 HD`s in gebruik zien maar wel 3TB te weinig.
Wat krijg je te zien als je in terminal df
doet?
Dit:
[attach=1]
Verder heeft de Synology support mij aangeraden schijf 7 eens los te koppelen, opnieuw in te pluggen en te laten rebuilden.
Ik trek schijf 7 er uit en zie dit:
[attach=2]
Vervolgens plug ik die er terug in en kan ik die gewoon weer toevoegen aan mijn volume, wat hij nu aan het doen is. Ziet er toch al goed uit denk ik:
[attach=3]
Dus het was inderdaad een bug in de GUI, hopelijk verloopt alles nu wel goed
-
Met schijf 7 eruit had je een fout moeten krijgen toch?
Nu met 7 er weer in is de NAS bezig met uitbreiden, dat ziet er goed uit.
Wel erg vreemd nietwaar?
-
Top dat het nu goed blijkt te gaan!
Laat even weten hoe het afloopt.
-
Als je goed naar de mdstat output kijkt, zie je dat één van de schijven de indicatie (S) heeft. Dat betekent dat één van de schijven nog de status hot-spare heeft. Die doet dus niet mee. Dus je hebt nu nog steeds 6 schijven in RAID met één hot spare.
Kijk maar eens in detail met mdstat --detail /dev/md2.
Blijkbaar is bij de schijf de markering van hot-spare blijven staan. Je moet het superblock wissen.
Eerst schijf uit array verwijderen:
mdadm --manage /dev/md2 --remove /dev/sdg5
dan:
mdadm --zero-superblock /dev/sdg5
en uiteindelijk:
Schijf weer toevoegen via volumebeheer.
Die "S" was me inderdaad nog niet opgevallen. Dus het is inderdaad een bug.
Wat ik nu aan het doen ben is net iets eenvoudiger dan jouw methode voor op een maandagochtend ;)
-
Snap ik. :D
Het zou kunnen zijn dat die hot-spare status in het superblock van je harde schijf nog steeds aan staat. En dat je na de rebuild weer precies hetzelfde hebt.
Je zou nu alvast met cat /proc/mdstat kunnen kijken of de (S) status is verdwenen.
-
Als ik vanavond thuis kom zou die rebuild normaal bijna kaar moeten zijn, maar ik kan dan inderdaad al eens zien of die (S) status er nog staat of niet.
In ieder geval: bij de eerste poging om die schijf toe te voegen kan ik mij niet herinneren dat ik die rebuild effectief in werking heb gezien, ik ging er toen van uit dat dat in de achtergrond gebeurde zonder dat ik daar iets van zag... In tegenstelling tot nu :) Dus ik vermoed (en hoop) dat het nu opgelost zal zijn
-
Snap ik. :D
Het zou kunnen zijn dat die hot-spare status in het superblock van je harde schijf nog steeds aan staat. En dat je na de rebuild weer precies hetzelfde hebt.
Je zou nu alvast met cat /proc/mdstat kunnen kijken of de (S) status is verdwenen.
Hij is mooi bezig en de (S) is verdwenen:
[attach=1]
-
Kijk. Dat ie 'reshape' zegt is positief. :P
-
Toppie :!: Komt alles toch weer goed, uiteindelijk ;D
-
Merci aan iedereen die geholpen heeft!
[attach=1]
-
Mooi dat het is opgelost