Synology-Forum.nl
Firmware => Synology DSM BETA versies => Topic gestart door: Stephan296 op 27 oktober 2015, 23:49:41
-
Ik heb vandaag een WD RED 3 TB aan mijn huidige configuratie willen toevoegen.
In dit geval aan volume 1.
Volume 1 bestaat uit 2x WD RED 3 TB in SHR dus effectief 3 TB opslag.
Nu heb ik de nieuwe harde schijf toegevoegd en dat lijkt goed te gaan.
Nu is hij al 10 uur bezig en zit pas op 19% van het samenvoegen.
Is dit normaal dat dit zo lang duurt?
Ik vind mijn DS415+ sowieso erg traag na installatie van DSM 6.0.
-
Dat kan normaal gesproken wel even duren ja.
Gewoon morgen nog eens kijken want als je naar dat tellertje blijft kijken kan het lang duren :-)
Het kan ook zo maar zijn dat het tellertje ineens omhoog schiet.
Het percentage geeft vaak niet het percentage van de totale tijd weer maar van elke stap.
-
We kijken morgen gewoon weer, maar had zelf het vermoeden dat het vele malen sneller zou gaan.
Vandaar mijn vraag ;-)
-
Ik vind mijn DS415+ sowieso erg traag na installatie van DSM 6.0.
Ik weet niet hoe Synology met beta software omgaat, maar ik heb ook een paar jaar in een groot shareware project gewerkt. Bij de beta releases stond overal logging aan en werden ook overal in de code extra checks gedaan om bij problemen sneller een oorzaak te kunnen vind in het log. Als er voor een release gecompileerd werd, liet de compiler al deze code weg en was het programma duidelijk sneller.
-
Dat zou heel goed kunnen (jij hebt er sowieso meer verstand van dan ik)
Hij zit nu op 28% van het samenvoegen.
Dus over ongeveer 3 dagen is hij klaar, als het met deze snelheid door gaat.
-
Dit klinkt als acceptabele tijd.
Ik heb een klein half jaar geleden ook een 3tb red toegevoegd en raid omgezet van raid1 naar raid5. Er stond ongeveer 2TB aan data op een hij heeft hier toen ongeveer 40 uur over gedaan.
Niet te veel zorgen maken maar houd het vooral in de gaten. Sowieso bij dit soort acties is een backup natuurlijk altijd gewenst.
-
Inmiddels 48 uur onderweg en de teller staat op 45%
Toch maar eens een ticket inschieten of dat normaal is.
Als ik tenminste antwoord krijg op mijn tickets.... Ik wacht nog op antwoord van 5 tickets namelijk.
-
Wat is het probleem? Dat het te lang duurt volgens jou?
-
Ik begrijp dat je wilt dat het proces sneller moet gaa maar, dat gaat echt niet sneller, weet ook niet wat je met een ticket wilt bereiken.
Geduld hebben, het proces loopt en moet immers van Mirror naar RAID5, dat gaat is verschillende stappen bovenwater en onderwater (zeg maar) en dat kost gewoon veel tijd.
-
Als dat ding nou eens aangaf welke stappen er gemaakt moet worden ;-) ik had meer het gevoel dat het te lang duurde. Maar uit jullie berichten begrijp ik dat dit "normaal" is. Hopelijk kan ik na het weekend de ruimte gebruiken ;-)
-
Via de terminal kun je wel zien waar hij mee bezig is.
Probeer maar eens het commando:
cat /proc/mdstat
Weet niet wat hij dan precies laat zien want ik heb het nog nooit bekeken.
-
Ongeveer dit, deze is van een HD recovery lang geleden:
[attachimg=1]
-
De huidige tussenstand:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md3 : active raid1 sdd5[0]
971931264 blocks super 1.2 [1/1] [U]
md2 : active raid5 sdc5[2] sda5[0] sdb5[1]
2925435456 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
[============>........] reshape = 61.8% (1808303872/2925435456) finish=1697.0min speed=10970K/sec
md1 : active raid1 sdc2[3] sda2[0] sdb2[1] sdd2[2]
2097088 blocks [4/4] [UUUU]
md0 : active raid1 sdc1[3] sda1[0] sdb1[1] sdd1[2]
2490176 blocks [4/4] [UUUU]
unused devices: <none>
-
md2 : active raid5 sdc5[2] sda5[0] sdb5[1]
2925435456 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
[============>........] reshape = 61.8% (1808303872/2925435456) finish=1697.0min speed=10970K/sec
Reshape is dus RAID5 instellen/indelen over de 3HD's (was Mirror).
Je zou stripe_cache_size kunnen opkrikken naar 16384 bytes, kennelijk staat deze op default 256 bytes.
In PuTTY:
echo 16384 > /sys/block/md2/md/stripe_cache_size
Dat zou een verbetering moeten opleveren in de speed (nu 10970k) dus, een verbetering in de de tijd nog te gaan (nu 1697 min).
-
Thx @Birdy!
Is dan de normale werking binnen DSM dan uiteindelijk ook sneller?
En kan ik dit tijdens dit proces uitvoeren?
-
En kan ik dit tijdens dit proces uitvoeren?
Ja, maar is na een reboot weer default.
Is dan de normale werking binnen DSM dan uiteindelijk ook sneller?
Ik verwacht het wel, moet even uitzoeken hoe je deze parameter definitief kunt maken, kost dus wel geheugen, 256MB i.p.v. 4MB.
-
@Stephan296 Ben nieuwsgierig of het geholpen heeft, wat laat cat /proc/mdstat nu zien na de aanpassing ?
-
Ik ga het zo uitvoeren ;-)
-
Ok....trouwens, ik zie nu pas dat je zat memory hebt dus, je zou stripe_cache_size nog eens kunnen verdubbelen en kijken of dat een nog betere verbetering is 8)
-
Nieuwe tussenstand na aanpassing van jou @Birdy
die 16384 kan ik dan zo maar x2 doen?
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md3 : active raid1 sdd5[0]
971931264 blocks super 1.2 [1/1] [U]
md2 : active raid5 sdc5[2] sda5[0] sdb5[1]
2925435456 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
[==============>......] reshape = 72.4% (2118885120/2925435456) finish=200.1min speed=67172K/sec
md1 : active raid1 sdc2[3] sda2[0] sdb2[1] sdd2[2]
2097088 blocks [4/4] [UUUU]
md0 : active raid1 sdc1[3] sda1[0] sdb1[1] sdd1[2]
2490176 blocks [4/4] [UUUU]
unused devices: <none>
-
Zo.....dat scheelt wat zeg.....10970 > 67172K/sec :lol:
die 16384 kan ik dan zo maar x2 doen?
Je hebt genoeg mem, probeer maar.
-
Als ik dit 3 dagen eerder wist :lol: :lol: :lol: :lol:
Nu na x2 gedaan te hebben:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md3 : active raid1 sdd5[0]
971931264 blocks super 1.2 [1/1] [U]
md2 : active raid5 sdc5[2] sda5[0] sdb5[1]
2925435456 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
[================>....] reshape = 80.3% (2349716736/2925435456) finish=123.9min speed=77424K/sec
md1 : active raid1 sdc2[3] sda2[0] sdb2[1] sdd2[2]
2097088 blocks [4/4] [UUUU]
md0 : active raid1 sdc1[3] sda1[0] sdb1[1] sdd1[2]
2490176 blocks [4/4] [UUUU]
unused devices: <none>
bij x3 en x4 krijg ik een invalid error
-
Ziet er goed uit, nog 2 uurtjes :lol:
bij x3 en x4 krijg ik een invalid error
Er zal wel een max aan zitten.
-
Thx voor de tip! Tot vanavond?
-
Zeker weten. ;)
-
Kun je die marge voor elke harde schijf instellen of heeft dat alleen met het toevoegen te maken?
Aangezien het nu alleen voor MD2 is.
-
MD2 is je RAID set.
-
Als ik jou toch niet had :lol: :lol: :lol: :lol:
-
En.......wat is nu de stand van zaken :ugeek:
-
Toen ik gisteren thuis kwam was hij helemaal klaar. En had hij verder geen diskactiviteit meer. Nog gecontroleerd met dat commando maar gaf niets bijzonders weer.
Nu nog uitzoeken hoe ik standaard die cache kan vergroten.
-
Voor een reshape is het handig om het tijdelijk te doen, zou het toch maar niet permanent gebruiken en houden aan de standaard.
Kwam toevallig deze waarschuwing tegen (https://www.reddit.com/r/synology/comments/3bs5ck/changing_stripe_cache_size_is_risky/) en kan mij daar ook wat bij voorstellen.
Hoe groter de cache hoe groter het verlies van data bij stroomuitval, tenzij je een UPS hebt die netjes je NAS kan afsluiten dus, tijd om te flushen, mocht dat uiteindelijk nodig zijn. ;)
-
Als je in de toekomst nog een HD bijzet dan kan je misschien beter deze tip opvolgen (http://www.synology-forum.nl/firmware-algemeen/uitbreiden-shr/msg125414/#msg125414) (waar ik het gisteren over had).
-
Misschien een stomme vraag maar sinds dat ik btrfs gebruik lijkt het alsof ik veel meer het geratel (lees diskactiviteit) heb dan met ext4.
Dit had ik ook al voordat ik die schijf toevoegde.
Ik zie wel een proces MD2_raid5 staan in de processen en btrfs_transi