-==<XTBA>==-
https://forum.setiaddicted.com/

Serveur Fichier 2 / ZFS
https://forum.setiaddicted.com/viewtopic.php?f=4&t=1638
Page 3 sur 14

Auteur :  IvanleFou [ jeu. 27 oct. 2011, 09:49 ]
Sujet du message :  Re: Serveur Fichier / Stockage sécurisé

poulpito a écrit :
ouai et apparement les 31605 marchent pas non plus
non mais je te jure c'est la looose :(

jvai finir par continuer avec mon mdadm et mon linux aux oignons mais bon ce sera de plus en plus dur si je veux migrer après
et c'est dommage [sarcastic.gif]


Je te l'avais dit, quand on a un truc qui marche et qui repond a ses besoins on ne touche pas :o Depuis le debut votre machin elitiste developpe au fond d'un garage par un boutonneux je le sens pas. La preuve ya que la carte du gars qui a developpe qui marche :mdr:

Reste sur de la valeur sure, mdadm ca roxe. Il a deja prouve qu'il est capable de recup les donnees en cas de crash alors pourquoi changer?

Auteur :  poulpito [ jeu. 27 oct. 2011, 10:23 ]
Sujet du message :  Re: Serveur Fichier / Stockage sécurisé

parce que mdadm c'est le summum du risque de corruption de superblock avec de l'ext par dessus
j'ai déjà perdu mes datas une fois ^^ pas envie de les reperdre une deuxième fois

et ca ca n'existe pas sous ZFS

Auteur :  IvanleFou [ jeu. 27 oct. 2011, 10:31 ]
Sujet du message :  Re: Serveur Fichier / Stockage sécurisé

Alors je dois avoir de la chance :/

Auteur :  poulpito [ jeu. 27 oct. 2011, 10:36 ]
Sujet du message :  Re: Serveur Fichier / Stockage sécurisé

oui moi aussi mais au plus ca va au moins j'ai envie de jouer ^^

Auteur :  augur [ jeu. 27 oct. 2011, 10:47 ]
Sujet du message :  Re: Serveur Fichier / Stockage sécurisé

moi aussi j'ai donc eu de la chance depuis juin 2009 ? :)

... de mon coté : j'ai des WD Green achetés en 2009 ; à l'époque on ne parlait pas de la manip à faire pour le TLER et le Seek park afin d'éviter qu'ils buttent les disques en Raid.

Du coup, là ils ont une durée de vie bien plus limitée que prévu et la garantie de ces disques se terminent en mai 2012.

Optimisations :
=> http://forums.freebsd.org/showpost.php? ... stcount=14

    1) Use the "wdidle3" DOS utility to change the head parking interval from the default of 8 seconds to as high as 5 minutes:
Code :
DOS> wdidle3 /S300

This is to avoid premature failure of the drive due to a high rate of "Load/Unload Cycle Count" (as seen in SMART reports).

    2) Some say these drives are unsuitable for RAID systems due to their inability to support TLER (Time Limted Error Recovery) however, sub.mesa seems to think that this is not an issue with ZFS in the following post: http://www.allquests.com/question/40874 ... -RAID.html and I have not had a single problem of this nature.

    3) Align to 4 KiB boundaries... As these are advanced format drives you'll get best performance if all accesses are 4 KiB aligned. I dealt with this by having my NAS boot from different media and using these 2TB drives for data only with the ZFS pool created directly on the entire disk (without any MBR or GPT partition table) using gnop devices that are set to have a 4 KiB block size.
ZFS remembers that the pool was created in this way and continues to use 4 KiB block sizes for access throughout it's life:

Create the 4KiB sector size gnop devices:
Code :
# gnop create -S 4096 /dev/ad6
# gnop create -S 4096 /dev/ad8
# gnop create -S 4096 /dev/ad10
# gnop create -S 4096 /dev/ad12

# zpool create zroot raidz1 /dev/ad6.nop /dev/ad8.nop /dev/ad10.nop /dev/ad12.nop


We can show that the pool that has been created is using 4 KiB blocks with the following command returning "12" instead of "9" (even after reboot when the gnop devices no longer exist):

Code :
# zdb | grep ashift
                ashift=12


Other tips for successful FreeBSD ZFS joy:

    1) Use 64 bit FreeBSD with enough RAM (I opted for 8 GB in 2 x 4 GB sticks but I'm also running virtual machines and other Java based systems on my NAS).

    2) If using Samba (as I am), build Samba to take advantage of Asynchronous I/O (AIO_SUPPORT) and have that kernel module loaded at boot time (in /boot/loader.conf):

Code :
aio_load="YES"


    3) Use the modern SATA support in FreeBSD with

Code :
ahci_load="YES"


in /boot/loader.conf (NOTE: I had no problems enabling this after the initial ZFS system was built even though the ad6, ad8, ad10 & ad12 devices all became ada0 -> ada3.

I typically average over 45 MB/s writing large files to my ZFS NAS from a Windows 7 machine.

++

Auteur :  IvanleFou [ jeu. 27 oct. 2011, 13:01 ]
Sujet du message :  Re: Serveur Fichier / Stockage sécurisé

J'ai un disque qui a lache, changement et c'est reparti :bounce

Auteur :  augur [ jeu. 27 oct. 2011, 13:05 ]
Sujet du message :  Re: Serveur Fichier / Stockage sécurisé

Quid du Raid5 / 6 Hard : passage d'une 31605 vers 51605, et vice vers ça ??

Auteur :  poulpito [ jeu. 27 oct. 2011, 13:45 ]
Sujet du message :  Re: Serveur Fichier / Stockage sécurisé

no idea mais normalement les infos de raid sont stockées dans les metadata au début du disque
donc la bascule devrait se faire sans soucis :)

Auteur :  poulpito [ jeu. 27 oct. 2011, 14:29 ]
Sujet du message :  Re: Serveur Fichier / Stockage sécurisé

dans la mesure ou je suis un peu coincé j'ai avancé les recherches sur l'option dont tu avais parlais qui me tentait pas trop
à savoir ZFS on Linux

sauf que je pensai qu'on en était toujours à la phase ou ZFS passait par FUSE donc par une interface avant d'envoyer les commandes aux IOs = truc qui rame

sauf que j'avais pas vu que les derniers ZFS et ceux que j'ai compilé sur mon ubuntu sont des versions natives \o/
donc ca rox
sans compter que spl-0.6.0-rc6 & zfs-0.6.0-rc6 (les 5.2 aussi je pense) supportent l'alignement à 4k via -o ashift=12 comme je l'avais dit
je pense que je vais partir sur cette solution et tester un peu les perfs avec mes 8*2To

Auteur :  poulpito [ jeu. 27 oct. 2011, 14:32 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

Hop division de sujet avec l'autre pour être pénard ^^

Auteur :  Angel [ jeu. 27 oct. 2011, 14:39 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

quelle organisation:! lol dis tu as vu mon mp poulpe?

Auteur :  poulpito [ jeu. 27 oct. 2011, 14:47 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

oui oui

Auteur :  augur [ jeu. 27 oct. 2011, 14:53 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

Trop cool pour ZFS sous Ubuntu / Debian :bounce

Trop cool pour un topic dédié ZFS :bounce

:jap:

Auteur :  poulpito [ jeu. 27 oct. 2011, 15:19 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

au plus je consulte de docs / infos au plus je suis sceptique ptdr

This means that if you design something for PC hardware, you need to at least acknowledge that crappy hardware does exist and is going to make your software abstractions leaky. A good design should not exclude worst-case scenarios. For ZFS, this means they need to acknowledge that disks are going to break things and corrupt the data in ways that the ZFS design isn't going to be able to avoid. And when that happens, your users will want to have a good fsck tool to fix the mess or recover the data. It's somewhat contradictory that the ZFS developers worked really hard to design those anti-corruption mechanisms, but they left the extreme cases of data corruption where a fsck is necessary uncovered.


http://www.osnews.com/story/22423/Shoul ... fsck_Tool_

Auteur :  augur [ jeu. 27 oct. 2011, 18:03 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

Moi c'est tout le contraire ! :)

Faut juste bien regarder les dates de parutions de articles
=> celui qui te perplexetise est du 2nd Nov 2009
... en 2 ans, ZFS a fait des progrès avec le pojet Illumos.

Les derniers en date : 13 septembre 2011 et c'est bien parti parti pour être mieux parti.

++

Auteur :  poulpito [ jeu. 27 oct. 2011, 19:04 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

bah justement
toujours pas d'outils de correction à la fsck :/ même deux ans après
de toute façon j'oublie solaris et cie puisqu'ils prennent pas correctement en compte mes adaptec

Auteur :  augur [ jeu. 27 oct. 2011, 19:17 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

poulpito a écrit :
bah justement
toujours pas d'outils de correction à la fsck :/ même deux ans après

Oui MAIS

Sous ZFS, l'équivalent de fsck est scrub, qui fonctionne sur des disques montés, et teste aussi bien les données que les méta-données.

Dans les (très rares) cas où une corruption ne peut pas être corrigée, ZFS peut utiliser la copie précédente du fichier, conservée grâce au mécanisme de Copy on Write (COW). Car en mettant à jour un fichier, ZFS ne récrit jamais sur l'ancien fichier mais alloue un nouveau bloc de données, et réécrit les méta-données et les pointeurs ; les mises à jour successives sont gérées sous forme de transactions, qui sont décrites dans un fichier spécial (Intent log) qui permet de reconstituer les opérations faites sur le fichier.

COW permet aussi de prendre régulièrement des clichés (snapshots) du système de fichiers. Comme toutes les données qui le composent sont déjà stockées, un cliché peut être créé très rapidement. Les clichés (quand ils sont autorisés en écriture) permettent de disposer de véritables clones du système de fichier ; les blocs qui n'ont pas subi de changement sont partagés entre tous les clones.

=> http://macpuissancedix.com/936d.php

+

Réparation du système de fichiers

Avec les systèmes de fichiers classiques, la méthode d'écriture des données est affectée par les pannes inattendues entraînant des incohérences de systèmes de fichiers. Un système de fichiers classique n'étant pas transactionnel, les blocs non référencés, les comptes de liens défectueux ou autres structures de systèmes de fichiers incohérentes sont possibles. L'ajout de la journalisation résout certains de ces problèmes, mais peut entraîner des problèmes supplémentaires lorsque la restauration du journal est impossible. Une incohérence des données sur disque dans une configuration ZFS ne se produit qu'à la suite d'une panne de matérielle (auquel cas le pool aurait dû être redondant) ou en présence d'un bogue dans le logiciel ZFS.

L'utilitaire fsck répare les problèmes connus spécifiques aux systèmes de fichiers UFS. La plupart des problèmes au niveau des pools de stockage ZFS sont généralement liés à un matériel défaillant ou à des pannes de courant. En utilisant des pools redondants, vous pouvez éviter de nombreux problèmes. Si le pool est endommagé suite à une défaillance de matériel ou à une coupure de courant, reportez-vous à la section Réparation de dommages présents dans l'ensemble du pool de stockage ZFS.

Si le pool n'est pas redondant, le risque qu'une corruption de système de fichiers puisse rendre tout ou partie de vos données inaccessibles est toujours présent.

++

Auteur :  poulpito [ jeu. 27 oct. 2011, 20:07 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

ce soir je vais monter un proto ubuntu 11.10 server x64 et ZFS native

pour voir ce que ça donne
y foutre quelques films dessus et bencher le tout genre
test1 Zpool : Raidz 4*2To + Raidz 4*2To
test2 Zpool : Raidz2 8*2To
histoire de voir la perte de perf entre un pool de deux raidz(équivalent raid5) et un de raidz2 (équivalent raid6)


je suis pas pressé j'ai encore un peu de place sur mon norco
il faut aussi que je test si un volume simple de l'adaptec 6805 arrive bien à repartir sur la 31605 du norco puisque mes disques basculeront dessus après

Auteur :  augur [ jeu. 27 oct. 2011, 20:24 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

Pour reprendre votre discussion Polupi / Ivan à propos de EXT4 / ZFS et corruption de données
=> ZFS est plus souvent utilisé que EXT3 ou EXT4 sur de gros volume (> 12 To)
=> ZFS est un système de fichier éprouvé et réputé très fiable

D'autres l'ont fait, pourquoi pas nous ? ^^

... pourquoi cette phobie à propos des pertes de données avec ZFS ?!?

Auteur :  poulpito [ jeu. 27 oct. 2011, 21:39 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

parce que je veux ZFS pour éviter les pertes de données d'ext4 même si j'en ai pas clairement exprimé ma phobie

sauf que au final ZFS = ext4/mdadm niveau risque de pertes ^^ et ce peut importe ou tu lis peut importe ou tu demande
tu as autant de risques d'un côté que de l'autre

Auteur :  augur [ jeu. 27 oct. 2011, 21:48 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

Le seul truc qui me relouse bien, c'est au niveau de l'expansion : tu ne peux pas rajouter un disque de même capacité pour dire "yalah" comme avec mdadm ... :/
=> c'est par pool de x disques :pfff:

Vais faire des benchs la semaine prochaine avec 4x 600 Go 15k en Raid 5 Hard, Raid 5 mdadm et RaidZ avec un SSD

++

Auteur :  augur [ jeu. 27 oct. 2011, 22:13 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

Adaptec 6805 drivers :

Adaptec Storage Manager v6.50.18771 for Solaris 10 Update 7 and Update 8.
=> http://www.adaptec.com/fr-fr/speed/raid ... 71_tgz.htm

AACRAID driver files b18284 for Solaris 10 du 3 avril 2011
=> AACRAID Driver Image v5.2.0 Build 18284 for Solaris 10 Update 7 and 8 : http://www.adaptec.com/fr-fr/speed/raid ... 84_tgz.htm

++

Auteur :  augur [ jeu. 27 oct. 2011, 23:10 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

Et si...

1. Installer OpenSolaris 2009.6 basé sur Solaris 10
2. Mettre les drivers Adaptec b18284
3. Upgrader vers Openindiana 148
4. Upgrader vers Openindiana 151a
5. Créer la Zpool

??

Auteur :  poulpito [ jeu. 27 oct. 2011, 23:11 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

un peu compliqué tout ca :p

Auteur :  poulpito [ jeu. 27 oct. 2011, 23:48 ]
Sujet du message :  Re: Serveur Fichier 2 / ZFS

Conf de la machine

Hardware : X8DAL + 2*E5502 (dual core dual thread 1.86Ghz) + 6Go ECC 800Mhz
disques : 2To samsung HD204UI
Controlleur : Adaptec 6805 avec volumes simples pour les disques

OS : Ubuntu 11.10 server x86_64
ZFS/SPL : ppa ubuntu spl-0.6.0-rc6 & zfs-0.6.0-rc6
vPool ZFS : v28


TEST1 : Raidz2 8*2To ashift=9 (aucun alignement 4k)

Code :
root@ZFSserver:/home/poulpito# zpool create pool1 raidz2 /dev/sd[bcdefghi]


Code :
root@ZFSserver:/home/poulpito# zpool status pool1
  pool: pool1
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        pool1       ONLINE       0     0     0
          raidz2-0  ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
            sde     ONLINE       0     0     0
            sdf     ONLINE       0     0     0
            sdg     ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdi     ONLINE       0     0     0

errors: No known data errors


Code :
root@ZFSserver:/home/poulpito# zfs create pool1/test


Code :
root@ZFSserver:/home/poulpito# df -h
Sys. de fichiers            Taille  Uti. Disp. Uti% Monté sur
/dev/sda1             141G  1,7G  132G   2% /
udev                  3,0G  4,0K  3,0G   1% /dev
tmpfs                 1,2G  440K  1,2G   1% /run
none                  5,0M     0  5,0M   0% /run/lock
none                  3,0G     0  3,0G   0% /run/shm
pool1                  11T     0   11T   0% /pool1
pool1/test             11T     0   11T   0% /pool1/test


Code :
root@ZFSserver:/pool1# dd if=/dev/zero of=test.tmp bs=1024 count=5000000
5120000000 octets (5,1 GB) copiés, 54,6461 s, 93,7 MB/s


root@ZFSserver:/pool1# dd if=test.tmp of=/dev/null
5120000000 octets (5,1 GB) copiés, 48,9517 s, 105 MB/s



TEST2 : Raidz2 8*2To ashift=12 (alignement 4k)

Code :
root@ZFSserver:/# zpool create -o ashift=12 pool1 raidz2 /dev/sd[bcdefghi]
root@ZFSserver:/# zfs create pool1/test


root@ZFSserver:/pool1/test# zpool status
  pool: pool1
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        pool1       ONLINE       0     0     0
          raidz2-0  ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
            sde     ONLINE       0     0     0
            sdf     ONLINE       0     0     0
            sdg     ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdi     ONLINE       0     0     0

errors: No known data errors


(j'ai réduis le DD à 1Go ca change rien de toute facon)

root@ZFSserver:/pool1/test# dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 12,2449 s, 83,6 MB/s

root@ZFSserver:/pool1/test# dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 8,7161 s, 117 MB/s





TEST3 : Raidz 8*2To ashift=12 (alignement 4k)


Code :
root@ZFSserver:/# zpool destroy pool1
root@ZFSserver:/# zpool create -o ashift=12 pool1 raidz /dev/sd[bcdefghi]

root@ZFSserver:/pool1/test# dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 10,6511 s, 96,1 MB/s


root@ZFSserver:/pool1/test# dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 8,51438 s, 120 MB/s



TEST4 : Raidz 4*2To + Raidz 4*2To en zpool ashift=12 (alignement 4k)

Code :
root@ZFSserver:/# zpool create -o ashift=12 pool1 raidz /dev/sd[bcde]
root@ZFSserver:/# zpool add pool1 raidz /dev/sd[fghi]

root@ZFSserver:/# zpool status pool1
  pool: pool1
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        pool1       ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
            sde     ONLINE       0     0     0
          raidz1-1  ONLINE       0     0     0
            sdf     ONLINE       0     0     0
            sdg     ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdi     ONLINE       0     0     0



Code :
root@ZFSserver:/pool1/test# dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 10,7404 s, 95,3 MB/s

root@ZFSserver:/pool1/test# dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 8,65271 s, 118 MB/s



TEST5: Raidz 4*2To ashift=12 (alignement 4k)

Code :
root@ZFSserver:/# zpool create -o ashift=12 pool1 raidz /dev/sd[fghi]
root@ZFSserver:/# zfs create pool1/test


Code :
root@ZFSserver:/pool1/test# dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 10,8038 s, 94,8 MB/s

root@ZFSserver:/pool1/test# dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 8,56252 s, 120 MB/s











et juste pour comparer
mon serveur de fichier linux mdadm

sur raid5 4*2To non aligné 4k
Code :
poulpito@Storage:/media/raid2$ dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 5,58066 s, 183 MB/s

poulpito@Storage:/media/raid2$ dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 8,56752 s, 120 MB/s


sur raid5 8*1To
Code :
poulpito@Storage:/media/raid$ dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 13,532 s, 75,7 MB/s

poulpito@Storage:/media/raid$ dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 4,2412 s, 241 MB/s




voila pour ce soir :sante:
je trouve que les perfs sont pas si mal

par contre avec DD je suis direct CPUlimited (genre 120% cpu ou un truc comme ça)
donc à voir en mode réel avec films HD à travers ethernet giga

Page 3 sur 14 Heures au format UTC+03:00
Powered by phpBB® Forum Software © phpBB Limited
https://www.phpbb.com/