-==<XTBA>==-

Windows ne demande jamais à Chuck Norris d'envoyer le rapport d'erreur. Bill Gates vient le chercher lui même, avec toutes ses excuses.
Nous sommes le ven. 29 mars 2024, 04:06

Heures au format UTC+03:00




Poster un nouveau sujet  Répondre au sujet  [ 330 messages ]  Aller à la page Précédente 1 2 3 4 514 Suivante
Auteur Message
MessagePosté : jeu. 27 oct. 2011, 09:49 
Hors ligne
Administrateur
Administrateur
Avatar de l’utilisateur

Enregistré le : ven. 3 oct. 2008, 20:21
Messages : 17419
Pseudo Boinc : [XTBA>TSA] IvanleFou
Localisation : Grenoble (38)
poulpito a écrit :
ouai et apparement les 31605 marchent pas non plus
non mais je te jure c'est la looose :(

jvai finir par continuer avec mon mdadm et mon linux aux oignons mais bon ce sera de plus en plus dur si je veux migrer après
et c'est dommage [sarcastic.gif]


Je te l'avais dit, quand on a un truc qui marche et qui repond a ses besoins on ne touche pas :o Depuis le debut votre machin elitiste developpe au fond d'un garage par un boutonneux je le sens pas. La preuve ya que la carte du gars qui a developpe qui marche :mdr:

Reste sur de la valeur sure, mdadm ca roxe. Il a deja prouve qu'il est capable de recup les donnees en cas de crash alors pourquoi changer?

_________________
Image
V8 farmer [benou_miam.gif]


Haut
   
MessagePosté : jeu. 27 oct. 2011, 10:23 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
parce que mdadm c'est le summum du risque de corruption de superblock avec de l'ext par dessus
j'ai déjà perdu mes datas une fois ^^ pas envie de les reperdre une deuxième fois

et ca ca n'existe pas sous ZFS


Haut
   
MessagePosté : jeu. 27 oct. 2011, 10:31 
Hors ligne
Administrateur
Administrateur
Avatar de l’utilisateur

Enregistré le : ven. 3 oct. 2008, 20:21
Messages : 17419
Pseudo Boinc : [XTBA>TSA] IvanleFou
Localisation : Grenoble (38)
Alors je dois avoir de la chance :/

_________________
Image
V8 farmer [benou_miam.gif]


Haut
   
MessagePosté : jeu. 27 oct. 2011, 10:36 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
oui moi aussi mais au plus ca va au moins j'ai envie de jouer ^^


Haut
   
MessagePosté : jeu. 27 oct. 2011, 10:47 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
moi aussi j'ai donc eu de la chance depuis juin 2009 ? :)

... de mon coté : j'ai des WD Green achetés en 2009 ; à l'époque on ne parlait pas de la manip à faire pour le TLER et le Seek park afin d'éviter qu'ils buttent les disques en Raid.

Du coup, là ils ont une durée de vie bien plus limitée que prévu et la garantie de ces disques se terminent en mai 2012.

Optimisations :
=> http://forums.freebsd.org/showpost.php? ... stcount=14

    1) Use the "wdidle3" DOS utility to change the head parking interval from the default of 8 seconds to as high as 5 minutes:
Code :
DOS> wdidle3 /S300

This is to avoid premature failure of the drive due to a high rate of "Load/Unload Cycle Count" (as seen in SMART reports).

    2) Some say these drives are unsuitable for RAID systems due to their inability to support TLER (Time Limted Error Recovery) however, sub.mesa seems to think that this is not an issue with ZFS in the following post: http://www.allquests.com/question/40874 ... -RAID.html and I have not had a single problem of this nature.

    3) Align to 4 KiB boundaries... As these are advanced format drives you'll get best performance if all accesses are 4 KiB aligned. I dealt with this by having my NAS boot from different media and using these 2TB drives for data only with the ZFS pool created directly on the entire disk (without any MBR or GPT partition table) using gnop devices that are set to have a 4 KiB block size.
ZFS remembers that the pool was created in this way and continues to use 4 KiB block sizes for access throughout it's life:

Create the 4KiB sector size gnop devices:
Code :
# gnop create -S 4096 /dev/ad6
# gnop create -S 4096 /dev/ad8
# gnop create -S 4096 /dev/ad10
# gnop create -S 4096 /dev/ad12

# zpool create zroot raidz1 /dev/ad6.nop /dev/ad8.nop /dev/ad10.nop /dev/ad12.nop


We can show that the pool that has been created is using 4 KiB blocks with the following command returning "12" instead of "9" (even after reboot when the gnop devices no longer exist):

Code :
# zdb | grep ashift
                ashift=12


Other tips for successful FreeBSD ZFS joy:

    1) Use 64 bit FreeBSD with enough RAM (I opted for 8 GB in 2 x 4 GB sticks but I'm also running virtual machines and other Java based systems on my NAS).

    2) If using Samba (as I am), build Samba to take advantage of Asynchronous I/O (AIO_SUPPORT) and have that kernel module loaded at boot time (in /boot/loader.conf):

Code :
aio_load="YES"


    3) Use the modern SATA support in FreeBSD with

Code :
ahci_load="YES"


in /boot/loader.conf (NOTE: I had no problems enabling this after the initial ZFS system was built even though the ad6, ad8, ad10 & ad12 devices all became ada0 -> ada3.

I typically average over 45 MB/s writing large files to my ZFS NAS from a Windows 7 machine.

++

_________________
Image

Kévin, sor deux sec or !!


Modifié en dernier par augur le dim. 13 nov. 2011, 20:57, modifié 1 fois.

Haut
   
MessagePosté : jeu. 27 oct. 2011, 13:01 
Hors ligne
Administrateur
Administrateur
Avatar de l’utilisateur

Enregistré le : ven. 3 oct. 2008, 20:21
Messages : 17419
Pseudo Boinc : [XTBA>TSA] IvanleFou
Localisation : Grenoble (38)
J'ai un disque qui a lache, changement et c'est reparti :bounce

_________________
Image
V8 farmer [benou_miam.gif]


Haut
   
MessagePosté : jeu. 27 oct. 2011, 13:05 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Quid du Raid5 / 6 Hard : passage d'une 31605 vers 51605, et vice vers ça ??

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : jeu. 27 oct. 2011, 13:45 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
no idea mais normalement les infos de raid sont stockées dans les metadata au début du disque
donc la bascule devrait se faire sans soucis :)


Haut
   
MessagePosté : jeu. 27 oct. 2011, 14:29 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
dans la mesure ou je suis un peu coincé j'ai avancé les recherches sur l'option dont tu avais parlais qui me tentait pas trop
à savoir ZFS on Linux

sauf que je pensai qu'on en était toujours à la phase ou ZFS passait par FUSE donc par une interface avant d'envoyer les commandes aux IOs = truc qui rame

sauf que j'avais pas vu que les derniers ZFS et ceux que j'ai compilé sur mon ubuntu sont des versions natives \o/
donc ca rox
sans compter que spl-0.6.0-rc6 & zfs-0.6.0-rc6 (les 5.2 aussi je pense) supportent l'alignement à 4k via -o ashift=12 comme je l'avais dit
je pense que je vais partir sur cette solution et tester un peu les perfs avec mes 8*2To


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 14:32 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
Hop division de sujet avec l'autre pour être pénard ^^


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 14:39 
Hors ligne
Moderateur
Moderateur
Avatar de l’utilisateur

Enregistré le : mer. 8 oct. 2008, 09:34
Messages : 4939
Pseudo Boinc : [XTBA>TSA] Angel
quelle organisation:! lol dis tu as vu mon mp poulpe?

_________________
Image


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 14:47 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
oui oui


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 14:53 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Trop cool pour ZFS sous Ubuntu / Debian :bounce

Trop cool pour un topic dédié ZFS :bounce

:jap:

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 15:19 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
au plus je consulte de docs / infos au plus je suis sceptique ptdr

This means that if you design something for PC hardware, you need to at least acknowledge that crappy hardware does exist and is going to make your software abstractions leaky. A good design should not exclude worst-case scenarios. For ZFS, this means they need to acknowledge that disks are going to break things and corrupt the data in ways that the ZFS design isn't going to be able to avoid. And when that happens, your users will want to have a good fsck tool to fix the mess or recover the data. It's somewhat contradictory that the ZFS developers worked really hard to design those anti-corruption mechanisms, but they left the extreme cases of data corruption where a fsck is necessary uncovered.


http://www.osnews.com/story/22423/Shoul ... fsck_Tool_


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 18:03 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Moi c'est tout le contraire ! :)

Faut juste bien regarder les dates de parutions de articles
=> celui qui te perplexetise est du 2nd Nov 2009
... en 2 ans, ZFS a fait des progrès avec le pojet Illumos.

Les derniers en date : 13 septembre 2011 et c'est bien parti parti pour être mieux parti.

++

_________________
Image

Kévin, sor deux sec or !!


Modifié en dernier par augur le jeu. 27 oct. 2011, 19:17, modifié 1 fois.

Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 19:04 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
bah justement
toujours pas d'outils de correction à la fsck :/ même deux ans après
de toute façon j'oublie solaris et cie puisqu'ils prennent pas correctement en compte mes adaptec


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 19:17 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
poulpito a écrit :
bah justement
toujours pas d'outils de correction à la fsck :/ même deux ans après

Oui MAIS

Sous ZFS, l'équivalent de fsck est scrub, qui fonctionne sur des disques montés, et teste aussi bien les données que les méta-données.

Dans les (très rares) cas où une corruption ne peut pas être corrigée, ZFS peut utiliser la copie précédente du fichier, conservée grâce au mécanisme de Copy on Write (COW). Car en mettant à jour un fichier, ZFS ne récrit jamais sur l'ancien fichier mais alloue un nouveau bloc de données, et réécrit les méta-données et les pointeurs ; les mises à jour successives sont gérées sous forme de transactions, qui sont décrites dans un fichier spécial (Intent log) qui permet de reconstituer les opérations faites sur le fichier.

COW permet aussi de prendre régulièrement des clichés (snapshots) du système de fichiers. Comme toutes les données qui le composent sont déjà stockées, un cliché peut être créé très rapidement. Les clichés (quand ils sont autorisés en écriture) permettent de disposer de véritables clones du système de fichier ; les blocs qui n'ont pas subi de changement sont partagés entre tous les clones.

=> http://macpuissancedix.com/936d.php

+

Réparation du système de fichiers

Avec les systèmes de fichiers classiques, la méthode d'écriture des données est affectée par les pannes inattendues entraînant des incohérences de systèmes de fichiers. Un système de fichiers classique n'étant pas transactionnel, les blocs non référencés, les comptes de liens défectueux ou autres structures de systèmes de fichiers incohérentes sont possibles. L'ajout de la journalisation résout certains de ces problèmes, mais peut entraîner des problèmes supplémentaires lorsque la restauration du journal est impossible. Une incohérence des données sur disque dans une configuration ZFS ne se produit qu'à la suite d'une panne de matérielle (auquel cas le pool aurait dû être redondant) ou en présence d'un bogue dans le logiciel ZFS.

L'utilitaire fsck répare les problèmes connus spécifiques aux systèmes de fichiers UFS. La plupart des problèmes au niveau des pools de stockage ZFS sont généralement liés à un matériel défaillant ou à des pannes de courant. En utilisant des pools redondants, vous pouvez éviter de nombreux problèmes. Si le pool est endommagé suite à une défaillance de matériel ou à une coupure de courant, reportez-vous à la section Réparation de dommages présents dans l'ensemble du pool de stockage ZFS.

Si le pool n'est pas redondant, le risque qu'une corruption de système de fichiers puisse rendre tout ou partie de vos données inaccessibles est toujours présent.

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 20:07 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
ce soir je vais monter un proto ubuntu 11.10 server x64 et ZFS native

pour voir ce que ça donne
y foutre quelques films dessus et bencher le tout genre
test1 Zpool : Raidz 4*2To + Raidz 4*2To
test2 Zpool : Raidz2 8*2To
histoire de voir la perte de perf entre un pool de deux raidz(équivalent raid5) et un de raidz2 (équivalent raid6)


je suis pas pressé j'ai encore un peu de place sur mon norco
il faut aussi que je test si un volume simple de l'adaptec 6805 arrive bien à repartir sur la 31605 du norco puisque mes disques basculeront dessus après


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 20:24 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Pour reprendre votre discussion Polupi / Ivan à propos de EXT4 / ZFS et corruption de données
=> ZFS est plus souvent utilisé que EXT3 ou EXT4 sur de gros volume (> 12 To)
=> ZFS est un système de fichier éprouvé et réputé très fiable

D'autres l'ont fait, pourquoi pas nous ? ^^

... pourquoi cette phobie à propos des pertes de données avec ZFS ?!?

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 21:39 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
parce que je veux ZFS pour éviter les pertes de données d'ext4 même si j'en ai pas clairement exprimé ma phobie

sauf que au final ZFS = ext4/mdadm niveau risque de pertes ^^ et ce peut importe ou tu lis peut importe ou tu demande
tu as autant de risques d'un côté que de l'autre


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 21:48 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Le seul truc qui me relouse bien, c'est au niveau de l'expansion : tu ne peux pas rajouter un disque de même capacité pour dire "yalah" comme avec mdadm ... :/
=> c'est par pool de x disques :pfff:

Vais faire des benchs la semaine prochaine avec 4x 600 Go 15k en Raid 5 Hard, Raid 5 mdadm et RaidZ avec un SSD

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 22:13 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Adaptec 6805 drivers :

Adaptec Storage Manager v6.50.18771 for Solaris 10 Update 7 and Update 8.
=> http://www.adaptec.com/fr-fr/speed/raid ... 71_tgz.htm

AACRAID driver files b18284 for Solaris 10 du 3 avril 2011
=> AACRAID Driver Image v5.2.0 Build 18284 for Solaris 10 Update 7 and 8 : http://www.adaptec.com/fr-fr/speed/raid ... 84_tgz.htm

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 23:10 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Et si...

1. Installer OpenSolaris 2009.6 basé sur Solaris 10
2. Mettre les drivers Adaptec b18284
3. Upgrader vers Openindiana 148
4. Upgrader vers Openindiana 151a
5. Créer la Zpool

??

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 23:11 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
un peu compliqué tout ca :p


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 27 oct. 2011, 23:48 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
Conf de la machine

Hardware : X8DAL + 2*E5502 (dual core dual thread 1.86Ghz) + 6Go ECC 800Mhz
disques : 2To samsung HD204UI
Controlleur : Adaptec 6805 avec volumes simples pour les disques

OS : Ubuntu 11.10 server x86_64
ZFS/SPL : ppa ubuntu spl-0.6.0-rc6 & zfs-0.6.0-rc6
vPool ZFS : v28


TEST1 : Raidz2 8*2To ashift=9 (aucun alignement 4k)

Code :
root@ZFSserver:/home/poulpito# zpool create pool1 raidz2 /dev/sd[bcdefghi]


Code :
root@ZFSserver:/home/poulpito# zpool status pool1
  pool: pool1
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        pool1       ONLINE       0     0     0
          raidz2-0  ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
            sde     ONLINE       0     0     0
            sdf     ONLINE       0     0     0
            sdg     ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdi     ONLINE       0     0     0

errors: No known data errors


Code :
root@ZFSserver:/home/poulpito# zfs create pool1/test


Code :
root@ZFSserver:/home/poulpito# df -h
Sys. de fichiers            Taille  Uti. Disp. Uti% Monté sur
/dev/sda1             141G  1,7G  132G   2% /
udev                  3,0G  4,0K  3,0G   1% /dev
tmpfs                 1,2G  440K  1,2G   1% /run
none                  5,0M     0  5,0M   0% /run/lock
none                  3,0G     0  3,0G   0% /run/shm
pool1                  11T     0   11T   0% /pool1
pool1/test             11T     0   11T   0% /pool1/test


Code :
root@ZFSserver:/pool1# dd if=/dev/zero of=test.tmp bs=1024 count=5000000
5120000000 octets (5,1 GB) copiés, 54,6461 s, 93,7 MB/s


root@ZFSserver:/pool1# dd if=test.tmp of=/dev/null
5120000000 octets (5,1 GB) copiés, 48,9517 s, 105 MB/s



TEST2 : Raidz2 8*2To ashift=12 (alignement 4k)

Code :
root@ZFSserver:/# zpool create -o ashift=12 pool1 raidz2 /dev/sd[bcdefghi]
root@ZFSserver:/# zfs create pool1/test


root@ZFSserver:/pool1/test# zpool status
  pool: pool1
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        pool1       ONLINE       0     0     0
          raidz2-0  ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
            sde     ONLINE       0     0     0
            sdf     ONLINE       0     0     0
            sdg     ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdi     ONLINE       0     0     0

errors: No known data errors


(j'ai réduis le DD à 1Go ca change rien de toute facon)

root@ZFSserver:/pool1/test# dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 12,2449 s, 83,6 MB/s

root@ZFSserver:/pool1/test# dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 8,7161 s, 117 MB/s





TEST3 : Raidz 8*2To ashift=12 (alignement 4k)


Code :
root@ZFSserver:/# zpool destroy pool1
root@ZFSserver:/# zpool create -o ashift=12 pool1 raidz /dev/sd[bcdefghi]

root@ZFSserver:/pool1/test# dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 10,6511 s, 96,1 MB/s


root@ZFSserver:/pool1/test# dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 8,51438 s, 120 MB/s



TEST4 : Raidz 4*2To + Raidz 4*2To en zpool ashift=12 (alignement 4k)

Code :
root@ZFSserver:/# zpool create -o ashift=12 pool1 raidz /dev/sd[bcde]
root@ZFSserver:/# zpool add pool1 raidz /dev/sd[fghi]

root@ZFSserver:/# zpool status pool1
  pool: pool1
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        pool1       ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
            sde     ONLINE       0     0     0
          raidz1-1  ONLINE       0     0     0
            sdf     ONLINE       0     0     0
            sdg     ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdi     ONLINE       0     0     0



Code :
root@ZFSserver:/pool1/test# dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 10,7404 s, 95,3 MB/s

root@ZFSserver:/pool1/test# dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 8,65271 s, 118 MB/s



TEST5: Raidz 4*2To ashift=12 (alignement 4k)

Code :
root@ZFSserver:/# zpool create -o ashift=12 pool1 raidz /dev/sd[fghi]
root@ZFSserver:/# zfs create pool1/test


Code :
root@ZFSserver:/pool1/test# dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 10,8038 s, 94,8 MB/s

root@ZFSserver:/pool1/test# dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 8,56252 s, 120 MB/s











et juste pour comparer
mon serveur de fichier linux mdadm

sur raid5 4*2To non aligné 4k
Code :
poulpito@Storage:/media/raid2$ dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 5,58066 s, 183 MB/s

poulpito@Storage:/media/raid2$ dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 8,56752 s, 120 MB/s


sur raid5 8*1To
Code :
poulpito@Storage:/media/raid$ dd if=/dev/zero of=test.tmp bs=1024 count=1000000
1024000000 octets (1,0 GB) copiés, 13,532 s, 75,7 MB/s

poulpito@Storage:/media/raid$ dd if=test.tmp of=/dev/null
1024000000 octets (1,0 GB) copiés, 4,2412 s, 241 MB/s




voila pour ce soir :sante:
je trouve que les perfs sont pas si mal

par contre avec DD je suis direct CPUlimited (genre 120% cpu ou un truc comme ça)
donc à voir en mode réel avec films HD à travers ethernet giga


Haut
   
Afficher les messages postés depuis :  Trier par  
Poster un nouveau sujet  Répondre au sujet  [ 330 messages ]  Aller à la page Précédente 1 2 3 4 514 Suivante

Heures au format UTC+03:00


Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 1 invité


Vous ne pouvez pas poster de nouveaux sujets
Vous ne pouvez pas répondre aux sujets
Vous ne pouvez pas modifier vos messages
Vous ne pouvez pas supprimer vos messages
Vous ne pouvez pas joindre des fichiers

Rechercher :
Aller à :  
cron
Développé par phpBB® Forum Software © phpBB Limited
Traduit par phpBB-fr.com