-==<XTBA>==-

Windows ne demande jamais à Chuck Norris d'envoyer le rapport d'erreur. Bill Gates vient le chercher lui même, avec toutes ses excuses.
Nous sommes le dim. 22 déc. 2024, 13:36

Heures au format UTC+03:00




Poster un nouveau sujet  Répondre au sujet  [ 330 messages ]  Aller à la page Précédente 13 4 5 6 714 Suivante
Auteur Message
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 02:06 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
2h35 pour faire un scrub d'un raiz 8*2To avec 4To de données dessus
c'est raisonnable comparé à mdadm et quasi pas d'impact sur un transfert en court
je restest demain soir quand j'aurais fini de copier mes films HD sur le disque pour tester (je les garde encore sur le norco histoire d'être sur)


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 02:33 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Et pourquoi as tu fait un Scrub ?

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 03:03 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
ZFS pour Ubuntu
=> https://launchpad.net/~zfs-native/+archive/stable (ZFS pour Ubuntu)

Tests & Perf
=> http://hardforum.com/showthread.php?t=1651800

The machine specs are now

SUPERMICRO X8DTN+
2 x Xeon 2.26Ghz
2 x 80 GB WD
2 x Corsair Corsair_Force_3 120GB
8 x 2 TB Western Digital WD2002FYPS SATA 5400RPM
8 x 2 TB Western Digital WD2003FYYS SATA 7200RPM
1 x 3ware 9650SE-16ML 16 Port SATA Raid
Uubntu 10.04.3 LTS 64Bit
12GB RAM

I took the advise of the Forums and stay away from zfs-fuze, deciding on using the Ubuntu package by Darik Horn

I wanted to try out sub.mesa's zfs build, but this backup server also runs a number of jobs so I couldn't move away from Ubuntu just yet.
The next build we will do will split the rolls up giving up a backup target (sub.mesa) and a server to push things around.


That said, here's our layout; I have two pools;
-1 RAIDz on a Raid5 array from the Controller for the 8 5400RPM drives (/backup/base0)
-1 RAIDz for the 8 7200RPM drives (/backup/base1)


I put base0 together as quickly as possible as we needed somewhere to store our backups before sending them to tape and to boss said to build a Hardware Raid5 array with ZFS. We didn't know enough back then, but now with the base1 I had more time to test out different setting for best performance. On the zfs side, there was
Dedup on/off
Compression on/off
ZIL on an SSD or not
L2ARC on an SSD or not

On the Controller, I set all the drives to single disk mode, and enabled and disabled
Read Cache
Write Cache
Write Journaling
Queuing
Link Speed (1.5 vs 3.0 Gb/s)

And finally Raid types
RaidZ with 8 disks
RaidZ with 4 Raid0 arrays on the controller

Image

Now, that wall all theoretical benchmarking. Things are not so simple in the real world as I'm slowly learning

My system setup has /backup as the mount points for both base0 and base1

Code :
# zpool list all
NAME              USED  AVAIL  REFER  MOUNTPOINT
base0            11.6T   838G  11.6T  /backup/base0
base1             454G  11.6T   354G  /backup/base1
base1/archive     229K  11.6T   229K  /backup/base1/archive
base1/filelevel   100G  11.6T   100G  /backup/base1/filelevel
base1/vmlevel     229K  11.6T   229K  /backup/base1/vmlevel
-


Code :
# zpool status
  pool: base0
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        base0       ONLINE       0     0     0
          sdd       ONLINE       0     0     0


  pool: base1
 state: ONLINE
 scan: none requested
config:

        NAME                                            STATE     READ WRITE CKSUM
        base1                                           ONLINE       0     0     0
          raidz1-0                                      ONLINE       0     0     0
            scsi-3600050e0bd269d00722d0000fe750000      ONLINE       0     0     0
            scsi-3600050e0bd26b60060ff00008aa70000      ONLINE       0     0     0
            scsi-3600050e0bd26ca00673f0000c84b0000      ONLINE       0     0     0
            scsi-3600050e0bd281900d841000032ef0000      ONLINE       0     0     0
            scsi-3600050e0bd282800bcc1000079570000      ONLINE       0     0     0
            scsi-3600050e0bd283700c197000017b90000      ONLINE       0     0     0
            scsi-3600050e0bd284b00a47300006cf10000      ONLINE       0     0     0
            scsi-3600050e0bd285a0021cd0000af4f0000      ONLINE       0     0     0
        cache
          ata-Corsair_Force_3_SSD_11356504000006820497  ONLINE       0     0     0

errors: No known data errors


Code :
zfs get dedup,compression
NAME             PROPERTY     VALUE          SOURCE
base0            dedup        off            default
base0            compression  off            default
base1            dedup        off            default
base1            compression  off            default
base1/archive    dedup        off            default
base1/archive    compression  off            default
base1/filelevel  dedup        off            default
base1/filelevel  compression  on             local
base1/vmlevel    dedup        off            default
base1/vmlevel    compression  off            default



I have a couple of questions, for one, does anyone want my CSV bonnie++ results?

Also I'm at a loss as for why all my 'per char' results so low... Can't seem to figure that out.

Lastly, I set the wrong datastore for a backup (put it into /backup/base1/ instead of /backup/base1/filelevel/) and now I'm trying to

Code :
mv /backup/base1/server001/daily.0/ ../filelevel/server001/


and it's taking forever with almost nothing happening. The data is an rsync from a number of linux servers, totaling ~355GB. It only took 5 hours to get that data over the network, and it's been moving it to the correct dataset for 6 hours and is only at 100GB xfered;

Code :
iostat -x 1

                             extended device statistics
device mgr/s mgw/s    r/s    w/s    kr/s    kw/s   size queue   wait svc_t  %b
sda        0     0    0.0    0.0     0.0     0.0    0.0   0.0    0.0   0.0   0
sdc        0     0    0.0    0.0     0.0     0.0    0.0   0.0    0.0   0.0   0
sdb        0     3    2.0    2.0     2.9    96.2   25.4   0.1   17.5  17.5   7
md2        0     0    0.0    0.0     0.0     0.0    0.0   0.0    0.0   0.0   0
md1        0     0    0.0    0.0     0.0     0.0    0.0   0.0    0.0   0.0   0
md0        0     0    0.0    0.0     0.0     0.0    0.0   0.0    0.0   0.0   0
sdd        0     0    0.0    0.0     0.0     0.0    0.0   0.0    0.0   0.0   0
sde        8     0   50.8    0.0  1555.1     0.0   30.6   0.8   14.8  11.0  56
sdf        9     0   44.0    0.0  1543.3     0.0   35.1   0.6   14.0   9.6  42
sdg        9     0   47.9    0.0  1562.9     0.0   32.7   0.7   14.5  10.8  52
sdh        9     0   51.8    0.0  1476.9     0.0   28.5   0.7   13.2   9.4  49
sdi       11     0   46.9    0.0  1582.4     0.0   33.8   0.7   15.2  10.6  50
sdk        9     0   46.9    0.0  1562.9     0.0   33.3   0.7   15.4  11.0  52
sdj        5     0   50.8    0.0  1476.9     0.0   29.1   0.7   14.4   8.5  43
sdl        8     0   49.8    0.0  1527.7     0.0   30.7   0.8   15.7  11.2  56


# zpool iostat -v
                                           capacity     operations    bandwidth
pool                                    alloc   free   read  write   read  write
--------------------------------------  -----  -----  -----  -----  -----  -----
base0                                   11.6T  1.02T     64     61  4.42M  5.46M
  sdd                                   11.6T  1.02T     64     61  4.42M  5.46M
--------------------------------------  -----  -----  -----  -----  -----  -----
base1                                    549G  14.0T     60    149  6.13M  8.26M
  raidz1                                 549G  14.0T     60    149  6.13M  8.26M
    scsi-3600050e0bd269d00722d0000fe750000      -      -     14     16   893K  1.30M
    scsi-3600050e0bd26b60060ff00008aa70000      -      -     14     16   870K  1.28M
    scsi-3600050e0bd26ca00673f0000c84b0000      -      -     14     16   891K  1.30M
    scsi-3600050e0bd281900d841000032ef0000      -      -     14     16   871K  1.29M
    scsi-3600050e0bd282800bcc1000079570000      -      -     14     16   893K  1.30M
    scsi-3600050e0bd283700c197000017b90000      -      -     13     16   869K  1.28M
    scsi-3600050e0bd284b00a47300006cf10000      -      -     14     16   890K  1.30M
    scsi-3600050e0bd285a0021cd0000af4f0000      -      -     14     16   871K  1.29M
cache                                       -      -      -      -      -      -
  ata-Corsair_Force_3_SSD_11356504000006820497   106G  5.89G      6     11  67.1K  1.36M
--------------------------------------  -----  -----  -----  -----  -----  -----

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 03:24 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
ses perfs ne valent rien vu la conf raidz utilisée :p

et sinon pour ubuntu oui c'est ce dépot que j'utilise zfsonlinux en version ppa compilées :)
ca évite de se palucher la compil

le zfs scrub il faut le lancer régulièrement pour checker ses données sinon ça n'a aucun sens d'avoir un zfs
le fs auto répare beaucoup de choses mais pour la synchro avec les blocs de parité apparemment c'est conseillé de le lancer souvent
les gens passent par un cron pour être pénard
si je pars sur du ZFS ce sera une fois par mois tout comme mdadm je pense vu le temps que ca prend

je bouge tous mes fils dessus pour voir comment il s'en sort avec la hdbox et en utilisation courante
après je testerai le remplacement de disques et autres merdes voir comment ca réagit (+ coupure de jus pendant écriture aussi pour voir :) )


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 03:34 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
poulpito a écrit :
ses perfs ne valent rien vu la conf raidz utilisée :p

Il a mis ZFS en Raidz sur un Raid5 hardware ... :petrus75:

De mon coté j'attends de voir avec Solaris 11 ce qui va bouger du coté de OpenIndiana...

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 03:42 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
attendre quoi ? y'a pas de gros changement entre le xpress qui était une sorte de RC et la 11 finale qui vient de sortir en tout cas niveau ZFS
enfin il me semble
j'ai rien vu sur le sujet passer dans la boite :)


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 03:45 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Solaris 11 : les utilisateurs disent "[i}Solaris 11 has a lot of new functions and libraries[/i]" ... à propos de ZFS

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 03:47 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
mouai gros doute la ... surement pour tout ce qui est dédup et cie mais pour la base ça m'étonnerai qu'ils aient corrigé le manque d'outils de vérification/réparation voir le code initial ^^


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 18:42 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
In your opinion, is ZFS on Linux production ready? (26.09.2011)

Citation :
SHort answer: No.

Long answer: Not yet. Some of the more advanced functionality (dedup)
is still encountering issues on some systems, while at the same time
some features (such as allow, and ACLs) aren't fully implemented yet, so
it's difficult to say it is production ready, however, the core features
(basic filesystem without compression, dedup, ACLs) are solid as a rock,
which is promising that it will be production ready in the near future.


Citation :
I would disagree with the last post. I have been running RC5 on Centos 6 in
production as a backup server for well over a month with complete stability
and great performance. I am not using dedup, ACLs or compression but the
system has been stable fast and very manageable with 24 x 2 TB drives
attached in one pool. This server gets pounded and saturates it's 10 Gb
interface with backup traffic about 70% of every day so I would tend to say
that stability has been great with not one hang or reboot required.
Granted, I have 8 GB RAM and 4 cores in the server but I have been
delighted with the stability and performance when using the basic feature
set. I did try dedup and it is definitely not ready for prime time as it
killed performance ...

Cheers


= https://groups.google.com/a/zfsonlinux. ... 8fb1?pli=1

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 19:28 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
+1 j'utilise ni dedup ni ACL ni rien
donc je suis pénard :)


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 16 nov. 2011, 19:59 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
Code :
pool: storage4U
 state: ONLINE
 scan: scrub repaired 0 in 3h46m with 0 errors on Wed Nov 16 12:31:43 2011
config:

        NAME        STATE     READ WRITE CKSUM
        storage4U   ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
            sdd     ONLINE       0     0     0
            sde     ONLINE       0     0     0
            sdf     ONLINE       0     0     0
            sdg     ONLINE       0     0     0
            sdh     ONLINE       0     0     0
            sdi     ONLINE       0     0     0

errors: No known data errors



Code :
root@ZFSstorage:/home/poulpito# df -H
Sys. de fichiers             Taille  Util.  Disp. Uti% Monté sur
storage4U              8,4T   263k   8,4T   1% /storage4U
storage4U/test          14T   4,9T   8,4T  37% /storage4U/test
root@ZFSstorage:/home/poulpito#


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 17 nov. 2011, 16:59 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Partage Samba :

Build Samba to take advantage of Asynchronous I/O (AIO_SUPPORT) and have that kernel module loaded at boot time (in /boot/loader.conf):

Code :
aio_load="YES"

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 26 janv. 2012, 22:29 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : mar. 7 oct. 2008, 17:05
Messages : 9914
Pseudo Boinc : [XTBA>XTC] ZeuZ
Localisation : Devant mon écran
Bon j'ai un soucis [fier.gif]

J'avais déjà fais joujou avec le ZFS il y'a quelques mois, j'avais été conquis mais un soucis avec solaris m'avait fait retourner sous nunux (solaris mettait un core de mon cpu en "fault" alors qu'il était rock stable :/ )

Les essais de poulpi m'ont donné l'envie de tester zfs on linux, donc vm toussa, ça marque du feu de dieu sauf pour remplacer un disque :/ J'ai fais une simulation de panne en retirant le disque virtuel et en ajoutant un autre à sa place, un zpool status me dis bien que mon raidz est dégradé et que le disque xy est unavailable.

Ca fait je sais pas combien de temps que j'essaie toutes les commandes et rien ne marche, la commande zpool replace tank disque-mort disque-neuf ne fonctionne pas il me marque no such device in the pool, quand j'essaie de l'attacher il me dit pareil [fier.gif]

WTF? Y'a une astuce ou bien? Sous solaris j'utilisais napp it :whistle1:

_________________
Image


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : ven. 27 janv. 2012, 00:49 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
uhmm non aucun soucis de mon côté avec le replace de zpool :) pourquoi tank il s'appel comme ca ton zpool :p


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : ven. 27 janv. 2012, 00:58 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : mar. 7 oct. 2008, 17:05
Messages : 9914
Pseudo Boinc : [XTBA>XTC] ZeuZ
Localisation : Devant mon écran
Ok merci, je le détruirais demain et je le recommencerai pour voir

Tank parce que c'est un truc de test, à cours d'imagination et parce que dans la liste des commandes que j'ai chopé sur le net c'était ce nom là ^^

_________________
Image


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mar. 31 janv. 2012, 22:23 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : mar. 7 oct. 2008, 17:05
Messages : 9914
Pseudo Boinc : [XTBA>XTC] ZeuZ
Localisation : Devant mon écran
Ca rox quand même du poney le ZFS, dès que les disques diminuent, j'en achète pour faire des sauvegardes et passage au zfs on linux

_________________
Image


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : dim. 5 févr. 2012, 21:37 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
TOR pour ZFS !! oO
=> http://raichoo.blogspot.com/2012/02/set ... lumos.html
=> Mode Bridge pour TOR : https://www.torproject.org/docs/bridges.html.en



++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mar. 7 févr. 2012, 17:05 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
ZFS Slow Performance Fix

The following information could be beneficial to some, however my issues actually were with Caviar black drives shipping with TLER disabled. You need to pay Western Digital a premium for their “RAID” drives with TLER enabled. So for anyone reading this, avoid consumer Western Digital drives if you plan on using them for RAID.

zfs_vdev_max_pending

I can’t believe how long I have been tolerating horrible concurrent IO performance on OpenSolaris running ZFS. When I have any IO intensive writes happening the whole system slows down to a crawl for any further IO. Running “ls” on a uncached directory is just painful.

Code :
victori@opensolaris:/opt# iostat -xnz 1

                    extended device statistics
    r/s    w/s   kr/s   kw/s wait actv wsvc_t asvc_t  %w  %b device
    0.0   87.0    0.0 2878.1  0.0  0.0    0.0    0.4   0 100 c4t0d0
    0.0   83.0    0.0 2878.1  0.0  0.1    0.2    0.7   1  50 c4t1d0
    1.0    0.0   28.0    0.0  0.0  0.0    0.0    5.4   0   1 c4t2d0


Notice c4t0d0 is blocking at 100%. If a disk is blocking at 100% good luck getting the disk to do any other operations such as reads.

SATA disks do Native Command Queuing while SAS disks do Tagged Command Queuing, this is an important distinction. Seems like OpenSolaris/Solaris is optimized for the latter with a 32 wide command queue set by default. This completely saturates the SATA disks with IO commands in turn making the system unusable for short periods of time.

Dynamically set the ZFS command queue to 1 to optimize for NCQ.
Code :
echo zfs_vdev_max_pending/W0t1 | mdb -kw


And add to /etc/system
Code :
set zfs:zfs_vdev_max_pending=1


Enjoy your OpenSolaris server on cheap SATA disks!

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : jeu. 23 févr. 2012, 20:58 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Hors linux, monter du ZFS au 23.02.2012
Citation :
Current state:
ZFS pool V. 28 is OpenSource
ZFS pool > V.28 from Oracle is not open and total incompatible with all others.

There are only 3 options:
1. Oracle opens Solaris again (i doubt)
2. Illumos develops a compatible Zpool > V. 28 (comparable situation: NTFS)
3. Illumos adds new features also. These pools are incompatible with Solaris
If you need interchangable pools, you must stay at V.28 forever


... :/

L'équipe dde dev de ZFS est à présent chez Illuminos, d'où la news du 8 février 2012
=> http://wiki.illumos.org/index.php/Illum ... ent_events

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mar. 28 févr. 2012, 03:26 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
En cours de dev, une novueauté : "ZFS Feature Flags"



Le pdf : http://upload.setiaddicted.com/fichiers ... cda935.pdf

Citation :
This "feature flags" versioning allows unknown versions to be identified, and in many cases the ZFS pool or filesystem can be accessed read-only even in the presence of unknown on-disk features.
My proposal covers versioning of the SPA/zpool, ZPL/zfs, send stream, and allocation of compression and checksum identifiers (enum values).


En gros : permettre d'étendre ZFS à la façon de Raid5 ou Raid6 plutôt qu'en vDev

_________________
Image

Kévin, sor deux sec or !!


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mar. 28 févr. 2012, 12:18 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : mar. 7 oct. 2008, 17:05
Messages : 9914
Pseudo Boinc : [XTBA>XTC] ZeuZ
Localisation : Devant mon écran
Intéressant ! C'est un des rares points faibles du ZFS perso

_________________
Image


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 14 mars 2012, 14:04 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : mar. 7 oct. 2008, 17:05
Messages : 9914
Pseudo Boinc : [XTBA>XTC] ZeuZ
Localisation : Devant mon écran
Toujours content poulpi? Aucun soucis à déplorer?

_________________
Image


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 14 mars 2012, 14:47 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17319
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
non ca ronronne pénard malgré de multiples redémarrage et coupure électriques


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mer. 14 mars 2012, 15:44 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : mar. 7 oct. 2008, 17:05
Messages : 9914
Pseudo Boinc : [XTBA>XTC] ZeuZ
Localisation : Devant mon écran
Niquel merci, je vais me lancer alors :dance2:

_________________
Image


Haut
   
 Sujet du message : Re: Serveur Fichier 2 / ZFS
MessagePosté : mar. 20 mars 2012, 15:51 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3442
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Tuto ZFS sous Ubuntu 10.04 du 09 février 2012
=> http://tassou-boris.fr/?p=5

_________________
Image

Kévin, sor deux sec or !!


Haut
   
Afficher les messages postés depuis :  Trier par  
Poster un nouveau sujet  Répondre au sujet  [ 330 messages ]  Aller à la page Précédente 13 4 5 6 714 Suivante

Heures au format UTC+03:00


Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 1 invité


Vous ne pouvez pas poster de nouveaux sujets
Vous ne pouvez pas répondre aux sujets
Vous ne pouvez pas modifier vos messages
Vous ne pouvez pas supprimer vos messages
Vous ne pouvez pas joindre des fichiers

Rechercher :
Aller à :  
cron
Développé par phpBB® Forum Software © phpBB Limited
Traduit par phpBB-fr.com