-==<XTBA>==-

Windows ne demande jamais à Chuck Norris d'envoyer le rapport d'erreur. Bill Gates vient le chercher lui même, avec toutes ses excuses.
Nous sommes le dim. 25 août 2019, 10:47

Heures au format UTC+03:00




Poster un nouveau sujet  Répondre au sujet  [ 330 messages ]  Aller à la page 1 2 3 4 514 Suivante
Auteur Message
 Sujet du message : Serveur Fichier 2 / ZFS
MessagePosté : mer. 12 oct. 2011, 23:38 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17290
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
en train de réfléchir pour migrer mon serveur de fichier sous openindiana et RaidZ/Zpool
j'ai plus beaucoup de place donc quitte a rajouter des disques autant le faire intelligemment ^^

augur si tu passe tu as des infos la dessus
je me suis monté un proto avec une vingtaine de disques de 1Go / 2Go sous vmware et ca marche pas mal
on peut faire pas mal de combinaisons

enfin je suis pas encore persuadé :)


Haut
   
MessagePosté : sam. 22 oct. 2011, 23:36 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
PRÉAMBULE :

En gros, ZFS :

L'équipement nécessaire :
  • Carte mère avec ou sans contrôleur SAS 2008
  • Mémoire ECC (1 Go / To à gérer si Compression et/ou Deduplication est activée ; sans cela, après 12 Go peu utile)
  • Processeur :
    => Xeon Nehalem X34xx, W35xx, L34xx, W36xx L55xx, E55xx, X55xx, W55xx, L56xx, E56xx, X56xx...
    => Xeon Ivy E3 12xx, 16xx ...
    ==>> //||\\ Core i5 et i7 ne supportent pas ECC seules les références Core i* 2xxxE gèrent l'ECC non REG //||\\
    ..... cf : Core 1ère génération : Core i3-330E, Core i5-520E, Core i7-620LE, Core i7-620UE, Core i7-610E, Core i7-660UE,
    ..... cf : Core 2nd génération : Core i3-2310E, Core i3-2340UE, Core i5-2515E, Core i7-2610UE, Core i7-2655LE, Core i7-2715QE
    => Core i3 1ere & 2nd génération gèrent ECC non REG sur carte mère à chipset C204 / C202 et 3400/3420/3450
  • Disque dur : suivant la pool, en RaidZ, RaidZ2 ... formatage des disques si Advanced Format (4k)=> Le nombre magique pour les aligner
  • Cartes HBA compatibles : IBM BR10i, IBM m1015, LSI 9240-8i, Intel RS2WC080 (SAS2008 SATAIII) // Les meilleures : LSI 9265 et LSI 9260

Tutos :

Benchamrk :

Comprendre ZFS :


/// Les SSD pour le cache L2ARC et ZIL (SLOG) :

Spec 2013 / 2014







Citation :
/!\ Spec de 2012 /!\
  • L2ARC = cache (read only), prendre le plus rapide en lecture
  • SLOG = prendre celui avec le Max I/O, équipé de "supercapacitor" (supercondensateur pour éviter les pertes de données en cas de coupure de courant) = SSD équipé du contrôleur : Intel G3, Marvell C400 or Sandforce SF2000
    Taille ZIL (SLOG) : 1/2 RAM
....SLC => Intel X25 E, Kingston SSD Now E, OCZ Agility EX
.... MLC => Crucial M4, OCZ Vertex 3


++

_________________
Image

Kévin, sor deux sec or !!


Modifié en dernier par augur le ven. 18 avr. 2014, 20:07, modifié 66 fois.

Haut
   
MessagePosté : sam. 22 oct. 2011, 23:55 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17290
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
qu'est ce que tu veux dire par gros fichiers moi c'est < 15Go puisque films de vacance :dance2:

ce que je voudrais c'est m'affranchir de mdadm qui est à mon sens le point faible dans mon norco
de plus j'ai une conf relativement figée dans le boitier donc au pire je ferai que rajouter des disques sous forme de raidz à intégrer dans le zpool existant

ma conf sera X8DAL + 2* x5502 + 6*1Go DDR ECC forcé

pour le cache read / write osef pas besoin de perfs sur les petits fichiers puisque c'est pour des films et pas des os virtualisé style vm et datastore
pareil pas beosin de déduplication et cie c'est ca qui est demandeur de ram :D


Haut
   
MessagePosté : dim. 23 oct. 2011, 00:26 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
cf ce blog
=> http://breden.org.uk/
... qui a fait pareil que toi :
+ il a du recul avec l'expérience : http://breden.org.uk/2009/05/01/home-fi ... /#more-131

// la Conf de ZFS : http://breden.org.uk/2009/05/10/home-fi ... e-systems/

Pour ma part, je dois upgrader en 5x 2 To Ext4 mon serveur perso et voir pour du 48 To Haute Perf (~1,2 Go/s R/W sequentiel) si je pars sur du ZFS ou du XFS en Raid6 Hard.

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 00:40 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
!!!!!!!!!!!!!!! http://hub.opensolaris.org/bin/download ... fslast.pdf : page 27

Image

♥ ♥ ♥

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 00:54 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Peut être faudrait il commencer un new Topic pour ZFS, non ? ;)

Nexanta, en fait serait / était du ZFS sous Ubuntu !! :)
=> http://www.synergeek.fr/nexenta-solutio ... -ubuntu-4/

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 01:01 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Linux et ZFS :
=> http://zfs-fuse.net/ <= dispo pour Ubuntu 10.10 :)
=> http://zfsonlinux.org/
=> https://launchpad.net/~zfs-native/+archive/stable (ZFS pour Ubuntu)

Benchmarks Of The Official KQ ZFS Linux Module (Fuze) 27 janvier 2011
=> http://www.phoronix.com/scan.php?page=a ... gold&num=1

Image

Image

Image

;)

++

_________________
Image

Kévin, sor deux sec or !!


Modifié en dernier par augur le mer. 16 nov. 2011, 03:03, modifié 4 fois.

Haut
   
MessagePosté : dim. 23 oct. 2011, 01:03 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17290
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
Oui un new topic serait pas mal

Pour nexenta pareil. C estle genrede truc dont je suid pas trop fan
Si je pars sur zfs, ce qui sera surement le cas, je pense rester sur un indiana aka ex opensolaris et du homemade. Si j yarrive pas, napp-it pourra aider pendant un moment en temps que GUI

par contre j aimerai que la 31605 et la 6805 fassent vraiment du jbod. La ca bouffe qd meme qq octets pour ecrire la conf raid jbod

En passant linux + zfs = truc pas net zfs c est solaris optimized


Haut
   
MessagePosté : dim. 23 oct. 2011, 01:12 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
poulpito a écrit :
En passant linux + zfs = truc pas net zfs c est solaris optimized

C'est en cours avec Btrfs : du ZFS open, hors Solaris ! ;)

Aussi, avec les nouveaux disques de 4 Ko (Advanced Format) et ZFS le " sectorsize override feature " :
=> http://digitaldj.net/2010/11/03/zfs-zpo ... s-and-you/
=> http://forums.overclockers.com.au/showt ... p?t=984341

++

_________________
Image

Kévin, sor deux sec or !!


Modifié en dernier par augur le dim. 23 oct. 2011, 01:25, modifié 1 fois.

Haut
   
MessagePosté : dim. 23 oct. 2011, 01:24 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
poulpito a écrit :
Si je pars sur zfs, ce qui sera surement le cas, je pense rester sur un indiana aka ex opensolaris et du homemade. Si j yarrive pas, napp-it pourra aider pendant un moment en temps que GUI

Aussi :

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 01:56 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17290
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
ma 6805 arrive :whistle:

Citation :
Customs Clearance, October 22, 2011, 4:36 pm, FRANCE
Processed Through Sort Facility, October 22, 2011, 4:34 pm, FRANCE
Processed Through Sort Facility, October 20, 2011, 2:47 am, ISC SAN FRANCISCO (USPS)
Arrived at Sort Facility, October 20, 2011, 2:45 am, ISC SAN FRANCISCO (USPS)
Dispatched from USPS Sort Facility, October 19, 2011, SAN JOSE, CA 95101
Processed through USPS Sort Facility, October 19, 2011, 3:24 pm, SAN JOSE, CA 95101
Electronic Shipping Info Received, October 19, 2011
Processed through USPS Sort Facility, October 19, 2011, 12:43 pm, MILPITAS, CA 95035
Acceptance, October 19, 2011, 9:32 am, MILPITAS, CA 95035


allez vivement lundi que ca reprenne :boxing:


Haut
   
MessagePosté : dim. 23 oct. 2011, 02:49 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Mes cartes fibres et l'expander SAS aussi :bounce

Juste le temps à combattre [cbr.gif]

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 02:50 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17290
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
le nombre magique pour les raidz1 et raidz2 (donc ce sera 9*2To en raidz pour moi)

Citation :
sub.mesa wrote:
As i understand, the performance issues with 4K disks isn’t just partition alignment, but also an issue with RAID-Z’s variable stripe size.
RAID-Z basically works to spread the 128KiB recordsizie upon on its data disks. That would lead to a formula like:
128KiB / (nr_of_drives – parity_drives) = maximum (default) variable stripe size
Let’s do some examples:
3-disk RAID-Z = 128KiB / 2 = 64KiB = good
4-disk RAID-Z = 128KiB / 3 = ~43KiB = BAD!
5-disk RAID-Z = 128KiB / 4 = 32KiB = good
9-disk RAID-Z = 128KiB / 8 = 16KiB = good
4-disk RAID-Z2 = 128KiB / 2 = 64KiB = good
5-disk RAID-Z2 = 128KiB / 3 = ~43KiB = BAD!
6-disk RAID-Z2 = 128KiB / 4 = 32KiB = good
10-disk RAID-Z2 = 128KiB / 8 = 16KiB = good


et pour le passage le plus simple en 4k aligned même si c'est pas obligatoire (j'ai déjà mes HD204UI non alignés sous linux)


Citation :
Good call on putting the OS and DVD on the controller card. They don't need to be fast. Having the data drives all on the motherboard will be better and will enable you to work around the 4K thing pretty easily. I have the same Samsung F4's (HD204UI) and run 9 of them in a RAIDZ2 + spare in our NAS here at work. Here is a relatively simple way to get them aligned:

1) Download ZFSguru stable LIVE CD ver 0.1.7 (http://zfsguru.com/download)
2) Boot to ZFS guru and then format each of your 6 drives drives from the web gui utility. NOTE: Format the drives with GEOM...NOT GPT (Solaris won't recognize GPT partitions).
3) Create your RAIDz2 pool in the web gui and select the 4K override option!
4) Export the pool (do this locally from command line. "zpool export poolname")
5) Now boot back up to your OI system and import the pool. It should find it and it will be correctly aligned for the drives.


Alternately...don't worry about the 4K issue. It IS only a performance difference, not a reliability one. Chances are quite good that you will still easily be able to saturate gigabit even with the slightly reduced performance of the drives being non-aligned.


Haut
   
MessagePosté : dim. 23 oct. 2011, 02:51 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Yess, j'ai lu tout HardForum ce soir [benou_porn.gif]

:)

Sinon le monsieur a dit : ZFS : Le FileSystem par excellence
=> http://www.deimos.fr/blocnotesinfo/inde ... excellence

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 02:56 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Par contre, pour bien blaster : taille du cache ?!? 3x la Ram // 1 Go ECC par To pour bonnes perf
.... au prix où sont les SSD de 64 Go, un raid 10 serait peut être pas mal ! :) ou : Raid1 pour Cache (bon pour la lecture) et Raid1 pour Log (bon pour l'écriture)

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 03:06 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17290
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
encore faut il en avoir l'intérêt pour du stockage de masse vraiment aucun intérêt tu va pas lire 100x un fichier pour l'afficher :)
ça n'est utile que pour un volume de travail courant
pour toi effectivement avec le travail vidéo encore que je suis pas persuadé puisque théoriquement une fois dl le fichier tu te sers du cache local de ta machine de travail non ?


Haut
   
MessagePosté : dim. 23 oct. 2011, 03:14 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Citation :
encore faut il en avoir l'intérêt pour du stockage de masse vraiment aucun intérêt tu va pas lire 100x un fichier pour l'afficher :)
ça n'est utile que pour un volume de travail courant
pour toi effectivement avec le travail vidéo encore que je suis pas persuadé puisque théoriquement une fois dl le fichier tu te sers du cache local de ta machine de travail non ?

On passe pas 100x sur le même fichier mais au moins 50x facile.

Tous les fichiers vidéo restent sur le serveur...
=> le même fichier peut être lu en même temps qu'il est en train d'être enregistré ;
=> on peut lire et relire 10x à 20x le même passage (pour visualiser les raccords ou pour retranscrire une traduction) ;
=> ce même fichier peut être lu par plusieurs personne en même temps, sur différentes stations ;
=> aucun fichier n'est téléchargé sur la station en local : si un effet doit être rendu, il est lu par la station et le calcul rendu repart dans un répertoire sur le stockage partagé

En gros je recherche de la perf (~1,2 Go/s R/W) pour un minimum de 32 To ... ce que permet XFS.

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 03:16 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17290
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
comme tu m'as parlé au fait et pour pas mourir con je viens de me compiler/installer zfsonlinux http://zfsonlinux.org/index.html

pour testiculer un peu
gros avantage qui n'est pas encore passé dans le zpool indiana c'es tla possibilité de fixer le ashift=12 (pour les disques 4k) en tant que paramètre de zpool create -o ashift=12
(=9 pour un align 512)

bizarre que ce soit pas sur solaris ca m'étonne un peu mais je viens de test ca ne marche pas
donc linux a un coup d'avance la :/ même si c'est toujours de la beta


Haut
   
MessagePosté : dim. 23 oct. 2011, 03:19 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17290
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
augur a écrit :
Citation :
encore faut il en avoir l'intérêt pour du stockage de masse vraiment aucun intérêt tu va pas lire 100x un fichier pour l'afficher :)
ça n'est utile que pour un volume de travail courant
pour toi effectivement avec le travail vidéo encore que je suis pas persuadé puisque théoriquement une fois dl le fichier tu te sers du cache local de ta machine de travail non ?

On passe pas 100x sur le même fichier mais au moins 50x facile.

Tous les fichiers vidéo restent sur le serveur...
=> le même fichier peut être lu en même temps qu'il est en train d'être enregistré ;
=> on peut lire et relire 10x à 20x le même passage (pour visualiser les raccords ou pour retranscrire une traduction) ;
=> ce même fichier peut être lu par plusieurs personne en même temps, sur différentes stations ;
=> aucun fichier n'est téléchargé sur la station en local : si un effet doit être rendu, il est lu par la station et le calcul rendu repart dans un répertoire sur le stockage partagé

En gros je recherche de la perf (~1,2 Go/s R/W) pour un minimum de 32 To ... ce que permet XFS.

++



ok effectivement donc pour toi arc à fond cad max ram et ssd-caching


Haut
   
MessagePosté : dim. 23 oct. 2011, 03:22 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
poulpito a écrit :
comme tu m'as parlé au fait et pour pas mourir con je viens de me compiler/installer zfsonlinux http://zfsonlinux.org/index.html

pour testiculer un peu
gros avantage qui n'est pas encore passé dans le zpool indiana c'es tla possibilité de fixer le ashift=12 (pour les disques 4k) en tant que paramètre de zpool create -o ashift=12
(=9 pour un align 512)

bizarre que ce soit pas sur solaris ca m'étonne un peu mais je viens de test ca ne marche pas
donc linux a un coup d'avance la :/ même si c'est toujours de la beta

Ah ben du coup, ça peut être pas mal @home sous Ubuntu :)

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 03:25 
Hors ligne
La chose a Biour
La chose a Biour
Avatar de l’utilisateur

Enregistré le : sam. 4 oct. 2008, 00:47
Messages : 17290
Pseudo Boinc : [XTBA>TSA] Poulpito
Localisation : Grenoble (38)
mouai j'ai un doute quand même sur la stabilité du truc
solaris c'est rock stable ca fait partit des os qu'on a du mal à virer chez les clients alors que AIX est aussi super réputé ... j'ai plus confiance la dedans avec un zpool on va dire figé qu'une version dev sous linux

rien n’empêche par contre de créer son zpool sur un linux avec ashift, de l'exporter et de le reimporter sous openindiana dans la mesure ou est toujours en v28


Haut
   
MessagePosté : dim. 23 oct. 2011, 03:29 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
De mon coté, j'ai une le module modifié de Samba (SambaVFS développé avec la BBC) à faire tourner sous OpenSuze ou Debian... qui doit agir sur le stockage.

Du coup si ZFS tourne sous openidiana, comment faire ?

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 10:45 
Hors ligne
Avatar de l’utilisateur

Enregistré le : ven. 3 oct. 2008, 20:11
Messages : 19174
Pseudo Boinc : [XTBA>TSA] Biour
Localisation : Grenoble
moi me suis pris cha pour tester

Image

36euro avec la batt et 512 de ram :whistle:

http://h18000.www1.hp.com/products/serv ... index.html

Citation :
Performance
8 internal ports of 3Gb Serial Attached SCSI (SAS)
x8 PCI-Express I/O connector
DDR-2/533 memory
512MB and Battery-Backed Write Cache (BBWC) upgrade options
Reliable
Standard RAID 0,1, 1+0, 5
RAID6 support with BBWC
Recovery ROM
Flexibility
Supports SAS and SATA disk drives
SAS expander support
Ships with both low profile and full size brackets for flexible server deployment
Manageable
Online Drive Flash
Remote monitoring and configuration

Citation :
Online array expansion (with BBWC upgrade)
Online logical drive extension (with BBWC upgrade)
Online RAID level migration (with BBWC upgrade)
Online strip size migration (with BBWC upgrade)
Offline Mirror splitting and recombining
Unlimited global online spare assignment
User selectable expand and rebuild priority
User selectable RAID level and stripe size
User selectable read and write cache sizes
Eight (8) SAS physical links distributed across 2 internal x4 wide High Performance Architecture sets new boundaries of industry performance 3Gb/s SAS (300MB/s bandwidth per physical link)
x8 3Gb/s SAS physical links (compatible with 1.5G SATA)
256 MB 40-bit wide DDR2-533MHz cache upgradeable to 512 battery-backed cache provides up to 4.2 GB/s maximum bandwidth
x8 2.5G PCI Express host interface provides 2 GB/s maximum bandwidth
440 PowerPC Processor
Read ahead caching
Write-back caching (with battery-backed write cache upgrade)

_________________
Forever Qlimax Addict!
Image
Image

Hardcore Will Never DIe.


Haut
   
MessagePosté : dim. 23 oct. 2011, 13:52 
Hors ligne
VIP
VIP
Avatar de l’utilisateur

Enregistré le : sam. 17 janv. 2009, 23:19
Messages : 3441
Pseudo Boinc : [XTBA>TSA] augur
Localisation : 57 67
Biour a écrit :
moi me suis pris cha pour tester

Image

36euro avec la batt et 512 de ram :whistle:

http://h18000.www1.hp.com/products/serv ... index.html

Citation :
Performance
8 internal ports of 3Gb Serial Attached SCSI (SAS)
x8 PCI-Express I/O connector
DDR-2/533 memory
512MB and Battery-Backed Write Cache (BBWC) upgrade options
Reliable
Standard RAID 0,1, 1+0, 5
RAID6 support with BBWC
Recovery ROM
Flexibility
Supports SAS and SATA disk drives
SAS expander support
Ships with both low profile and full size brackets for flexible server deployment
Manageable
Online Drive Flash
Remote monitoring and configuration

... elle ne fait pas JBOD ?!? :/

Tu compte faire du Raid 0 ou 5 en Hard ?

++

_________________
Image

Kévin, sor deux sec or !!


Haut
   
MessagePosté : dim. 23 oct. 2011, 14:23 
Hors ligne
Avatar de l’utilisateur

Enregistré le : ven. 3 oct. 2008, 20:11
Messages : 19174
Pseudo Boinc : [XTBA>TSA] Biour
Localisation : Grenoble
5 encore
mais sur 4 puis 8 disques donc online extension!
pour le jobs l'e sais trop rien


Haut
   
Afficher les messages postés depuis :  Trier par  
Poster un nouveau sujet  Répondre au sujet  [ 330 messages ]  Aller à la page 1 2 3 4 514 Suivante

Heures au format UTC+03:00


Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 1 invité


Vous ne pouvez pas poster de nouveaux sujets
Vous ne pouvez pas répondre aux sujets
Vous ne pouvez pas modifier vos messages
Vous ne pouvez pas supprimer vos messages
Vous ne pouvez pas joindre des fichiers

Rechercher :
Aller à :  
cron
Développé par phpBB® Forum Software © phpBB Limited
Traduit par phpBB-fr.com