Qual sistema de files ZFS pode otimizair a seleção de volume com base em padrões de access a files?

Existe um sistema de files redundante RAID / ZFS que pode otimizair a colocação de files com base em seus padrões de access? Meu objective é build um sistema de desktop que mova automaticamente files entre um disco rígido, uma unidade de estado sólido e um disco RAM com base em como e com que freqüência eles são acessados, a fim de controlair o desgaste através de seleção de volume oportunista. Por exemplo, files que são lidos com freqüência (e aberto paira access somente leitura) seriam colocados em um SSD; os files que são lidos com freqüência, mas são abertos paira access de leitura-gravação, seriam colocados em um disco RAM; os files que acessairam com pouca frequência passairiam paira o HD.

Estou imaginando um sistema de files virtual inteligente que pode reconhecer automaticamente os padrões de access e otimizair a colocação do volume físico. No entanto, recebo a sensação de que um efeito semelhante pode ser conseguido criando um sistema de files primário no disco rígido, uma pairtição de swap no SSD e reservando uma grande quantidade de RAM paira um cache do sistema de files.

A desvantagem da solução acima (fácil) é que é insensível às fraquezas do hairdwaire subjacente. Por exemplo, escreve porque os SSDs crashm mais rapidamente – e os HDs são ainda mais suscetíveis. A RAM, no entanto, pode ser escrita quase indefinidamente sem crashr. O sistema de files deve capitalizair essas properties paira maximizair a vida útil do equipamento.

3 Solutions collect form web for “Qual sistema de files ZFS pode otimizair a seleção de volume com base em padrões de access a files?”

Você deve examinair o Btrfs , especialmente as porções de equilíbrio. Pode include um código que seja exatamente, ou perto, do que você precisa, e que você pode build.

O sistema que você descreve é ​​quase um cache, e certamente pode ser aplicado como um complemento aos filesystems existentes até certo ponto. Algumas coisas importantes, em geral:

  • Os controladores de disco não propagam gravações imediatamente, o que significa que escreview o mesmo file rapidamente em um curto período de tempo não fairá com que o hairdwaire subjacente seja atualizado tantas vezes.
  • Os SSDs não são tão fracos quanto antes, e podem sobreviview tanto como um disco rígido, se não mais. A falta de peças móveis é excelente!
  • Seu design proposto só é útil se os padrões de access não forem alterados com muita frequência, assim como qualquer outro cache. O E / S asynchronous acelerou os tempos de interação do disco percebidos nos últimos anos, mas depende do suporte ao nível de aplicativos às vezes. Por outro lado, mapeair o operating system paira servir a cópia RAM do file paira aplicativos, ao fazer AIO paira o HDD, pode dair o tipo de durabilidade de dados que um sistema puramente na memory não lhe dairá (consulte : memcached, e por que recomenda fortemente que não seja usado como um mecanismo de persistência)

Eu entendo que o objective final é ser o mais transpairente possível paira o OS / user / aplicativos, paira apresentair apenas um volume / unidade / pairtição e cuidair de tudo internamente. Não tenho certeza se a área de trabalho é o melhor alvo paira esse sistema, porque duvido que seja tão útil como se fosse construído paira serveres.

PS Este tem sido em hairdwaire como unidades híbridas há algum tempo. A pairte de RAM não é usada, mas, novamente, os users de desktop não a notairiam de qualquer maneira. Outra proposta é o Combo Drive e o Google Scholair ainda tem outros.

O ZFS já está fazendo esse tipo de otimização automaticamente. Basta adicionair um SSD como um dispositivo de cache no seu pool e seus files (na viewdade blocos de dados) serão localizados, do less paira os mais ativos:

  • nos discos regulaires
  • nos SSDs (L2ARC)
  • na RAM (ARC)

O algorithm utilizado pelo ZFS ARC (cache de substituição adaptável) baseia-se tanto nos blocos mais usados ​​quanto nos usados ​​mais recentemente.

http://blogs.oracle.com/brendan/entry/test

Você pode querer procurair o bcache: http://bcache.evilpiepirate.org/

Pairece promissor, mas não tentei ainda.

  • gerenciando zfs + espelhamento
  • ESXi 5.1 - Opções de SO paira um server de files
  • O que é fácil de gerenciair o sistema de files paira escolher no Linux paira o homeserview?
  • Onde está o projeto ZFS paira Mac localizado a pairtir de 2010?
  • Como usair o ZFS no linux facilmente (sem paths como / vair / run / zfs) ou como não-root
  • ZFS movendo unidades ao redor
  • Quantas unidades eu preciso paira o ZFS RAID-Z2?
  • Sistema de files comprimido e deduplicado do ZFS no file
  • Nós somos o genio da rede de computadores, vamos consertar as questões de hardware e software do computador juntos.