Server/storage-ng: Unterschied zwischen den Versionen

Aus C3D2
Wechseln zu: Navigation, Suche
(Container mit NixOS anlegen)
Zeile 30: Zeile 30:
 
Leider beim Schreiben spürbar langsamer. Wenn es schnell gehen soll in ein normales Verzeichnis schieben und dann auf storage im screen verschieben.
 
Leider beim Schreiben spürbar langsamer. Wenn es schnell gehen soll in ein normales Verzeichnis schieben und dann auf storage im screen verschieben.
  
 +
=== Container mit NixOS anlegen ===
 +
 +
<code lang=shell>
 +
pct create $ID local:vztmpl/nixos-container.tar.gz -ostype unmanaged -net0 name=eth0,bridge=vmbr0 -storage vms
 +
</code>
 +
 +
Mehr Optionen sind möglich.
  
 
== Pools ==
 
== Pools ==

Version vom 16. Januar 2019, 00:10 Uhr

Storage-NG

Storage-ng nutzt ceph um einen verteilten Speicher anzubieten.

storage-ng.hq.c3d2.de

Um es einfach zu machen den storage zu erreichen, kann man storage-ng.hq.c3d2.de nutzten. Er bietet verschiedene Dienste an, um das darunter liegdende Dateisystem zu erreichen.

* http
* samba
* tftp
* TODO: webdav


Es eine virtuelle Machine im HA modus die direkt auf der Storage Hardware läuft.

Konfiguration über nixos.


Tips

Der default storage pool für das cephfs ist auf mäßige Geschwindigkeit ausgelegt, nicht auf Effizienz. Um ein Verzeichnis effizient zu nutzen kann der archive pool genutzt werden:

 setfattr -n ceph.dir.layout.pool -v cephfs_archive [folder]

Siehe auch Ceph Docu

Leider beim Schreiben spürbar langsamer. Wenn es schnell gehen soll in ein normales Verzeichnis schieben und dann auf storage im screen verschieben.

Container mit NixOS anlegen

pct create $ID local:vztmpl/nixos-container.tar.gz -ostype unmanaged -net0 name=eth0,bridge=vmbr0 -storage vms

Mehr Optionen sind möglich.

Pools

Daten sind in unterschiedlichen Pools organisiert die unterschiedliche charakteristiken besitzen.

 # rados lspools
 # ceph osd lspools


Name Funktion Hardware Replikation
vms Backing store für VMS z.Z. alle SAS und ~300 GB Platten replicated_osd (soll replicated_rule)
cephfs_data Default storage fur cephfs alle 2 TB+ Plaaten. cephfs_data (mirror 1/2)
cephfs_archive Langsamer aber effizienter backing store alle 2 TB+ Plaaten. cephfs_archive (~raid5 k=2 m=1)
cephfs_metadata Metadata cephfs SSD von allen Servern. cephfs_metadata (mirror 2/3)

Hardware Server

Alle Server des Verbundes nehmen proxmox als Betriebsystem.

Server Hardware Services Bemerkungen
server3.hq.c3d2.de osd, mon, mds Default für storage VM
server4.hq.c3d2.de osd, mon
server5.hq.c3d2.de osd, mon, mds