Setup und Konzept
Zu diesem Service gehört derzeit ein dedizierter VM Host (gehört "Kommunikation und Vernetzung") mit zwei VMs:
schlumpf-vm1 ist das Produktivsystem, mit Port80 Öffnung in der Firewall und alias cosmicatweb.desy.de
- komplett zentral administriert
- lediglich User-Level Zugang für @zn-infra_schlab, und einige Logs (httpd) sind für die Gruppe cosmic lesbar, zwecks Problemdiagnose
- Software und Konfiguration kommen in Form von (S)RPMs von den Betreuern des Service und werden von DV ausgerollt
- die Daten werden aus dem AFS synchronisiert, dafür ist ebenfalls ein RPM (schlab.rpm) zuständig
schlumpf-vm2 ist ein Test- und Entwicklungssystem, im Prinzip konfiguriert wie -vm1, mit folgenden Abweichungen
- mehr installierte Software (Entwicklungsumgebung)
- root-Zugang für die Betreuer
- einziger vorgesehener Zweck ist Entwicklung/Test/Diagnose der RPMs für das Produktivsystem
Nach einer Neuinstallation sind beide VMs gebrauchsfertig. Sie sind daher "stateless" und sollten es auch bleiben.
Ablauf der Aktualisierung des Produktivsystems
- die Betreuer stellen neue RPMs und SRPMs bereit
- DV vergleicht diese mit den aktuellen, etwa so
cd `mktemp -d` mkdir old new cd old rpm2cpio .../old.srpm | cpio -id tar xf *.tar.gz; rm *.tar.gz cd ../new rpm2cpio .../new.srpm | cpio -id tar xf *.tar.gz; rm *.tar.gz cd .. meld old new
- Falls OK, ausrollen:
- bauen (z.B. auf schlumpf-vm2)
- alle Pakete signieren
- SRPMs nach /packages/SRPMS/System/schlab
- RPMs nach Z/7/extra/x86_64/schlab, Repo aktualisieren und synchronisieren
auf vm1: sue.update aaru; service httpd restart