Aktueller Status von bwSFS und Erweiterungen
Der Aufbau der Hardware von bwSFS incl. einiger Erweiterungen konnte weitgehend abgeschlossen werden. Nun stehen ausführliche Ausfall- und Failover-Tests sowie die Einrichtung erster (Test-)Nutzer an. Das Ganze passiert im Rahmen der FDM-Aktivitäten im Land und an der Universität.
Die Hardwareinstallation für den bwSFS-Kern und einzelne Erweiterungen sind weitgehend abgeschlossen. Das System wurde über die letzten Monate hinweg schrittweise installiert und ans Netz angeschlossen. Die einzelnen Komponenten (Storage Grid und Filesystem-Köpfe) sind inzwischen soweit eingerichtet und mit Tüboingen vernetzt (GRE-Tunnel). Verschiedene Abstimmungen zu den Einstiegen z.B. für den S3-Teil laufen noch (gemeinsame Zertifikate mit Tübingen, primäre Einstiegspunkte auf welcher Hyperconverged Infrastructure, Failover zwischen Bausteinen und Standorten, ...). Aktuell ist geplant um den 20./21. Januar herum erste große Tests für die Ausfallsicherheit von Seitens des Anbieters durchzuführen. (Diese waren eigentlich schon Mitte Dezember geplant, gerieten aber durch die etwas mühsame Lage wegen der Einschränkungen etwas in Verzug.)
Parallel zum Aufbau von bwSFS wurde in de.NBI noch eine Caching-Komponente (auch NetApp; FullFlash) beschafft, die für spezielle Anwendungen genutzt werden kann. Hierzu zählen NFS-Shares, die Cloud-Storage-Komponenten (als Ersatz, Ergänzung für das bestehende CEPH). Die Komponente wird für de.NBI-Teil dem bwSFS, welches nicht primär auf Performance sondern auf Stabilität/Sicherheit ausgelegt wurde, vorgeschaltet und kann sinnvollerweise weitere Anwendungen, wie beispielsweise die OMERO-Datenbank beschleunigen. Die weitere Einrichtung des Systems erfolgt ab dem 11. Januar, da ab dann alle Beteiligten wieder an Board sind. Für diese Komponente stehen noch einige Arbeiten am Netzwerk und die neue Backbone-Infrastruktur für das Scientific Computing (Alcatel C32 100GbE-Switch gestacked) an.
Ab diesem Zeitpunkt können wir dann auch anfangen, erste Accounts einzurichten bzw. das Ganze gegen die entsprechend gewünschte AD-Struktur zu konfigurieren. Ziel, ist ein komfortables Management der Projekt-, User- und Gruppendaten der verschiedenen Parteien. Hierbei sollten dann auch die Admins von den zentralen Gruppen und den Mitantragstellenden mit dabei sein, damit das Ganze entsprechend auch passt. Die sollten dann je nach angedachter Rolle bei den anstehenden Schulungen mit involviert werden. Wir werden informieren, wenn diese anstehen. bwSFS dient nach der Installation, Konfiguration und Anpassung der Unterstützung im aktiven Umgang mit Forschungsdaten der Universität und für NEMO- und bioinformatische Communities (beispielsweise im Rahmen vom SDC BioDATEN und der NFDI DataPLANT) im Land und größerer Projekte wie de.NBI/Galaxy. Für die laufenden Aktivitäten und Diskussionen zum Aufbau des Systems und den Higher Level Services, wie beispielsweise den Data Publication Service InvenioRDM oder (Data) Versioning Service Gitlab. Die Erweiterungen für de.NBI wurden verteilt in Reihe 1 und in der Nähe der Cloud in Schrank 48 eingebaut. Die weitere Konfiguration wird im Moment vorbereitet und geht im neuen Jahr (zeitnah) weiter.
Die Koordination mit Tübingen und die Beantragung und Ausschreibung wurden auf Freiburger Seite federführend durch die Kollegen der Abteilung eScience (bwHPC-S5, RDMG) realisiert. Ein Überblick und Diskussion zu FDM und den Überlegungen und Entwicklungen rund um bwSFS findet sich auch auf den Seiten der RDMG auf dem Weiterbildungs-ILIAS.
Parallel zum Aufbau von bwSFS wurde in de.NBI noch eine Caching-Komponente (auch NetApp; FullFlash) beschafft, die für spezielle Anwendungen genutzt werden kann. Hierzu zählen NFS-Shares, die Cloud-Storage-Komponenten (als Ersatz, Ergänzung für das bestehende CEPH). Die Komponente wird für de.NBI-Teil dem bwSFS, welches nicht primär auf Performance sondern auf Stabilität/Sicherheit ausgelegt wurde, vorgeschaltet und kann sinnvollerweise weitere Anwendungen, wie beispielsweise die OMERO-Datenbank beschleunigen. Die weitere Einrichtung des Systems erfolgt ab dem 11. Januar, da ab dann alle Beteiligten wieder an Board sind. Für diese Komponente stehen noch einige Arbeiten am Netzwerk und die neue Backbone-Infrastruktur für das Scientific Computing (Alcatel C32 100GbE-Switch gestacked) an.
Ab diesem Zeitpunkt können wir dann auch anfangen, erste Accounts einzurichten bzw. das Ganze gegen die entsprechend gewünschte AD-Struktur zu konfigurieren. Ziel, ist ein komfortables Management der Projekt-, User- und Gruppendaten der verschiedenen Parteien. Hierbei sollten dann auch die Admins von den zentralen Gruppen und den Mitantragstellenden mit dabei sein, damit das Ganze entsprechend auch passt. Die sollten dann je nach angedachter Rolle bei den anstehenden Schulungen mit involviert werden. Wir werden informieren, wenn diese anstehen. bwSFS dient nach der Installation, Konfiguration und Anpassung der Unterstützung im aktiven Umgang mit Forschungsdaten der Universität und für NEMO- und bioinformatische Communities (beispielsweise im Rahmen vom SDC BioDATEN und der NFDI DataPLANT) im Land und größerer Projekte wie de.NBI/Galaxy. Für die laufenden Aktivitäten und Diskussionen zum Aufbau des Systems und den Higher Level Services, wie beispielsweise den Data Publication Service InvenioRDM oder (Data) Versioning Service Gitlab. Die Erweiterungen für de.NBI wurden verteilt in Reihe 1 und in der Nähe der Cloud in Schrank 48 eingebaut. Die weitere Konfiguration wird im Moment vorbereitet und geht im neuen Jahr (zeitnah) weiter.
Die Koordination mit Tübingen und die Beantragung und Ausschreibung wurden auf Freiburger Seite federführend durch die Kollegen der Abteilung eScience (bwHPC-S5, RDMG) realisiert. Ein Überblick und Diskussion zu FDM und den Überlegungen und Entwicklungen rund um bwSFS findet sich auch auf den Seiten der RDMG auf dem Weiterbildungs-ILIAS.