Hinweis auf Verarbeitung Ihrer im Rahmen des Abonnement verarbeiteten Daten bei hund.io: Indem sie auf 'Abonnieren' klicken, willigen sie zugleich gem. Art. 49 Abs. 1 S. 1 lit. a DSGVO ein, dass die durch sie eingegeben E-Mail-Adresse in die USA zu dem Anbieter hund.io übermittelt und dort verarbeitet wird. Die USA wurden vom europäischen Gerichtshof als ein Land mit einem nach EU-Standards unzureichenden Datenschutzniveau eingeschätzt. Es besteht insbesondere das Risiko, dass ihre Daten durch US-Behörden, zu Kontroll- und Überwachungszwecken, möglicherweise auch ohne Rechtsbehelfsmöglichkeiten, verarbeitet werden können.
Die Profihost GmbH stellt diesen Service über den US-Anbieter hund.io zur Verfügung. Es gelten daher neben den Datenschutzhinweisen und den AGB der Profihost GmbH auch die Terms of Service und Privacy Policy des Anbieters hund.io.
Die letzten Nacharbeiten der Cloud 6 Störung wurden soeben beendet.
Die Nacharbeiten sind inzwischen weiter fortgeschritten und befinden sich im letzten Abschnitt. Aktuell wird das Cluster von den Technikern sehr vorsichtig behandelt, um keine neuen Probleme in der Erreichbarkeit zu erzeugen.
Daher nehmen die Arbeiten einige Zeit länger in Anspruch.
Nach unseren Beobachtungen ist das Cluster seit Beginn der Arbeiten heute morgen ohne weitere Ausfälle.
Wir behandeln den Status jedoch weiterhin als eingeschränkt, bis alle Arbeiten abgeschlossen wurden.
Bei auftretenden Problemen kontaktieren Sie bitte unser Support-Team.
Wir bedanken uns für Ihr Verständnis und Ihre Geduld.
Aktuell laufen noch einige Nacharbeiten, aber alle VMs sollten seit ca. 20 Minuten wieder normal laufen. Sollte Ihre Cloud6 VM noch Probleme haben, melden Sie sich bitte beim Support. Vielen Dank!
Zu späterer Zeit soll zur Sicherheit noch mehr Speicherplatz im Cluster geschaffen werden. Dies sollte keinerlei Auswirkungen haben und wir informieren, sobald das beginnt.
Seit ca. 01:00 Uhr kam es vermehrt zu Leistungsproblemen auf Grund der noch laufenden Nacharbeiten
Hier waren einzelne Systeme betroffen.
Die Nacharbeiten dauern weiterhin an.
Wir bedanken uns weiterhin für Ihr Verständnis und halten Sie weiterhin auf dem Laufenden.
Während der aktuell noch laufenden Nachrarbeiten kann es vereinzelt zu Latenzen im Storage und damit zu langsamerer Verarbeitung von einigen Requests kommen. Dies kann in Einzelfällen zu 503-Fehlern führen.
Die Nacharbeiten werden noch einige Zeit in Anspruch nehmen, nach unseren Beobachtungen ist das Cluster jedoch nahezu vollständig stabilisiert.
Wir bedanken uns für Ihr Verständnis und informieren Sie bei Neuerungen.
Vereinzelt stellen wir erneut Latenzen im Storage fest, welcher sich in 503-Fehlern bei einigen Kunden-Systemen darstellt.
Die Techniker prüfen und beheben dies bereits aktiv.
Der Recovery-Prozess ist aktuell abgeschlossen, es finden noch Nacharbeiten statt.
Wir beobachten jedoch, dass die Server nahezu wieder vollständig erreichbar sind.
Nach Auftreten der Störung gestern konnte eine temporäre Lösung implementiert werden, sodass die Server in der Nacht wieder erreichbar waren.
Aktuell arbeiten unsere Techniker daran, wieder die volle Funktionsfähigkeit und Erreichbarkeit des Clusters Cloud 6 wiederherzustellen.
Dabei stellen wir bei einigen Systemen Verzögerungen in der Speicheranbindung fest, welche wir mit dem aktuell laufenden Recovery-Prozess in Verbindung bringen.
Wir bitten um Verständnis und ein wenig Geduld, wir informieren Sie hier, sobald der Recovery-Prozess abgeschlossen ist.
Aktuell stellen wir noch vereinzelt Probleme fest, wodurch es zu einer erhöhten Anzahl von 503 Fehlern kommt und Webseiten dadurch nicht erreichbar sind.
Wir arbeiten bereits an einer Lösung, die genaue Ursache ist derzeit noch unbekannt.
Das Thema befindet sich dafür in Klärung bei unseren Administratoren.
Das Problem mit dem Ceph Cluster konnte erfolgreich behoben werden.
Das Problem wurde identifiziert und wir arbeiten mit der Lösung.
→ Es ist eine Ceph Störung aufgetreten. Dies kann zur teilweisen nicht Erreichbarkeit einzelner Server führen.
Wir arbeiten bereits an einer Lösung, die genaue Ursache ist derzeit noch unbekannt.
Das Thema befindet sich dafür in Klärung bei unseren Administratoren.