Incidents | Okra Incidents reported on status page for Okra https://status.okra.host/ https://d1lppblt9t2x15.cloudfront.net/logos/23d9f504666de765a1d33f085fb2a575.png Incidents | Okra https://status.okra.host/ en Company Website recovered https://status.okra.host/ Tue, 10 Mar 2026 09:51:25 +0000 https://status.okra.host/#77533dfeae637c6db83c1755995bd81c430885c5ad345ea3d5de791069a23b0a Company Website recovered Automations recovered https://status.okra.host/ Tue, 10 Mar 2026 09:50:07 +0000 https://status.okra.host/#6938ce2c7ee4938154f8f8fdfa4261cb496ca7be5a7dfa4c2a69afc73b8c372e Automations recovered Company Website went down https://status.okra.host/ Tue, 10 Mar 2026 09:12:33 +0000 https://status.okra.host/#77533dfeae637c6db83c1755995bd81c430885c5ad345ea3d5de791069a23b0a Company Website went down Automations went down https://status.okra.host/ Tue, 10 Mar 2026 09:11:09 +0000 https://status.okra.host/#6938ce2c7ee4938154f8f8fdfa4261cb496ca7be5a7dfa4c2a69afc73b8c372e Automations went down Automations recovered https://status.okra.host/ Wed, 04 Feb 2026 02:47:11 +0000 https://status.okra.host/#7c0192abd03762b5cac1ad98c9099585e5acc0ad75c989abc399ee2d97cd9da3 Automations recovered Automations went down https://status.okra.host/ Wed, 04 Feb 2026 02:41:13 +0000 https://status.okra.host/#7c0192abd03762b5cac1ad98c9099585e5acc0ad75c989abc399ee2d97cd9da3 Automations went down Company Website recovered https://status.okra.host/ Mon, 26 Jan 2026 14:00:30 +0000 https://status.okra.host/#6503c0f5ff9643a11081e534c177b2a06a71c3543b47e57fc9729da98f5d4ba0 Company Website recovered Automations recovered https://status.okra.host/ Wed, 14 Jan 2026 10:41:06 +0000 https://status.okra.host/#4cdf9115aa3986db4144533e4d2e93c75e4fa007fa3e0b5a15e237b5dbfc5e49 Automations recovered Automations went down https://status.okra.host/ Tue, 13 Jan 2026 20:02:14 +0000 https://status.okra.host/#4cdf9115aa3986db4144533e4d2e93c75e4fa007fa3e0b5a15e237b5dbfc5e49 Automations went down Company Website went down https://status.okra.host/ Tue, 13 Jan 2026 20:00:28 +0000 https://status.okra.host/#6503c0f5ff9643a11081e534c177b2a06a71c3543b47e57fc9729da98f5d4ba0 Company Website went down Company Website recovered https://status.okra.host/ Sun, 04 Jan 2026 12:30:40 +0000 https://status.okra.host/#49ccb37c792e6e251834217de653d05dd4379d17442305d5ae624b71c93ee508 Company Website recovered Company Website went down https://status.okra.host/ Wed, 10 Dec 2025 10:17:52 +0000 https://status.okra.host/#49ccb37c792e6e251834217de653d05dd4379d17442305d5ae624b71c93ee508 Company Website went down Ausfall mehrerer über Coolify ausgelieferter Dienste https://status.okra.host/incident/773165 Mon, 24 Nov 2025 13:14:00 -0000 https://status.okra.host/incident/773165#e7feb8cadef5998df78c9c98836a34261cec66d5eb6e5e31e1aa3d9756768f81 The site was returning 503/500 errors because the service was unavailable. Traffic checks from multiple regions showed "no available server" responses. The issue was traced to an incompatibility between Traefik and Docker, and after fixes the monitors recovered and the incident auto-resolved a few minutes later. Ausfall mehrerer über Coolify ausgelieferter Dienste https://status.okra.host/incident/773165 Mon, 24 Nov 2025 13:14:00 -0000 https://status.okra.host/incident/773165#e7feb8cadef5998df78c9c98836a34261cec66d5eb6e5e31e1aa3d9756768f81 The site was returning 503/500 errors because the service was unavailable. Traffic checks from multiple regions showed "no available server" responses. The issue was traced to an incompatibility between Traefik and Docker, and after fixes the monitors recovered and the incident auto-resolved a few minutes later. Ausfall mehrerer über Coolify ausgelieferter Dienste https://status.okra.host/incident/773165 Mon, 24 Nov 2025 13:14:00 -0000 https://status.okra.host/incident/773165#e7feb8cadef5998df78c9c98836a34261cec66d5eb6e5e31e1aa3d9756768f81 The site was returning 503/500 errors because the service was unavailable. Traffic checks from multiple regions showed "no available server" responses. The issue was traced to an incompatibility between Traefik and Docker, and after fixes the monitors recovered and the incident auto-resolved a few minutes later. Ausfall mehrerer über Coolify ausgelieferter Dienste https://status.okra.host/incident/773165 Mon, 24 Nov 2025 12:00:00 -0000 https://status.okra.host/incident/773165#9b0469994a2f97bbf5c0adb2dfe14559141ad8125f0de6b8845a10e41481ba24 **Betroffene Systeme:** * Coolify-Cluster `as.okra.host` („Atlas“) * Coolify-Cluster `nv.okra.host` („Nova“) * Alle Anwendungen, die über diese beiden Cluster öffentlich über Domains erreichbar sind ### Zusammenfassung Nach einem Update von Coolify und der zugrunde liegenden Docker-Engine konnten unsere Reverse-Proxy-Container (Traefik) nicht mehr mit der Docker API sprechen. Der Proxy war zwar „healthy“, konnte aber keine Routen mehr aus den laufenden Containern laden. Dadurch waren mehrere Dienste über ihre Domains nicht mehr erreichbar. Wir haben das Problem identifiziert, das Traefik-Image aktualisiert und den Proxy auf beiden Servern neu ausgerollt. Alle Dienste sind wieder normal verfügbar. --- ### Impact * Öffentliche Zugriffe auf Anwendungen, die über `as.okra.host` und `nv.okra.host` bereitgestellt werden, schlugen im Incident-Zeitraum fehl. * HTTP(S)-Requests liefen auf Timeouts / 4xx/5xx-Fehler, obwohl die eigentlichen App-Container gesund waren. * Interne Dienste (z. B. direkte Container- oder Datenbankzugriffe) waren nicht betroffen, nur der externe Zugriff über Domains. Es kam zu einer **temporären Nicht-Erreichbarkeit** mehrerer Webanwendungen, aber zu **keinem Datenverlust**. Ausfall mehrerer über Coolify ausgelieferter Dienste https://status.okra.host/incident/773165 Mon, 24 Nov 2025 12:00:00 -0000 https://status.okra.host/incident/773165#9b0469994a2f97bbf5c0adb2dfe14559141ad8125f0de6b8845a10e41481ba24 **Betroffene Systeme:** * Coolify-Cluster `as.okra.host` („Atlas“) * Coolify-Cluster `nv.okra.host` („Nova“) * Alle Anwendungen, die über diese beiden Cluster öffentlich über Domains erreichbar sind ### Zusammenfassung Nach einem Update von Coolify und der zugrunde liegenden Docker-Engine konnten unsere Reverse-Proxy-Container (Traefik) nicht mehr mit der Docker API sprechen. Der Proxy war zwar „healthy“, konnte aber keine Routen mehr aus den laufenden Containern laden. Dadurch waren mehrere Dienste über ihre Domains nicht mehr erreichbar. Wir haben das Problem identifiziert, das Traefik-Image aktualisiert und den Proxy auf beiden Servern neu ausgerollt. Alle Dienste sind wieder normal verfügbar. --- ### Impact * Öffentliche Zugriffe auf Anwendungen, die über `as.okra.host` und `nv.okra.host` bereitgestellt werden, schlugen im Incident-Zeitraum fehl. * HTTP(S)-Requests liefen auf Timeouts / 4xx/5xx-Fehler, obwohl die eigentlichen App-Container gesund waren. * Interne Dienste (z. B. direkte Container- oder Datenbankzugriffe) waren nicht betroffen, nur der externe Zugriff über Domains. Es kam zu einer **temporären Nicht-Erreichbarkeit** mehrerer Webanwendungen, aber zu **keinem Datenverlust**. Ausfall mehrerer über Coolify ausgelieferter Dienste https://status.okra.host/incident/773165 Mon, 24 Nov 2025 12:00:00 -0000 https://status.okra.host/incident/773165#9b0469994a2f97bbf5c0adb2dfe14559141ad8125f0de6b8845a10e41481ba24 **Betroffene Systeme:** * Coolify-Cluster `as.okra.host` („Atlas“) * Coolify-Cluster `nv.okra.host` („Nova“) * Alle Anwendungen, die über diese beiden Cluster öffentlich über Domains erreichbar sind ### Zusammenfassung Nach einem Update von Coolify und der zugrunde liegenden Docker-Engine konnten unsere Reverse-Proxy-Container (Traefik) nicht mehr mit der Docker API sprechen. Der Proxy war zwar „healthy“, konnte aber keine Routen mehr aus den laufenden Containern laden. Dadurch waren mehrere Dienste über ihre Domains nicht mehr erreichbar. Wir haben das Problem identifiziert, das Traefik-Image aktualisiert und den Proxy auf beiden Servern neu ausgerollt. Alle Dienste sind wieder normal verfügbar. --- ### Impact * Öffentliche Zugriffe auf Anwendungen, die über `as.okra.host` und `nv.okra.host` bereitgestellt werden, schlugen im Incident-Zeitraum fehl. * HTTP(S)-Requests liefen auf Timeouts / 4xx/5xx-Fehler, obwohl die eigentlichen App-Container gesund waren. * Interne Dienste (z. B. direkte Container- oder Datenbankzugriffe) waren nicht betroffen, nur der externe Zugriff über Domains. Es kam zu einer **temporären Nicht-Erreichbarkeit** mehrerer Webanwendungen, aber zu **keinem Datenverlust**.