Ich hab’ nen Account auf lemmy.world und die mussten ganz schön zaubern, um die Instanz bei so vielen Benutzern noch halbwegs funktional zu halten. Gerade wurde auf die aktuellen Release Candidates von 0.18.1 migriert und da laufen jetzt mehrere Docker-Container für die UI und das Backend und ein dedizierter Container nur für den Scheduler mit nginx als Load Balancer dazwischen …
Das klingt eher normal für ein Serversystem mit viel Traffic. Ich arbeite für ein SaaS-Unternehmen, und unser Devops-Mensch hat uns angehalten, die Server-Software auf genau so eine Architektur vorzubereiten, auch wenn wir momentan nur eine Instanz brauchen.
Mag sein, aber der Ruud macht das als “Hobby” und es gibt bislang wenig bzw. keine Erfahrung, wie lemmy skaliert. Daher sind seine Erfahrungen m. E. ja so wertvoll für die Community.
Naja, die Implementierunsgsprache ist zwar auch wichtig, aber das Design von Protokollen, Datenstrukturen, Code/Concurrency und Infrastruktur ist gar nicht so sehr abhängig davon. Das ist mir schon oft in der OOP-Welt aufgefallen. Nur weil etwas in einer objektorientierten Sprache implementiert ist, hat es nicht automatisch ein gutes bzw. gut skalierbares Design. Ähnliches gilt auch für Rust oder Golang, obwohl beide natürlich spezielle Stärken haben wie memory safety und concurrency.
Ja klar, was man bei Clustering vermeiden muss ist, state im RAM zu halten, weil wenn man das tut und der Client das nächste Mal eine andere Node bekommt, diese nichts davon weiß. Alternativ kann man auch schauen, dass der gleiche Client immer die gleiche Node bekommt, aber das passiert auch nicht von alleine. Das macht restarts dann aber auch schwieriger.
Deswegen hat bei uns auch der devops-Mensch schon in der Entwicklung drauf bestanden, dass ich da dran denke.
Vermutlich macht es Sinn, sich direkt mit @ruud@lemmy.world in Verbindung zu setzen. Mein Eindruck ist, dass er ziemlich kooperativ ist.
The solutions
What I had noticed previously, is that the lemmy container could reach around 1500% CPU usage, above that the site got slow. Which is weird, because the server has 64 threads, so 6400% should be the max.
So we tried what @sunaurus@lemm.ee had suggested before: we created extra lemmy containers to spread the load. (And extra lemmy-ui containers). And used nginx to load balance between them.
Et voilà. That seems to work.
Also, as suggested by him, we start the lemmy containers with the scheduler disabled, and have 1 extra lemmy running with the scheduler enabled, unused for other stuff.
There will be room for improvement, and probably new bugs, but we’re very happy lemmy.world is now at 0.18.1-rc. This fixes a lot of bugs.
Update The server was migrated. It took around 4 minutes downtime. For those who asked, it now uses a dedicated server with a AMD EPYC 7502P 32 Cores “Rome” CPU and 128GB RAM. Should be enough for now.
Ich hab’ nen Account auf
lemmy.world
und die mussten ganz schön zaubern, um die Instanz bei so vielen Benutzern noch halbwegs funktional zu halten. Gerade wurde auf die aktuellen Release Candidates von0.18.1
migriert und da laufen jetzt mehrere Docker-Container für die UI und das Backend und ein dedizierter Container nur für den Scheduler mit nginx als Load Balancer dazwischen …Das klingt eher normal für ein Serversystem mit viel Traffic. Ich arbeite für ein SaaS-Unternehmen, und unser Devops-Mensch hat uns angehalten, die Server-Software auf genau so eine Architektur vorzubereiten, auch wenn wir momentan nur eine Instanz brauchen.
Mag sein, aber der Ruud macht das als “Hobby” und es gibt bislang wenig bzw. keine Erfahrung, wie lemmy skaliert. Daher sind seine Erfahrungen m. E. ja so wertvoll für die Community.
Mit Rust sollte das wesentlich einfacher sein als bei Mastodon mit Ruby on Rails.
Naja, die Implementierunsgsprache ist zwar auch wichtig, aber das Design von Protokollen, Datenstrukturen, Code/Concurrency und Infrastruktur ist gar nicht so sehr abhängig davon. Das ist mir schon oft in der OOP-Welt aufgefallen. Nur weil etwas in einer objektorientierten Sprache implementiert ist, hat es nicht automatisch ein gutes bzw. gut skalierbares Design. Ähnliches gilt auch für Rust oder Golang, obwohl beide natürlich spezielle Stärken haben wie memory safety und concurrency.
Ja klar, was man bei Clustering vermeiden muss ist, state im RAM zu halten, weil wenn man das tut und der Client das nächste Mal eine andere Node bekommt, diese nichts davon weiß. Alternativ kann man auch schauen, dass der gleiche Client immer die gleiche Node bekommt, aber das passiert auch nicht von alleine. Das macht restarts dann aber auch schwieriger.
Deswegen hat bei uns auch der devops-Mensch schon in der Entwicklung drauf bestanden, dass ich da dran denke.
Gibt es irgendwo eine Erläuterung zu deren Infrastruktur? Wäre interessant, falls es bei uns irgendwann mal (deutlich) mehr wird.
📓 Das ist die Info, die ich gefunden habe:
Vermutlich macht es Sinn, sich direkt mit @ruud@lemmy.world in Verbindung zu setzen. Mein Eindruck ist, dass er ziemlich kooperativ ist.
🖥 Letzte mir bekannte Info zur Hardware: