Hallo werte Mitfedditor:innen,

Ich möchte hier meine gestrige Erfahrung mit euch teilen und euch um eure ähnlichen Erfahrungen erfragen.

Zum Setting: Ich nutze zuhause als Server für Plex und ein paar andere Dienste einen Headless Mac Mini Late 2012 (ja, Apple ist hier nicht so beliebt, but hear me out). Dieser läuft auch seit seiner Anschaffung in 2012 24/7 durch. Hab ihn zwischendurch mal mit RAM und SSDs aufgerüstet aber das ding lief. Ist aber auch schon länger aus dem OS-Support raus (lief mit Catalina 10.15.7) und man merkt auch bei aufwändigeren CPU-lastigen Tasks, dass die CPU in die Jahre gekommen ist.

Daher habe ich mich kürzlich dafür entschieden, den Rechner auszutauschen und habe mir am Dienstag einen Mac Mini 2023 mit M2 Prozessor bestellt, da dieser einfach ein energieeffizientes Powerhouse ist (und ja ich bin mir der Nachteile durch festverlötete Hardware bewusst). Jedoch hatte ich mir gar keine großen Gedanken um die Datenübernahme gemacht. Wer Plex kennt, weiß dass sämtliche Metadaten lokal gesammelt werden und wenn diese Struktur auch nur ein bisschen aufgerissen wird, fängt Plex an zu spinnen. Ich hatte zwar ein Time Machine (Apples integrierte Backup Software) Backup, aber wusste auch nicht wie gut das geht, da die ja auch eine andere Architektur (alt x86_x64, neu ARM64) haben.

Gestern kam das Gerät an. Angeschlossen, hochgefahren, ein paar Voreinstellungen gemacht und dann wurde ich vom Migrationsassitenten begrüßt. Alles was ich nun tun musste, war dafür sorgen, dass beide Geräte im selben Netzwerk sind. Dann musste ich noch auf dem alten Mac Mini ebenfalls den Migrationsassistenten starten und auf dem neuen Mac den alten als Quelle auswählen.

Dann hat der Assistent ca. ne halbe Stunde gerödelt und gab mir dann die Mitteilung, dass alles fertig ist. Ich war skeptisch, da der alte Mac wie gesagt schon sehr alt ist und eine ganz andere Prozessorarchitektur hat. Ich weiß, Apple hat für diesen Schritt auf ARM Prozessoren viel mit Rosetta etc. gemacht, aber konnte mir echt nicht vorstellen, dass das nach dem Transfer gut funktioniert.

Was soll ich sagen, ich habe mich in den neuen Mac eingeloggt, und alles war so, wie ich den alten Mac verlassen habe. Plex startete automatisch und hat meine Netzlaufwerke nach Serien durchsucht. Noch ein paar kleine Einstellungen und der Umzug war schon beendet. Nur drei Apps liefen unter der neuen Architektur nicht mehr, wovon ich zwei eh nicht mehr brauchte und eine war MS Edge, die ich einfach neu laden konnte. Ich glaube, das hat mich insgesamt 2 Stunden Downtime gekostet und das hauptsächlich, da ich im Home Office war und auch noch gearbeitet habe. Ich bin echt sehr positiv überrascht. Gerade weil ich in der Vergangenheit oft negative erfahrungen beim Umzug eines Rechners hatte. Bei Windows habe ich meistens nur ein paar Ordner und meine SSD mit Steam Spielen mitgenommen, bei Linux hab ich das System meist lieber von neu aufgesetzt und meine Änderungen nachträglich eingepflegt.

Habt ihr da schon ähnliche positive Erfahrungen gemacht? Gibt es gute Tools für Windows und Linux, die einen Umzug auf ein neues Gerät ähnlich komfortabel machen?

Dies soll kein Bashing o.Ä. sein. Ich nutze Windows, Mac und Linux so wie ich es gerade brauche und es für mich am besten passt und wünsche mir, dass solche Dinge auf allen Systemen so einfach und positive Erfahrungen sind.

  • superkret
    link
    fedilink
    arrow-up
    2
    ·
    edit-2
    4 months ago

    Bei Slackware läuft das eigentlich immer problemlos. Weil es halt buchstäblich nichts anderes macht als alle vorhandenen Pakete updaten, alle neuen installieren und alle obsoleten löschen. Du hast die gleiche Paketauswahl auf deinem PC wie die Entwickler, es wurde also vorher schon genau so wie du es bekommst getestet. Und die Entwickler legen noch mehr Wert auf Stabilität als die von Debian.

    • FennekOPM
      link
      fedilink
      Deutsch
      arrow-up
      2
      ·
      edit-2
      4 months ago

      Das klingt auf jeden Fall abenteuerlich. Zugegeben bin ich jetzt nicht der Bewanderdste im Linux-Bereich. Ich hab an meinen Raspberrys schon die ein oder andere Bastelei wie PiHole, HomeAssistant in Docker mit Signal und MQTT Schnittstellen oder sowas gemacht, aber wenn es um irgendwas mit Bootloader geht, steh ich auch meist erst mal wie der Ochs vorm Berg und muss mich erst mal wieder einlesen, was denn jetzt zu tun ist. Wohl auch, weil ich, auch wenn ich FiSi bin, in meinem aktuellen Beruf so gut wie keine Berührungspunkte mit Linux hab. Und in meiner Freizeit bin ich dann meist froh wenn die Dinge einfach laufen und ich mich nicht zwangsweise damit beschäftigen muss, wie ich jetzt mein System wieder zum laufen bringe, nachdem ich nichts Böses ahnend ein Dist Upgrade gemacht habe 😅

      Inzwischen hat sich da gerade bei den großen Distros, wie du bereits sagtest, viel gebessert. Bei Ubuntu kann man doch inzwischen sogar übers UI ein Dist Upgrade machen. Und das macht vermutlich auch nicht viel anderes, als was ich mit meiner Anleitung bei meinem Raspi beim Upgrade gemacht habe, nur als Script oder Programmablauf zusammengefasst und ein bisschen UI drübergehauen. Und ich meine mich zu erinnern, dass selbst das in ner VM mal nicht geklappt hat und danach nicht mehr bootete.

      Ich les auch oft in Gaming Communities und da ist die Linux-Fraktion inzwischen auch sehr gut vertreten (wenn auch an Steam Zahlen gesehen noch nicht wirklich groß), aber wenn man mal etwas liest, merkt man schnell, dass man doch einige Einbußen im Vergleich zu nem Windows System hat. Es läuft schon sehr viel und Valve hat da auch viel für getan, aber es gibt leider immer noch sehr sehr viel, insbesondere AAA Titel, die den Sprung noch nicht geschafft haben oder erst nach einiger Zeit und optimierung laufen. Ich freu mich natürlich, wenn sich da in Zukunft noch viel mehr tut, aber aktuell scheu ich mich noch davor meinen Gaming PC auf Linux umzustellen. Und mit Dualboot lauf ich irgendwann immer in Probleme (was in der Regel Windows schuld ist, aber das bringt mich nicht weiter).