hawihoney

Members
  • Posts

    3489
  • Joined

  • Last visited

  • Days Won

    7

hawihoney last won the day on March 28

hawihoney had the most liked content!

About hawihoney

  • Birthday 01/01/1958

Converted

  • Gender
    Male
  • Location
    Germany, NRW, Cologne

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

hawihoney's Achievements

Proficient

Proficient (10/14)

597

Reputation

77

Community Answers

  1. Den Hinweis habe ich jetzt nicht verstanden. Aber egal. Unraid verwendet ausschließlich Software RAIDs. Die Schreibgeschwindigkeit kann einfach nicht, außer beim Schreiben durch den Linux Block/Buffer Cache im RAM, signifikant schneller sein als die langsamste Platte im RAID1 Verbund. Die Lesegeschwindigkeit kann einfach nicht, außer beim Lesen durch den o.g. Cache, signifikant schneller sein als die schnellste Platte im RAID1 Verbund. Das mit der "schnellsten" Platte ist kein Vertipper. Die RAID Systeme kennen ja die Drive Characteristics und können die Zugriffe bei RAID1 entsprechend anpassen. Das "signifikant" habe ich bewusst geschrieben, denn im Real-World Schreiben/Lesen und damit meine ich nicht dd, gibt es noch die Nickeligkeiten mit Metadaten und den eigentlichen Daten (was IMHO u.a. den Spass mit BTRFS versaut). Auch das kann und wird entsprechend auf die Platten im Verbund (nicht RAID 0/1) verteilt. Dadurch ergeben sich Unterschiede. Aber von 2x oder /2 kann keine Rede sein. Ich lasse mich aber gerne eines Besseren belehren. So kenne ich das jedenfalls und so habe ich es bisher immer erlebt.
  2. Ich habe das Gefühl, dass hier teilweise RAID0 und RAID1 vertauscht werden. Ich empfehle für einen kurzen Überblick über Performance und Ausfallsicherheit die beiden Wikipedia Artikel. Die beschreiben beide Varianten sehr gut - auch den Sonderfall "Verdoppelung der Leseleistung" bei der Verwendung von RAID1 und entsprechenden Controllern: https://de.wikipedia.org/wiki/RAID#RAID_0:_Striping_–_Beschleunigung_ohne_Redundanz https://de.wikipedia.org/wiki/RAID#RAID_1:_Mirroring_–_Spiegelung Und nicht vergessen: Unraid nutzt ausschließlich Software-RAIDs ... Um auf die Ausgangsfrage zurückzukommen. Die Antwort: Kommt vorrangig auf die Anbindung an ...
  3. Das ist halt die Frage. Deshalb lieber mit interaktiver Kontrolle.
  4. In seinem konkreten Fall kann er nach Erfolg disk2 komplett löschen. Macht rsync das rekursiv? Hab ich noch nie dafür genutzt. Hätte rm genommen. Und nur der Vollständigkeit halber: Die beiden Optionen empty/delete genau in dieser Reihenfolge ... Der OP kannte rsync, find, etc nicht sonst hätte er sie verwendet. Also befindet er sich in einer anderen Blase als wir. Der Linux Weg ist "Nimm doch das" ohne weitere Anleitung. So funktioniert das im Endbenutzer Bereich nicht. Diese holt man in ihrer Blase ab und geht mit ihnen gemeinsam in unsere. So bildet man aus, so lehrt man. Wenn dann das Vertrauen und die Kenntnis weiter gereift ist wird er selbst eigenen Schritte unternehmen. Das ist seit fast 2 Dutzend Jahren so, dass man Linux Kennern Arroganz vorwirft. Die Diskussionen hierzu sind wirklich uralt. Das wollte ich nie. Ich wollte Wissen transportieren. Leute anleiten, richtig helfen. Nicht zuviel Geschwafel, nur genau dosiert. Dabei startet man mit bekannten, klaren Umgebungen, stellt sie kurz vor und zeigt mit Beispielen dem Endbenutzers wie es gehen könnte. Den Rest muss er trotzdem selbst machen. Und daran reift er.
  5. Hab ich oben erklärt. Ich will das sehen. Blind auszuführen mache ich nicht, nie. Oft fällt mir dabei etwas auf und ich lösche oder verschiebe noch was. Ist mein Vorschlag an den OP. Jeder kann machen was ihn glücklich macht. Hatte vor der Rente 42 Jahre in der IT gearbeitet. Ich habe so viele Pferde koxxxn sehen. Dieses kleine bisschen zusätzliche Kontrolle hat mir extrem oft den Hintern gerettet. Nur meine 0.0 Cent.
  6. Nachtrag. Offensichtlich geht es um die kompletten Platten disk2 und disk4. Zielplatte ist dann natürlich die auf der am meisten drauf ist. Nehmen wir an disk4 ist voller als disk2. Dann wird disk4 zur Zielplatte. disk2 links, disk4 rechts. Compare. Synchronize. Nur Copy links nach rechts aktivieren. Keine Löschungen, kein Copy nach links. Danach nochmal vergleichen. Er darf kein Copy nach rechts mehr anbieten. Wenn Du glücklich bist kannst Du links löschen - nicht formatieren. Hmm, denk bitte auch mal drüber nach. Hab ich was vergessen?
  7. Wird es immer. Es kommt beim Compare auch nicht auf die Größe der Dateien an sondern deren Anzahl. Schalte einfach mal Subdirs für einen Unterordner wie Daten oder Daten/Sortiert an. By content würde ich bis zum tatsächlichen Sync abschalten. Du siehst dann wie viele Dateien wo sind. Dann klickst Du auf Synchronize. Auf dem folgenden Dialog wählst Du die Aktion aus nach links, nach rechts, links löschen. Etc. Einfach mal gucken ohne es zu starten. Beispiel:
  8. Ich werfe ebenfalls ein Werkzeug in den Ring. In den Unraid Apps gibt es den "Double Commander" als Docker Container. Das ist ein 1:1 Clone des "Total Commander" - und der ist unfassbar mächtig im Funktionsumfang. Das ist ein Norton 2-Fenster Dateimanager. 1. Dem gibst Du in der Konfiguration einen zusätzlichen r/w Pfad /mnt/ <-> /data/. 2. Stell Dich im linken Fenster auf die Quelle (z.B. /data/disk1/) 3. Stell Dich im rechten Fenster auf das Ziel (z.B. /data/disk2/) 4. Menu Commands, Synchronize Dirs aufrufen 5. Compare starten --> Nun hast Du li/re die verschiedenen Inhalte. 5. Über Show steuerst Du was Du sehen willst (welche Seite, Duplikate, etc) Spiel mal ein wenig damit rum ohne direkt das Synchronsieren auszuführen. Fragen an mich. Ich bin eher der visuelle Mensch bei solchen Aktivitäten. Deshalb nutze ich in solchen Fällen eher solche Werkzeuge als find/rm/mv.
  9. Ich arbeite so nicht, aber muss das nicht anders eingerichtet werden:
  10. Du verwendest CPU Pinning in Linux? Guck mal was IBM dazu schreibt. Das ist nur für extrem seltene Situationen empfehlenswert: https://www.ibm.com/docs/en/linux-on-systems?topic=management-linux-scheduling
  11. Doch. Es gibt kein Werkzeug auf der Welt das den Linux Scheduler besser bedient als Linux selbst. Selbst wenn man es glaubt, man schafft es nicht. Man beginnt also damit, dass man Linux alles überlässt. Das testet man. Wenn man damit nicht zufrieden ist kann man immer noch rumfummeln. Und ja, es gibt Situationen in denen man einem der Komponenten absoluten Vorrang einräumen will, aber das probiert man erst im zweiten Schritt: 1. CPU Isolation komplett aus: 2. CPU Pinning VM komplett an. Das kann man auch in den VM Konfigurationen setzen: 3. Testen.
  12. Du meinst das? Irgendwelche CPU Pinnings für die VM, bzw. CPU Isolation eingerichtet?
  13. Ach so. Wird wohl z.B. User-Share "share1" auf "disk1" begrenzt haben und "share2" auf "disk2". Dann kannst Du z.B. mit /mnt/user/share1 ausschließlich mit Disk1 arbeiten. Und umgekehrt mit /mnt/disk1/share1 ausschließlich mit Share1. Das Problem mit Disk-Share-Only wie bei mir ist, dass Du keine Shares erhälst. Du musst das dann über SMB-Extra lösen. Wahrscheinlich fehlt diese Kenntnis. Ich würde mir wünschen, dass bei "User-Share=no" und "Disk-Share=yes" in Dynamix File Manager einen Knopf neben Root-Ordnern gäbe um dies zu erstellen.
  14. 1. Ich arbeite nicht mit dem Cache. 2. Wenn es etwas mehr wird, dann sollte schon ein wenig Ordnung herrschen. 3. Ich arbeite ausschließlich mit Disk-Shares (s.o.). Und nein, da ist nix kompliziert. Dafür gibt es viele, viele Werkzeuge. Plex z.B. muss nur einmal eingerichtet werden. Und wenn es mal ein Werkzeug nicht geben sollte, dann baue ich es mir halt selbst. 45 Jahre Informatik müssen ja für etwas gut gewesen sein ...
  15. Das kann man so pauschal nicht sagen. Für mein System gibt es halt keine Alternative. Für Andere mit einer Handvoll Platten, entsprechend dimensioniertem RAM sowie wenigen wechselnden Schreib-/Lese-Aktivitäten mag das hingegen kein Problem sein. Das liegt an der Struktur vom Linux Caching z.B: https://www.oreilly.com/library/view/understanding-the-linux/0596002130/ch14.html Und an FUSE z.B: https://www.kernel.org/doc/html/next/filesystems/fuse.html#what-is-fuse Stell Dir vor Du hast ein voll ausgebautes 4 HE System mit 24 Platten. Ein User-Share reicht über alle Daten-Platten (22). Und nun verwendest Du diesen User-Share (/mnt/user/<share>) in z.B. Plex. Das läuft so lange gut, bis der Linux Cache im RAM, aus welchen Gründen auch immer, geleert wurde. Das kann z.B. beim Laden eines Unraid Updates passieren (ja ja, selbst beim Herunterladen eines Unraid Updates läuft ein Sync um den RAM Cache vorsorglich auf die Platten zu schreiben). Das kann aber auch durch heftige Schreiblast passieren. Sobald dann der RAM Cache den angeforderten Verzeichniseintrag nicht mehr gecacht hat, werden die Platten dieses User-Shares der Reihe nach hochgefahren und das jeweilige Verzeichnis geladen, bis der gesuchte Eintrag gefunden wurde. Und genau das ist der Knackpunkt - der Reihe nach. Bei mir dauert das Hochfahren einer einzelnen Platte mit Laden des Verzeichnis bis zu 10 Sekunden. Das wären bei 22 Platten ... Gibst Du Plex aber alle Disk-Shares (1 bis 22) dann entfällt das. Es muss nur exakt die eine Platte geweckt und im "Katastrophenfall" durchsucht werden. Ich würde mir wünschen, dass in dem o.g. Fall alle Platten auf einmal geweckt würden (wie es aus der GUI heraus geschieht). Dadurch steigt dann aber der Strombedarf, denn es würden dann immer alle 22 Platten geweckt, selbst wenn der gesuchte Eintrag schon auf der ersten Disk liegen würde ... Wie oben gesagt, es kommt auf den Einzelfall und die Geduld der User an. Meine Eltern würden sofort anrufen wenn es dann 3 Minuten oder so dauern würde: "Kind, das Dings ist kaputt".