Völlig ungetestet würde ich sogar eine Behauptung aufstellen: Wenn du alle Daten auf einem Server löschst, dann wird sich das System recht schnell selbst aufhängen und daher die Menge neu geschriebener Daten stark reduzieren.
Da würde ich sanft widersprechen, je nach Aufgabe des Servers kann eine defekte Platte oder gelöschte Platte / Verzeichnis recht lange unbemerkt bleiben.
Ich würde dennoch sagen, dass Linux hier eher unproblematisch im Sinne des TE ist.
1. Es gibt "traditionell" eine strenge Berechtigungssperre für solche Befehle inkl. der Befehlsschalter, die in Zugriff befindliche Dateien trotzdem löschen, sowas macht man nicht aus gewohnheit.
2. Das gesamte Dateisystem ist eigentlich sehr stark auf die Trennung von verschiedenen Nutzungsarten ausgelegt. Was einerseits 1. unterstützt (man braucht 'nie' als Root zu agieren und kann gar nicht viel zerstören), Backup lässt sich recht leicht in
OS und Nutzdaten aufteilen, Chancen auf erfolgreiches Wegschreiben & Wiedereinlesen sind hoch.
3. Sehr ausgereifte FS, incl. journal mechnismen, die einiges wegstecken. Herstellung anhand Invertierung des Löschflag ist mindestens so gut wie bei NTFS.
Ich habe mich bei einem meiner ersten Linuxsysteme immer gewundert, warum bei so einer seriösen Distribution der Bildschirmhintergrund aus lauter Bomben mit brennenden Zündschnüren besteht. Ich hab's dann relativ schnell kapiert. Meist wird man auch von geneigten Kollegen oder Dozenten entsprechend eingenordet.
Heutige Distris verhalten sich ja auch gern Windows like, Mülleimer bedeutet nicht löschen sondern "verschieben", was je nach Machart bei alten Hasen für Empörung sorgte, wenn nämlich die Mülleimer nicht die Partitionsgrenzen erkannten und das Müllern eines mittelgroßen Tarball in mühsamen Kopieren endet.
Wahrscheinlich war das "rm ... " eh nur ein Beitrag von jemand, der von der Konkurrenz gesponsort wurde.