Beh, da me si ospitano parecchi desktop linux e macosx e posso dire che tutti hanno lo stesso problema di windows: l'uso intenso di applicazioni porta alla corruzione del sistema. Su Linux e Mac si nota di meno perché, francamente, ci sono relativamente poche applicazioni che gli utenti possono installare. Inoltre gli ambienti vengono spesso forniti in modo da essere autoconsistenti (Linux), oppure utili solo per applicazioni molto verticali (Mac).
Viceversa quello che si nota di più è l'instabilità del supporto degli applicativi sul lungo periodo. Linux ha il vantaggio di poterti far ricompilare i sorgenti ma posso assicurarti che avere una render farm distribuita Mac ferma perché una patch di MacOSX rompeva la compatibilità con alcune syscall non è certo bello, né professionale. Fortuna che le nostre licenze comprendevano anche versioni Windows. In particolare perché non lo sapeva quasi nessuno e Apple non ha avvisato né svolto test (ma questa è una pratica comune, usare i fedelissimi per il beta testing).
Questo è solo un'esempio, su macosx (e linux) succede spessissimo. Per me è inaccettabile, visto anche il relativo poco supporto che questi SO hanno sul parco applicazioni. Specie se poi i commerciali che ti forniscono le workstation vogliono disperatamente che tu inizi a comerare anche dei server, che, per come stanno le cose, hanno un'affidabilità pressoché nulla.
Non dico che Windows sia migliore o esente da difetti, dico solo che se si compera un SO e lo si usa come un frullatore, tutto funziona sempre e subito. Se si inizia a smanettare con il sistema, tutto si rompe. Lo dimostrano anche le console next-gen.