Lieber Besucher, herzlich willkommen bei: RCLine Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

21

Donnerstag, 8. Juni 2006, 18:25

Ähm, Raid5 heißt MINDESTENS drei Festplatten.
Wir haben hier ein Raid5 mit 8 Platten und die benutzbare Kapazität ist die von 6. (1 hot-spare). Bau das mal mit Raid1. ;)

Für Datenmengen unter 750GB ist Raid1 natürlich besser (gibt es das schon als SCSI?)

Zitat

Das ist bei den Angaben bereits berücksichtigt, die beziehen sich nicht auf die minimale, sondern auf die mittlere Zugriffszeit.

Eben drum!

Die mittlere Zugriffszeit über 1/3 des Kopfweges über die gesamte Plattengröße berechnet.
Nehmen wir mal eine 100er Platte mit 4ms und eine 300er mit 9ms mittlerer Zugriffszeit.
Wenn ich auf der 300er eine 100GB Partition anlege, ist das noch mal ~1/3 des Gesamtweges, damit hat sie hat sie auf dieser Partition nur noch 3ms mittlere Zugriffszeit. Die Latenz muß man fairerweise noch mit einrechnen, aber die Richtung ist klar, oder? Zusammen mit der höheren Datendichte pro Spur, die zu einer höheren Datentransferrate führt, kommt eine bessere Gesamtperformance heraus.

Ich habe letztes Jahr die
WesternDigital Raptor 360GD 36GB SATA mit 5.2ms
mit einer
WesternDigital 2500JS 250GB S-ATA mit 9ms
verglichen.

Die 36er "fühlt" sich zwar viel mehr an wie eine Server-Platte (knatteldischnack), die 250er ist aber dennoch schneller, leiser und billiger.

Grüße
Malte
PS: 'Vorteil' eines "Bastelservers" gegen dell: Wenn der Server kaputt ist: Plattenstapel in den nächsten verfügbaren Desktop geschraubt, und weiter gehts ;)

Dieser Beitrag wurde bereits 9 mal editiert, zuletzt von »DrM« (8. Juni 2006, 18:45)


22

Donnerstag, 8. Juni 2006, 19:19

Zitat

Original von DrM
Die mittlere Zugriffszeit über 1/3 des Kopfweges über die gesamte Plattengröße berechnet.
Nehmen wir mal eine 100er Platte mit 4ms und eine 300er mit 9ms mittlerer Zugriffszeit.
Wenn ich auf der 300er eine 100GB Partition anlege, ist das noch mal ~1/3 des Gesamtweges, damit hat sie hat sie auf dieser Partition nur noch 3ms mittlere Zugriffszeit. Die Latenz muß man fairerweise noch mit einrechnen, aber die Richtung ist klar, oder? Zusammen mit der höheren Datendichte pro Spur, die zu einer höheren Datentransferrate führt, kommt eine bessere Gesamtperformance heraus.

Das ist leider graue Theorie. In der Praxis kannst du kaum beeinflussen, an welcher Stelle der Partition die Daten abgelegt werden, außer du defragmentierst täglich (und selbst dann liegen die Daten nicht immer am Anfang) oder du läßt zwei Drittel der Platte ungenutzt. Macht wenig Sinn, eine große langsame Festplatte anstelle einer kleineren, schnellen zu kaufen. Die höhere Transferrate kommt bei Servern auch nicht zur Geltung, weil die Dateien dort i.d.R. stark fragmentiert sind.

Zur RAID-Geschichte, RAID1 gibt es bei SCSI schon genauso lange wie RAID5, es wurde nur früher nicht so oft genutzt (der Kosten wegen). Wenn die Anschaffungspreise nicht im Vordergrund stehen, würde ich RAID1 immer vorziehen. Oder meinetwegen RAID10 (doppelte Sicherheit UND doppelte Performance). Installiere mal Windows (oder auch Linux) abwechselnd auf RAID5 und RAID1, wobei die Auslagerungsdatei (bzw. Swap-Partition) auf dem selben Array liegt. Der Unterschied ist gravierend.

Zitat

Original von DrM
PS: 'Vorteil' eines "Bastelservers" gegen dell: Wenn der Server kaputt ist: Plattenstapel in den nächsten verfügbaren Desktop geschraubt, und weiter gehts


Das funktioniert so auch nur bei identischer Hardware. Ansonsten braucht es Zeit, um die Installation anzupassen, vom Aktivierungsproblemen mal ganz abgesehen , falls Windows Server 2003 als OS fungiert.
...lieber Luftraum als Raumluft...

23

Donnerstag, 8. Juni 2006, 21:37

Ganz oben steht Linux. Solange man sich keinen hochspeziellen Kernel zusammenkompiliert geht ein Transfer von einem zum Anderen Rechner meist problemlos.
Mit Windows als Server hat man doch nur Ärger. (Allerdings verdient man wegen des Supports natürlich mehr dran. ;))

Warum müssen Threads auf RCL eigentlich immer so unendlich vom Thema abgleiten?

Zitat

Macht wenig Sinn, eine große langsame Festplatte anstelle einer kleineren, schnellen zu kaufen. Die höhere Transferrate kommt bei Servern auch nicht zur Geltung, weil die Dateien dort i.d.R. stark fragmentiert sind.

Bei der 36er schon die Dicke kostet weniger UND ist schneller, selbst wenn man nur einen Teil benutzt! Was soll denn daran keinen Sinn machen?

Am schnellsten ist natürlich eine riesen Solid-State-Disk aber wenn die Mittel begrenzt sind?

Auslagerungsdateien packt man nicht auf Raid5. Steht in der Doku. Eigentlich verwendet man auch keine Auslagerungsdateien sondern Auslagerungspartitionen, das umgeht nämlich die Fragmentierung des Dateisystems auch ohne Defragmentierungstool.

Zu 1 vs. 5: Wie schon geschrieben, bei 8 Platten kannst Du kein Raid1 mehr verwenden.

Wir haben hier auch so'n SATA-Raid gehäuse stehen. Mit nur drei Platten drin war die Lese-Performance bei RAID5 enttäuschend, dachte schon wir wurden beschubst. Mit der vierten Platte kam plötzlich eine Verdoppelung auf knapp 120MB. Und schelles Lesen ist bei den meisten Anwendungen immer noch wichiger als Schreiben (Video-Bearbeitung und Auslagerungsdaten mal ausgenommen, die man aber sowieso tunlichst vermeiden sollte, weil die Seek-Time im Hauptspeicher ein paar zigtausendmal schneller ist als auf der schnellsten Platte! (< 0.1µs vs ~4ms)

Grüße
Malte

Dieser Beitrag wurde bereits 6 mal editiert, zuletzt von »DrM« (8. Juni 2006, 21:53)


24

Freitag, 9. Juni 2006, 10:53

Zitat

Original von DrM
Mit Windows als Server hat man doch nur Ärger. (Allerdings verdient man wegen des Supports natürlich mehr dran. ;))


Jaja, das ist ein von Pinguin-fixierten Hardcore-Unixern immer noch oft gebrauchtes Argument, das noch aus der grauen Vorzeit von Win9x und NT4.0 stammt und mittlerweile zum Vorurteil verkümmerte. Spätestens mit W2K-SP2 hat es seine Berechtigung endgültig verloren. Aufgrund meiner praktischen Erfahrungen (ich betreue seit über 10 Jahren eine Reihe von Kanzleien, Schulen und mittelständischen Unternehmen) kann ich feststellen, daß ein sauber konfiguriertes Windows-System ebenso stabil läuft wie ein Linux oder Mac. Die Sicherheit läßt sich gleichermaßen auf ein hohes Niveau schrauben, solange der Admin nicht schlampt. Wenn man die Meldungen auf Heise Security regelmäßig verfolgt, kann man klar erkennen, daß auch Linux zahlreiche Lecks enthält und keineswegs so sicher ist, wie immer behauptet wird. Als Pluspunkt kann Linux allerdings die schneller bereitgestellten Patches verbuchen.
Am Ende der Ära, wo man noch "Novell" meinte, wenn man "Netzwerk" sagte, stand ich auch vor der Wahl: Windows-Server oder Linux-Server ? Ich entschied mich pro Linux. Die Server liefen wie erwartet störungsfrei über Jahre hinweg. Wahrscheinlich würde ich immer noch Linux einsetzen, wenn sich nicht die administrativen Erfordernisse grundlegend geändert hätten. Heute geht es nicht mehr nur darum, Dateien und Verzeichnisse im Netzwerk zur Verfügung zu stellen. Um störungsfreien Betrieb zu gewährleisten, muß man mittels ausgefeilter Rechtevergabe den User nicht nur vor äußeren Bedrohungen schützen, sondern vor allem vor sich selbst. Microsofts Active Directory und die Gruppenrichtlinien bieten dazu ein ausgezeichnetes Werkzeug. Ich kann mit wenigen Mausklicks an zentraler Stelle netzwerkweite Einstellungen und Beschränkungen vornehmen, ohne auch nur ein einziges Mal einen Client-PC aufzusuchen. Das Samba-Team hat es leider bis heute nicht geschafft, dem eine für Produktiv-Umgebung geeignete Lösung entgegenzusetzen. So gern ich wieder Linux verwenden möchte, für effektive und zeitsparende Administration von Netzwerken, die Größe und Erfordernisse kleiner Arbeitsgruppen überschreiten, ist ein Windows-Domänencontroller zur Zeit um Welten besser geeignet. Im Bereich Web- und Mailserver hat wiederum Linux die Nase vorn, daran besteht kein Zweifel. Die Grundsatzfrage lautet also nicht "Windows oder Linux" sondern "Welches OS für welchen Zweck".
Support-Kosten spart Linux auch nicht. Wenn ich zum Einsatz gerufen werde, geht es selten um Störungen, sondern um die Installation von Programmen oder andere administrative Tätigkeiten. Ein User, der nicht in der Lage ist, ein Windowsprogramm zu installieren, kommt mit Linux erst recht nicht klar, das steht wohl außer Frage.

Zitat

Original von DrM
Warum müssen Threads auf RCL eigentlich immer so unendlich vom Thema abgleiten?


So weit weg vom Thema sind wir doch gar nicht.

Zitat

Original von DrM
Bei der 36er schon die Dicke kostet weniger UND ist schneller, selbst wenn man nur einen Teil benutzt! Was soll denn daran keinen Sinn machen?


In meiner Praxis hat sich der Einsatz von Platten mit möglichst geringer Zugriffszeit immer spürbar positiv ausgewirkt. Um das exakt zu belegen, müßte man jedoch umfangreiche Meßreihen anstellen. Dafür fehlt mir allerdings die nötige Zeit und das Equipment.

Zitat

Original von DrM
Zu 1 vs. 5: Wie schon geschrieben, bei 8 Platten kannst Du kein Raid1 mehr verwenden.


Ich kann sie aber in mehrere RAID1 bzw. RAID10 Arrays schalten und diese dann als dynamischen Datenträger zusammenfassen. Gegenüber RAID5 hätte dies den Vorteil sowohl höherer Lese- als auch Schreibperformance. Wenn ich 8 Disks zur Verfügung hätte, würde ich sie jedoch anders nutzen, z.B. als separate physikalische Datenträger für System, Daten, Transaktionsprotokoll usw., das ist praktisch sinnvoller (mach ich speziell bei Datenbankservern so).
...lieber Luftraum als Raumluft...

25

Freitag, 9. Juni 2006, 13:48

Danke für Deine sachliche Antwort, ich war schon etwas provokant ;)

Zitat

Spätestens mit W2K-SP2 hat es seine Berechtigung endgültig verloren.

http://uptime.netcraft.com/up/graph?site=www.linux.com
http://uptime.netcraft.com/up/graph?site=www.microsoft.com

Neustart nach Update macht mir jedesmal Bauchschmerzen, aber ich gebe zu ich bin Web-zentriert und da sind wir uns ja einig ;)

Außer einem knappen dutzend Webservern, mit z.T. ein paar Mio PVs/Tag, hat meine direkte "Netzwerk-Umgebung" nur 25 Mac/Windowsuser, insofern ist mein Konfigurationsaufwand klein. Samba 2.2 reicht eigentlich.
Die Datenmenge ist allerdings mit einigen TB nicht ganz unerheblich.
Mit RAID1(0) statt 5 ist, bzw. war das überhaupt schon ein ordentlicher Kosten- & Machbarkeitsfaktor als 200GB Platten das Limit waren.

Grüße
Malte

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »DrM« (9. Juni 2006, 13:49)


26

Montag, 12. Juni 2006, 16:00

Die Neustarts sind lästig, das stimmt. Und wahrscheinlich auch der Hauptgrund für die miese Uptime-Statistik. Die Art des Servers macht auch einen großen Unterschied. Während Domänencontroller/Fileserver ähnlich wie bei Linux nahezu ewig laufen (wenn man sie nicht updatet :D ), muß man Anwendungsserver (Terminalserver) recht häufig neustarten. Liegt *imho* aber auch zum großen Teil an schlampig programmierter Software.
...lieber Luftraum als Raumluft...

27

Montag, 12. Juni 2006, 16:16

Daß schlampig programmierte Software einen Systemneustart erforderlich macht, liegt (nicht nur meines Erachtens) an einem schlampig programmierten Betriebssystem. Genau darin sehe ich das Problem.

Grüße
Malte
Die Windows-Server-Farm (File, DB, Intranet) eines unserer Kunden wurde nächtlich neu gestartet. Wir bekamen da vor einigen Jahren trotz strikter "Windows-Only"-Politik einen Linux-Server eingeschleust, nachdem der eigentlich vorgesehene Windows-Server ständig hakte. Inzwischen ist er dank der problemlosen Wartung längst nicht mehr der einzige ;)

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »DrM« (12. Juni 2006, 16:20)