Discussion:
Mac als AFP/SMB Fileserver
(zu alt für eine Antwort)
Thomas Wildgruber
2010-08-02 09:15:16 UTC
Permalink
Hi Group,

ich beiss mir grad mal wieder wegen der Updatekosten (Helios) die
Unterlippe wund. Daher die - wie ich finde - berechtigte Frage, wie ein
aktueller Mac (XServ oder MacPro) als Fileserver für ca. 25 Macs (Tiger;
Leopard; Snow Leopard) und 5 Windows PCs (XP und Win7) klar kommt?

An Daten sind ca. 2,5 TB zu handeln auf die natürlich nicht alle
zugegriffen wird. Einzelne Dateigrössen können aber schon mehrere Hundert
MB sein. An den Server sollte entweder das vorhandene U320 SCSI Storage (10
x 320GB SATA Raid 6) oder, wenn es ins Budget passt, ein schnelleres
Storage angeschlossen werden.

Der Server ist mit 1 GBit Interface im Backend verbunden, die Clients
greifen mit jeweils 100 MBit darauf zu.

Die Anforderungen sind demnach nicht exorbitant. Welche Probleme könnten
man erwarten? Auf was sollte man achten? Wer hat ein ähnliches Setup und
kann berichten?

Thx & Bye Tom
--
"Ich weiß nicht, was der französische Staatspräsident Mitterand denkt, aber
ich denke dasselbe." (Helmut Kohl)
Goetz Hoffart
2010-08-02 12:37:38 UTC
Permalink
Post by Thomas Wildgruber
Die Anforderungen sind demnach nicht exorbitant. Welche Probleme könnten
man erwarten? Auf was sollte man achten? Wer hat ein ähnliches Setup und
kann berichten?
Wenn sonst keine Besonderheiten (OPI-Workflows oder tolle
Druckjob-Behandlung) da sind, sondern wirklich nur Dateien ausgeliefert
werden, dann tut MOSX Server für das schon ganz gut. Der AFP-Daemon ist
schnell und auch recht stabil.

Das OpenDirectory zerlegt sich alle Schaltjahre mal von selbst, daher
entweder kein OD oder immer ein Backup von haben.

Ein Haken ist, dass man damit derzeit praktisch auf HFS+ als Dateisystem
festgenagelt ist. Da ist mir bei großen Volumes immer etwas unwohl. Ich
hatte zwar noch keinen Datenverlust, aber geklemmt hat es schon ein paar
mal kräftig, so dass man schon die Restore-Zeiten ausrechnete ...

Da wäre mir NTFS oder ZFS lieber.

Wie sicherst du den Rechner/das Volume?
Post by Thomas Wildgruber
vorhandene U320 SCSI Storage (10 x 320GB SATA Raid 6) oder, wenn es ins
Budget passt, ein schnelleres Storage angeschlossen werden.
Ist die Frage, was das Nadelöhr ist - wirklich das RAID oder nicht etwa
die 100 MBit zum Client oder das Single-GBit-Interface des Servers?
Wieviel wird da gleichzeitig geschrubbelt? Datenbankzugriffe oder nur
große Einzeldateien? Ansonsten wäre nämlich ggfs. eine Aufteilung in 2x
1 GBit Anbindung des Servers an einen Gigabit-Switch denkbar. Damit
bekommt zwar jeder Client auch nur maximal 1 GBit, aber die
Gesamtbandbreite zum Server sind eben 2 GBit (solange das RAID das
beliefern kann).

Grüße
Götz
--
http://www.knubbelmac.de/
Thomas Wildgruber
2010-08-02 14:14:53 UTC
Permalink
Post by Goetz Hoffart
Wenn sonst keine Besonderheiten (OPI-Workflows oder tolle
Druckjob-Behandlung) da sind, sondern wirklich nur Dateien ausgeliefert
werden, dann tut MOSX Server für das schon ganz gut. Der AFP-Daemon ist
schnell und auch recht stabil.
Negativ, kein OPI, kein Printserver. Nur Dateien hin- und herschieben.
Post by Goetz Hoffart
Das OpenDirectory zerlegt sich alle Schaltjahre mal von selbst, daher
entweder kein OD oder immer ein Backup von haben.
Auch keine Directory Services.
Post by Goetz Hoffart
Ein Haken ist, dass man damit derzeit praktisch auf HFS+ als Dateisystem
festgenagelt ist. Da ist mir bei großen Volumes immer etwas unwohl. Ich
hatte zwar noch keinen Datenverlust, aber geklemmt hat es schon ein paar
mal kräftig, so dass man schon die Restore-Zeiten ausrechnete ...
Das wär dann schon eher der Haken an der Sache. Wann ist denn heutzutage
ein Volume gross?
Post by Goetz Hoffart
Da wäre mir NTFS oder ZFS lieber.
Die Helios Kiste läuft derzeit auf ext3, Probleme gabs nie. Ich habe aber
auch ein 2TB grosses NTFS Volume und da zwickts derzeit auch hier und dort.
da wird bald ein Neuaufbau fällig sein.
Post by Goetz Hoffart
Wie sicherst du den Rechner/das Volume?
Über GBit Netzwerk auf einen Retrospect Server, welcher das gleiche Storage
hat, wie der Helios Server. Aber beide Maschinen (Helios Server und Backup
Server W2K3) kommen auch schon die Jahre. Über kurz oder lang (<12 Monate)
wird auch der Backupserver gegen aktuelle Hardware ausgetauscht (SAS2SATA
Storage etc). Vielleicht ist bis dahin auch schon 10GBit Netzwerk
bezahlbar, denn der Switch hat auch schon ein paar Kilometer drauf. Usw usf
aber irgendwo muss ich jetzt anfangen und es muss wieder die nächsten 5
Jahre überstehen ;-)
Post by Goetz Hoffart
Post by Thomas Wildgruber
vorhandene U320 SCSI Storage (10 x 320GB SATA Raid 6) oder, wenn es ins
Budget passt, ein schnelleres Storage angeschlossen werden.
Ist die Frage, was das Nadelöhr ist - wirklich das RAID oder nicht etwa
die 100 MBit zum Client oder das Single-GBit-Interface des Servers?
Den meisten Dampf brauche ich fürs Backup, um die 100MBit Anbindeung der
Clients komme ich nicht herum, zu alt ist die Gebäudeverkabelung. Die
Clients mit GBit ans Backend anzubinden hat Zeit bis zum Neubau (wenns den
wirklich so kommen sollte) Bis dahin sollte 10GBit im Backend auch schon
Einzug gefunden haben. Dann macht das richtig Sinn.
Post by Goetz Hoffart
Wieviel wird da gleichzeitig geschrubbelt? Datenbankzugriffe oder nur
große Einzeldateien?
Nur grosse Einzeldateien (~500-800MB) <- im worst case - ansonsten Dateien
<100MB. Keine Datenbanken etc...
Post by Goetz Hoffart
Ansonsten wäre nämlich ggfs. eine Aufteilung in 2x
1 GBit Anbindung des Servers an einen Gigabit-Switch denkbar. Damit
bekommt zwar jeder Client auch nur maximal 1 GBit, aber die
Gesamtbandbreite zum Server sind eben 2 GBit (solange das RAID das
beliefern kann).
Wie gesagt die Clientanbindung ist nicht so sehr das Problem, das Backup
macht mir Sorgen. Ich habe am Sonntag das Fullbackup am laufen und brauche
mittlerweile 28 Std., langsam kommt es an die Schmerzgrenze. Ich hatte auch
mit Porttrunking geliebäugelt aber alles was wir haben, würde pro
Kanal/Verbindung nur 1GBit zur Verfügung stellen. Wie du oben schon
geschildert hast, zwei Stationen hätten einen Vorteil, nur eine dagegen
nicht. AFAIK Nortel und Solaris bündelt die Ports zu einer MAC Adresse und
kann wirklich Load Balancing aber ich habe weder das Eine, noch das Andere.

Irgendwann fliegt vielleicht auch mal das Retrospect raus und nehmen
vielleicht Archiware dafür aber da ist die Not noch nicht so gross und ich
möchte auch erst wissen, ob sie dann wirklich schneller sind.

Thx & Bye Tom
--
"One good Whiskey a day, keeps the doctor away"
Hannes Gnad
2010-08-02 16:33:19 UTC
Permalink
Thomas Wildgruber <***@web.de> wrote:

Hallo.
Post by Thomas Wildgruber
Post by Goetz Hoffart
Das OpenDirectory zerlegt sich alle Schaltjahre mal von selbst, daher
entweder kein OD oder immer ein Backup von haben.
Auch keine Directory Services.
Wenn man Mac OS X Server benutzt, möchte man auch einen OD-
Master fahren.
Post by Thomas Wildgruber
Post by Goetz Hoffart
Ein Haken ist, dass man damit derzeit praktisch auf HFS+ als Dateisystem
festgenagelt ist. Da ist mir bei großen Volumes immer etwas unwohl. Ich
hatte zwar noch keinen Datenverlust, aber geklemmt hat es schon ein paar
mal kräftig, so dass man schon die Restore-Zeiten ausrechnete ...
Das wär dann schon eher der Haken an der Sache. Wann ist denn heutzutage
ein Volume gross?
http://support.apple.com/kb/ht2422

Mit HFS+ und 10.5/10.6 kann man sehr weit gehen...
--
Beste Gruesse, Hannes Gnad ***@apfelwerk.de
Apple Distinguished Professional http://www.apfelwerk.de
Apple Certified Technical Coordinator 10.6 http://training.apple.com
Der Apfelwerk-Blog, live aus dem Alltag --- http://www.apfelwerk.de/blog
Thomas - Pronto - Wildgruber
2010-08-02 18:49:56 UTC
Permalink
Post by Hannes Gnad
Post by Thomas Wildgruber
Post by Goetz Hoffart
Das OpenDirectory zerlegt sich alle Schaltjahre mal von selbst, daher
entweder kein OD oder immer ein Backup von haben.
Auch keine Directory Services.
Wenn man Mac OS X Server benutzt, möchte man auch einen OD-
Master fahren.
Naja, ich möchte das definitiv nicht aber wär OSX Server ohne
Directory Services ein eklatanter Nachteil? Ein Mac Pro kostet
fast das gleiche aber er braucht halt endlos viel Platz im Rack.
Da käme dann noch das Storage dazu, dann bin ich bei 6 - 8 HE. Das
ist schon mal eine Hausnummer.
Post by Hannes Gnad
Post by Thomas Wildgruber
Post by Goetz Hoffart
Ein Haken ist, dass man damit derzeit praktisch auf HFS+ als Dateisystem
festgenagelt ist. Da ist mir bei großen Volumes immer etwas unwohl. Ich
hatte zwar noch keinen Datenverlust, aber geklemmt hat es schon ein paar
mal kräftig, so dass man schon die Restore-Zeiten ausrechnete ...
Das wär dann schon eher der Haken an der Sache. Wann ist denn heutzutage
ein Volume gross?
http://support.apple.com/kb/ht2422
Mit HFS+ und 10.5/10.6 kann man sehr weit gehen...
Ich denke nicht, dass Goetz die theoretische Grösse gemeint hat.
Ich habe ihn vielmehr so verstanden, dass er schon mit deutlich
kleineren (< 8 EB) Volumes Probleme hatte. Ich könnte mir zB
schon vorstellen, die derzeitigen 2,5TB in zB 3 Volumes a 1TB zu
splitten aber darunter könnte ich langfristig nicht wirklich
sinnvoll arbeiten.

Bye Tom
Hannes Gnad
2010-08-03 11:42:20 UTC
Permalink
Thomas - Pronto - Wildgruber <***@web.de> wrote:

Hallo.
Post by Thomas - Pronto - Wildgruber
Post by Hannes Gnad
Wenn man Mac OS X Server benutzt, möchte man auch einen OD-
Master fahren.
Naja, ich möchte das definitiv nicht
Warum nicht? Das ist doch kein Problem.
Post by Thomas - Pronto - Wildgruber
aber wär OSX Server ohne
Directory Services ein eklatanter Nachteil?
Eine Reihe von Diensten hat dann halt keine Benutzer-
authentifizierung, z.B. der iCal-Server, war zumindest
unter 10.5 Server so. Ich muß mich aber noch mal schlau
machen, wie genau das nun unter 10.6 ist.
Post by Thomas - Pronto - Wildgruber
Ein Mac Pro kostet
fast das gleiche aber er braucht halt endlos viel Platz im Rack.
Da käme dann noch das Storage dazu, dann bin ich bei 6 - 8 HE. Das
ist schon mal eine Hausnummer.
Was hat das dem OD Master zu tun?
Post by Thomas - Pronto - Wildgruber
Post by Hannes Gnad
http://support.apple.com/kb/ht2422
Mit HFS+ und 10.5/10.6 kann man sehr weit gehen...
Ich denke nicht, dass Goetz die theoretische Grösse gemeint hat.
Ich habe ihn vielmehr so verstanden, dass er schon mit deutlich
kleineren (< 8 EB) Volumes Probleme hatte. Ich könnte mir zB
schon vorstellen, die derzeitigen 2,5TB in zB 3 Volumes a 1TB zu
splitten aber darunter könnte ich langfristig nicht wirklich
sinnvoll arbeiten.
Wir haben bei Kunden FC-RAIDs mit 9 oder 12 TB als ein HFS+
Volume laufen, dazu noch etliche Drobos mit 16 TB-Konfiguration,
problemlos.
--
Beste Gruesse, Hannes Gnad ***@apfelwerk.de
Apple Distinguished Professional http://www.apfelwerk.de
Apple Certified Technical Coordinator 10.6 http://training.apple.com
Der Apfelwerk-Blog, live aus dem Alltag --- http://www.apfelwerk.de/blog
Thomas Kaiser
2010-08-03 11:54:48 UTC
Permalink
Wir haben bei Kunden FC-RAIDs mit 9 oder 12 TB als ein HFS+ Volume
laufen, dazu noch etliche Drobos mit 16 TB-Konfiguration, problemlos.
Wie oft habt Ihr denn da schon fsck_hfs(8) bzw. hfsdebug [1] mal dran
schnuppern lassen? Bzw. wie regelmäßig macht Ihr das so?

Gruss,

Thomas

[1] <http://www.osxbook.com/software/hfsdebug/>
Thomas Kaiser
2010-08-04 15:57:06 UTC
Permalink
Post by Thomas Kaiser
Wir haben bei Kunden FC-RAIDs mit 9 oder 12 TB als ein HFS+ Volume
laufen, dazu noch etliche Drobos mit 16 TB-Konfiguration, problemlos.
Wie oft habt Ihr denn da schon fsck_hfs(8) bzw. hfsdebug [1] mal dran
schnuppern lassen? Bzw. wie regelmäßig macht Ihr das so?
Hmmm... ist das jetzt die "keine Antwort ist auch 'ne Antwort"-
Situation? ;-)

Gruss,

Thomas
Hannes Gnad
2010-08-06 13:14:15 UTC
Permalink
Thomas Kaiser <***@phg-online.de> wrote:

Hallo.
Post by Thomas Kaiser
Post by Thomas Kaiser
Wir haben bei Kunden FC-RAIDs mit 9 oder 12 TB als ein HFS+ Volume
laufen, dazu noch etliche Drobos mit 16 TB-Konfiguration, problemlos.
Wie oft habt Ihr denn da schon fsck_hfs(8) bzw. hfsdebug [1] mal dran
schnuppern lassen? Bzw. wie regelmäßig macht Ihr das so?
Hmmm... ist das jetzt die "keine Antwort ist auch 'ne Antwort"-
Situation? ;-)
Eher eine "Ich habe sehr viel zu tun, und hänge gar nicht mehr so
oft wie früher in Mailinglisten, Foren und Newsgruppen."-Situation.

=:*)

Also, unter Normalbetrieb werden die gar nicht überprüft. Im Rahmen
größerer Updates fahren wir entsprechende Überprüfungen, aber wir konn-
ten bisher nicht feststellen, daß solche Volumens im laufenden Betrieb
auseinanderfallen o.ä. Was sollte sich bemerken lassen?
--
Beste Gruesse, Hannes Gnad ***@apfelwerk.de
Apple Distinguished Professional http://www.apfelwerk.de
Apple Certified Technical Coordinator 10.6 http://training.apple.com
Der Apfelwerk-Blog, live aus dem Alltag --- http://www.apfelwerk.de/blog
Thomas Kaiser
2010-08-09 17:29:58 UTC
Permalink
Post by Thomas Kaiser
Post by Thomas Kaiser
Wir haben bei Kunden FC-RAIDs mit 9 oder 12 TB als ein HFS+ Volume
laufen, dazu noch etliche Drobos mit 16 TB-Konfiguration,
problemlos.
Wie oft habt Ihr denn da schon fsck_hfs(8) bzw. hfsdebug [1] mal
dran schnuppern lassen? Bzw. wie regelmäßig macht Ihr das so?
Hmmm... ist das jetzt die "keine Antwort ist auch 'ne Antwort"-
Situation? ;-)
Eher eine "Ich habe sehr viel zu tun, und hänge gar nicht mehr so oft
wie früher in Mailinglisten, Foren und Newsgruppen."-Situation.
Sieht so aus, als ob wir alle nicht nur älter sondern auch eine Spur
klüger würden :-)
Also, unter Normalbetrieb werden die gar nicht überprüft. Im Rahmen
größerer Updates fahren wir entsprechende Überprüfungen, aber wir
konn- ten bisher nicht feststellen, daß solche Volumens im laufenden
Betrieb auseinanderfallen o.ä. Was sollte sich bemerken lassen?
Wie oft da was passiert, weiß ich nicht, drum ja überprüfen. Mir
reicht's schon, was immer schon alles auf meiner mickrigen
Notebook-Platte im Eimer ist, wenn man mal fsck_hfs mit -fd aufruft (was
ja nach einem Crash eben nicht geschieht, außer man tut sich das manuell
im Single User Modus an)

Erfahrungen mit richtig großen HFS+-Volumes habe ich (bisher) nicht. Bis
auf das eine mal, als ich das bei 'nem Kunden (Sync-Ziel) angeregt habe,
die Volumes zu überprüfen. Per "Disk Utility" keine Probleme gemeldet
worden (das macht ja nur 'nen "fsck_hfs -fn"). Dann Unmount des Volumes
und mal "auf blöd" mit "fsck_hfs -fdy" aufs Raw Device. Da sprudelten
dann ganz viele Fehler her und am Ende stand ein "Das Volume kann nicht
repariert werden". War nicht so schlimm, weil das eh nur ein TByte
großes Datengrab als Sync-Ziel von 'nem richtigen Server war.

Aber mir reicht sowas eigentlich, um da 'nen großen Bogen drum zu
machen.

Gruss,

Thomas
Marcus Jodorf
2010-08-09 23:20:27 UTC
Permalink
Wie oft da was passiert, weiß ich nicht, drum ja überprüfen. Mir reicht's
schon, was immer schon alles auf meiner mickrigen Notebook-Platte im
Eimer ist, wenn man mal fsck_hfs mit -fd aufruft (was ja nach einem Crash
eben nicht geschieht, außer man tut sich das manuell im Single User Modus
an)
Da bist Du nicht der Einzige, der da solche Erfahrungen gemacht hat.
Ich hatte z.B. mal ein PB, das öfter aufgrund von Treibertests mit
Kernelpanik abgeschmiert ist und wie schnell da das Filesystem
ramponiert war, das war der blanke Horror.
Ich hab dann deswegen auch noch etwas speziell etwas damit rumgespielt
und diverse Abflugszenarien durchgespielt und das Filesystem hat im
Grunde immer was abgekriegt und das Journaling war ein reines Placebo.

HFS+ ist seitdem bei mir komplett unten durch. Das taugt rein gar nichts
(abgesehen davon, daß es ohnehin lahm ist) und das Journaling ist einfach
nur ein schlechter Witz, weil es schlicht so gut wie überhaupt nicht
funktioniert.

Journaling nützt nun mal nichts, wenn ein FS nach einem Replay
wenigstens seine Metadaten dann immer noch nicht konsistent hat. Und
HFS+ versagt da mit allerschönster Regelmäßigkeit.
Aber Hauptsache „alles ok“ erst mal nach oben melden und sich dann
spätestens bei einem forced fsck doch noch gekonnt zerlegen, damit man
dazwischen noch ein paar Daten mehr in den Schredder werfen kann, falls
man so blauäugig war, der Journaling-Funktion zu vertrauen.

Seitdem mache ich nach jedem Abflug und Journal Replay grundsätzlich
immer einen manuellen fsck auf allen Rechnern. Immer und grundsätzlich.
Und es werden dabei praktisch auch immer noch Fehler gefunden.
Erfahrungen mit richtig großen HFS+-Volumes habe ich (bisher) nicht.
Mir reicht das, was ich bisher mit Volumes zwischen 80 GB und 2TB erlebt
habe. HFS+ ist Sondermüll.
Aber mir reicht sowas eigentlich, um da 'nen großen Bogen drum zu
machen.
Ich nehme es nur dort, wo man absolut nicht drumherum kommt und das auch
nur mit Bauchschmerzen.

Einen Mac als Fileserver würde ich alleine schon wegen HFS+ als
KO-Kriterium nicht einsetzten. Das wäre reine Idiotie.

Linuxschüsseln mit dagegen funktionierenden Filesystemen
sind da beispielsweise im Vergleich endlos robuster und machen den
tatsächlichen Platteninhalt nicht zum Ratespiel.


Gruß,

Marcus

Thomas Kaiser
2010-08-03 07:40:44 UTC
Permalink
Welche Probleme könnten man erwarten? Auf was sollte man achten? Wer
hat ein ähnliches Setup und kann berichten?
Neben dem schon angesprochenen Problem, daß Du Dich damit auf HFS+
festlegen musst (was man wirklich nicht will, grad wenn die Dateisysteme
mal größer werden), stört mich halt auch noch ganz massiv die enge
Verzahnung/Verdongelung zwischen Hard- und Software.

Bedingt dadurch, daß es sich Apple leisten kann, die eigene Hardware nur
bedingt mit Treibern in ihrem eigenen Betriebsystem zu unterstützen,
kommt man immer wieder in die Situation, daß man ausgefallene Macs
ersetzen will, nur frischere Hardware hat und demzufolge dann auch nicht
mehr MacOS X (Server) 10.x.8 sondern nur noch 10.x+1.2 einsetzen kann
(weil der Hardware-Hersteller keine Treiber für die vor paar Wochen
noch aktuelleste Betriebsystemrelease des selben Herstellers liefert)

Dummerweise ist der AppleFileServer in 10.x+1.2 mit einem häßlichen Bug
behaftet, der in 10.x+1.3 gefixt wird. In 10.x+1.3 schleppt Apple aber
dann einen blöden Bug in Samba ein, der die Windows-PCs trifft. Sprich:
Du brauchst alte Hardware (in Reserve) um eine bekanntermaßen stabile
Konfiguration (OS + Dienste) einsetzen zu können. Eigentlich ein Unding.

Tja, und dann kommt halt noch zu allem Überfluß dazu, daß Du Dir den
Server bei einer Firma bestellst, die dazu keinerlei adäquaten Service
und Support liefern kann. Was ich in den paar Fällen, in denen es mal um
mehr als Lalilü ging, mit Apple D erleben durfte, spottet jeder
Beschreibung. Die hatten am Ende (als ich das Problem auf dem kleinen
Dienstweg längst mit den AFP-Leuten in Cupertino eingregrenzt bzw.
gelöst hatte) noch nicht mal kapiert, was das konkrete Problem im Netz
eigentlich war. Bzw. bringen es diese Schlußsätze hier nach wie vor
recht gut auf den Punkt:

<news:h1Tbh.198$***@se2-cb104-9.zrh1.ch.colt.net> bzw.
<http://groups.google.com/group/de.comp.sys.mac.misc/msg/a717b0a5ca571958>

Im Support-Bereich (wie auch Produktqualität) spielt Helios da in einer
komplett anderen Liga (wenn's denn überhaupt noch die selbe Sportart
ist). Aber Du hast schon recht: Für 'nen reinen Cross-Platform-Filer
ein etwas teures Unterfangen. Zumal man eines der Hauptargumente für
Helios (rock solid) erst dann bemerkt, wenn's einem dann mal fehlt,
sprich man umgestiegen ist.

Finalmente noch: Bei einem Kunden werden wir jetzt trotz der Bedenken
gegenüber Apple-Hardware eine Sparc-Sun durch zwei xServes ersetzen
(durch den Anwendungs-Mix -- Helios, PresStore und Cumulus -- gibt's
keine so großen Alternativen: Solaris/Sparc, Linux/x86 oder MacOS X).
Aber natürlich mit Helios drauf, weil die dort massig Automatisierung
betreiben.

Gruss,

Thomas
Thomas Wildgruber
2010-08-05 06:56:01 UTC
Permalink
Post by Thomas Kaiser
Welche Probleme könnten man erwarten? Auf was sollte man achten? Wer
hat ein ähnliches Setup und kann berichten?
[...]
Im Support-Bereich (wie auch Produktqualität) spielt Helios da in einer
komplett anderen Liga (wenn's denn überhaupt noch die selbe Sportart
ist). Aber Du hast schon recht: Für 'nen reinen Cross-Platform-Filer
ein etwas teures Unterfangen. Zumal man eines der Hauptargumente für
Helios (rock solid) erst dann bemerkt, wenn's einem dann mal fehlt,
sprich man umgestiegen ist.[...]
Ich habe der GL die Bedenken und Risiken dieses Plattformwechsels
mitgeteilt und man wäre bereit ein Risiko einzugehen. Allerdings will ich
auch nicht fahrlässig handeln, zumal den Ärger erstmal ich habe. Bei Helios
ist es wie mit Heidelberg, da geht ein Raunen durch die Menge, wenn man die
Preise hört.

Es kam noch eine dritte (Zwischen-) Variante ins Spiel. ExtremeZ-IP! Soll
wohl auch recht stabil laufen. Bei der Hardware kann auf alt bewährtes
zurückgegriffen werden, lediglich die Server Version bereitet mir
Kopfzerbrechen. Ich kenne mich mit W2K3 recht gut aus, ist aber auch ein
Auslaufmodell, W2K8R2 hält erst zögerlich Einzug und Erfahrung habe ich
damit noch so gut wie gar keine. Hast du schon Erfahrungen mit ExtremeZ-IP
machen dürfen?

Thx & Bye Tom
--
"Wer nie sein Brot mit Tränen aß,
wer nie die kummervollen Nächte auf einer Parkbank saß,
der kennt sie nicht, der Armen Rechte" (Johann König)
Thomas Kaiser
2010-08-06 12:12:29 UTC
Permalink
Post by Thomas Wildgruber
Es kam noch eine dritte (Zwischen-) Variante ins Spiel. ExtremeZ-IP! Soll
wohl auch recht stabil laufen. Bei der Hardware kann auf alt bewährtes
zurückgegriffen werden, lediglich die Server Version bereitet mir
Kopfzerbrechen. Ich kenne mich mit W2K3 recht gut aus, ist aber auch ein
Auslaufmodell, W2K8R2 hält erst zögerlich Einzug und Erfahrung habe ich
damit noch so gut wie gar keine. Hast du schon Erfahrungen mit ExtremeZ-IP
machen dürfen?
Ja, meine erste Wahl auf Windows. Wenn man sich -- wie Du -- mit Windows
ausreichend auskennt, für einen reinen Dateiserver keine schlechte Wahl.
Bzgl. Lizenzkosten haste aber drangedacht, daß Du zweimal blechen
darfst? Je User einmal an GroupLogic und einmal an Microsoft?

Gruss,

Thomas
Loading...