Discussion:
WD-NAS langsame Kopiergeschwindigkeit
(zu alt für eine Antwort)
Wolfgang Kefurt
2014-11-21 14:35:33 UTC
Permalink
Hallo,
ich habe hier eine WD MyBook Live Duo mit 2Tb in Raid 1 am Netzwerk und
obwohl ich schon drauf gekommen bin, dass diese keine
Geschwindigkeitsrekorde bricht, kommt sie mir zeitweise echt LAHM vor.

Mal braucht die Finder-Darstellung gefühlte 10 Sekunden bis der Inhalt
dargestellt oder das Fenster überhaupt geöffnet wird, mal kopiert ein
Ordner von 60Mb mit kleinen Textdateien 3-4Minuten lang während ein
dmg-Image mit 1 Gb in einigen Sekunden kopiert ist. Das Ganze unter Mac
OS 10.9.5 mit Gigabit-LAN und auch mit WLAN 5Ghz über Fritzbox 7490. In
den WD-Foren habe ich nun auch schon ähnliches gelesen.

Liegt das nun an der WD-NAS selbst, oder können andere Gründe Schuld
sein? Habe ich falsche Vorstellungen bezüglich NAS? Ich will diese als
zentralen Datenspeicher für iMac/PC und MacBook benutzen und
gegebenenfalls von der NAS lesen und dort hinspeichern, nicht nur als
Archivspeicher der sporadisch zum wegsichern benutzt wird!

Wäre eine Synology DS214 schneller?

Verbunden wird mit afp. Mit cifs und smb geht es auch nicht schneller.
Irgendwer hilfreiche Tipps für mich?
--
Grüße
Wolfgang
Thomas Kaiser
2014-11-21 15:15:55 UTC
Permalink
Post by Wolfgang Kefurt
ich habe hier eine WD MyBook Live Duo mit 2Tb in Raid 1
Was soll das bringen? Also RAID-1?
Post by Wolfgang Kefurt
Mal braucht die Finder-Darstellung gefühlte 10 Sekunden bis der Inhalt
dargestellt oder das Fenster überhaupt geöffnet wird, mal kopiert ein
Ordner von 60Mb mit kleinen Textdateien 3-4Minuten lang während ein
dmg-Image mit 1 Gb in einigen Sekunden kopiert ist.
Also vermutlich nicht "Netzwerk lahm" sondern "NAS lahm, speziell bei
Zugriff auf viele Objekte"
Post by Wolfgang Kefurt
Habe ich falsche Vorstellungen bezüglich NAS? Ich will diese als
zentralen Datenspeicher für iMac/PC und MacBook benutzen
Wird nicht in jeder Lebenslage problemlos funktionieren, grad wenn
Windows und Mac gemeinsam auf die Daten zugreifen (hatten wir öfter
hier, grad zu faul, das zu wiederholen). Abhilfe: Share neu aufsetzen
und nur per SMB zugreifen (damit kann vermieden werden, dass Netatalk,
das die wohl für den AFP-Part nehmen, durcheinander kommt) aber das hat
auch wieder so seine eigenen Probleme.
Post by Wolfgang Kefurt
und gegebenenfalls von der NAS lesen und dort hinspeichern, nicht nur
als Archivspeicher der sporadisch zum wegsichern benutzt wird!
Also liegen auf diesem RAID-1 Produktivdaten und von denen gibt es kein
Backup?

Gruss,

Thomas
Wolfgang Kefurt
2014-11-21 15:38:07 UTC
Permalink
Post by Thomas Kaiser
Post by Wolfgang Kefurt
ich habe hier eine WD MyBook Live Duo mit 2Tb in Raid 1
Was soll das bringen? Also RAID-1?
Ja genau, von mir falsch formuliert. 2x2Tb als Raid-1 konfiguriert also
2 Tb Kapazität!
Post by Thomas Kaiser
Also vermutlich nicht "Netzwerk lahm" sondern "NAS lahm, speziell bei
Zugriff auf viele Objekte"
Auch meine Vermutung, nur fehlt mir der Vergleich.
Eben nochmal probiert. Volume neu gemountet, klick auf einen Ordner und
die bunte Semmel dreht sich 5-8 Sekunden bis der Inhalt erscheint
(Listenansicht).
Post by Thomas Kaiser
Post by Wolfgang Kefurt
Habe ich falsche Vorstellungen bezüglich NAS? Ich will diese als
zentralen Datenspeicher für iMac/PC und MacBook benutzen
Wird nicht in jeder Lebenslage problemlos funktionieren, grad wenn
Windows und Mac gemeinsam auf die Daten zugreifen (hatten wir öfter
hier, grad zu faul, das zu wiederholen). Abhilfe: Share neu aufsetzen
und nur per SMB zugreifen (damit kann vermieden werden, dass Netatalk,
das die wohl für den AFP-Part nehmen, durcheinander kommt) aber das hat
auch wieder so seine eigenen Probleme.
Hmm, dazu fehlt mir das Netzwerk-Wissen worauf ich genau zu achten
hätte. Macht es einen Unterschied ob ich mal mit afp oder mit smb
zugreife? Es soll halt alles hin was normal auf ein oder mehreren
externen HDs herumliegt und nicht unbedingt AM jeweiligen Rechner Platz
verbrauchen soll, Bilder, Tutorial-PDFs, Videos etc..
Post by Thomas Kaiser
Post by Wolfgang Kefurt
und gegebenenfalls von der NAS lesen und dort hinspeichern, nicht nur
als Archivspeicher der sporadisch zum wegsichern benutzt wird!
Also liegen auf diesem RAID-1 Produktivdaten und von denen gibt es kein
Backup?
Wie beschrieben, liegt bis jetzt am jeweiligen Rechner und wird per Klon
gelegentlich (vor Updates oder nach Wochen) auf ext. HD gesichert.
Unwiederbringliche Bilder liegen mittlerweile schon auf mehreren HDs
abgelegt. Sind aber alles Privatdaten.
--
Grüße
Wolfgang
Andre Igler
2014-11-21 15:59:33 UTC
Permalink
Macht es einen Unterschied ob ich mal mit afp oder mit smb zugreife?
Ja. Du zerschießt Dir zielgerichtet die Metadaten.

[x] Du willst ab Seite 21
<https://www.apple.com/media/us/osx/2013/docs/OSX_Mavericks_Core_Technology_Overview.pdf>
studieren ...

und dort triffst Du auch Thomas wieder ...

<http://www.mactechnews.de/forum/discussion/Mac-Server-317078.html?page=last>
https://www.mactechnews.de/forum/discussion/AFP-End-Of-Live-317370.html>
addio
--
pm <mein vorname> bei <mein nachname> punkt at
www.albinschwarz.com http://weblog.igler.at
Wolfgang Kefurt
2014-11-21 16:06:55 UTC
Permalink
Post by Andre Igler
Macht es einen Unterschied ob ich mal mit afp oder mit smb zugreife?
Ja. Du zerschießt Dir zielgerichtet die Metadaten.
[x] Du willst ab Seite 21
<https://www.apple.com/media/us/osx/2013/docs/OSX_Mavericks_Core_Technology_Overview.pdf>
studieren ...
und dort triffst Du auch Thomas wieder ...
<http://www.mactechnews.de/forum/discussion/Mac-Server-317078.html?page=last>
https://www.mactechnews.de/forum/discussion/AFP-End-Of-Live-317370.html>
addio
Danke, eine Menge Lesestoff.
--
Grüße
Wolfgang
Thomas Kaiser
2014-11-21 16:51:55 UTC
Permalink
Post by Wolfgang Kefurt
Post by Thomas Kaiser
Post by Wolfgang Kefurt
ich habe hier eine WD MyBook Live Duo mit 2Tb in Raid 1
Was soll das bringen? Also RAID-1?
Ja genau, von mir falsch formuliert. 2x2Tb als Raid-1 konfiguriert also
2 Tb Kapazität!
Und damit 2 TB für "Verfügbarkeit" verschwendet. Das ist der einzige
Sinn und Zweck von RAID-1: Die Verfügbarkeit erhöhen im Falle, dass sich
netterweise eine der beiden Platten *sofort* umbringt und nicht etwa
dahinsiechend ablebt. RAID-1 hat im Gegensatz zu höheren RAID-Leveln
dazu auch noch das Problem, dass wenn Du Dir Inkonsistenzen zwischen
Platte A und B einhandelst (bspw. weil B einen UR -- unrecoverable error
-- hat) der Controller anschließend nicht den Hauch einer Ahnung hat,
was nun korrekt und was nicht ist. Deshalb scheren sich die meisten
RAID-1-Implementierungen auch gar nicht darum sondern lesen einfach
immer nur von der einen Platte (egal, ob da nun intakte Daten drauf sind
oder nicht) und ignorieren die andere lesend solange bis die eine aus
ihrer Sicht mausetot ist. Dann liest sie von der anderen, weil die dann
zum "Master" wird. Und dass beide Platten unterschiedliche Daten
enthielten, merkt ja eh niemand mehr :-)

RAID-1 ist also das Maximum an Platzverschwendung bei einem Minimum an
Redundanz. Nur stumpfes Erhöhen der Redundanz bringt leider auch nicht
die vom Laien erhoffte bzw. vom Produktmarketing versprochene Erhöhung
der Verfügbarkeit (denn RAID bedeutet auch immer mehr Komplexität und
neue sog. SPoF -- single points of failure -- bspw. den Controller des
Dings). Und das Allerschönste: RAID bringt überhaupt nix bzgl. Daten-
sicherheit. Oder ganz simpel: RAID im Heim-/SOHO-Bereich ist immer noch
die selbe Scheißidee, die sie schon immer wahr.

Wenn 2 Platten, dann die eine für Produktivdaten und die andere (mit ca.
50% mehr Kapazität) fürs Backup *inkl. Versionierung* (damit das, was an
der Quelle gelöscht oder kaputtgemacht wurde, noch verfügbar ist und
zurückgeholt werden kann). Und wenn die zweite Platte physisch bisserl
getrennt ist (anderer Raum oder besser "Brandabschnitt"), dann umso
besser.

Falls ich mir je ein Fertig-NAS kaufen würde (was nie passieren wird)
würde ich auf genau den Aspekt achten: Eine ordentlich funktionierende
Sync- bzw. Backup-Lösung inkl. Versionierung, die zwischen dem Produktiv-
NAS (mit bspw. 2 TByte) und dem Backup-NAS (dann mit 3 TByte) agiert und
derlei Malheurs abfangen kann. RAID-1 ist an der Stelle nix weiter als
Augenwischerei und kann je nach Implementierung sogar für richtig Ärger
sorgen, wenn man nach verstorbenem Netzteil/Gehäuse/Controller erst
merkt, dass man an die Daten auf den Platten nicht mehr so ohne weiteres
bzw. ohne einiges an Expertise herankommt.

Und ja, ich halte die ganzen typischen 2-Bay-NAS-Dinger als Zugeständnis
an den sprichwörtlichen DAU, der aus der Aussage "alles doppelt" leider
"mehr Datensicherheit" heraushört. Derweil hat das eine mit dem anderen
nix zu tun und es ist noch nicht mal bzgl. Erhöhung der Verfügbarkeit
bei dem Billig-Schrott irgendwas gewonnen. Die Werbung suggeriert aber
was anderes und der Käufer fällt brav drauf herein.
Post by Wolfgang Kefurt
Post by Thomas Kaiser
Also vermutlich nicht "Netzwerk lahm" sondern "NAS lahm, speziell bei
Zugriff auf viele Objekte"
Auch meine Vermutung, nur fehlt mir der Vergleich.
Und da das WD-Dings "black box" ist, auch keine Chance, irgendwas zu
analysieren (normal hat man das schnell mit den richtigen Werkzeugen
eingegrenzt, indem man Disks und Netzwerk erst getrennt und dann
zusammen mit verschiedenen Zugriffsmustern vermißt, also "vermißt" im
Sinne von "vermessen tut" ;-)
Post by Wolfgang Kefurt
Eben nochmal probiert. Volume neu gemountet, klick auf einen Ordner
und die bunte Semmel dreht sich 5-8 Sekunden bis der Inhalt erscheint
(Listenansicht).
Dafür gibt's verschiedene Gründe und das auch noch je Protokoll
unterschiedlich. Aber heute nix mehr, ich hör den Feierabendaugust
bereits schreien...
Post by Wolfgang Kefurt
Macht es einen Unterschied ob ich mal mit afp oder mit smb zugreife?
Ja. Und bei aktuellen Billig-NAS macht es vor allem regelmäßig Probleme,
wenn man abwechselnd zugreift (Stichwort: CNID-Konsistenz). Aber ohne
die konkrete Implementierung zu untersuchen, kann man eigentlich nix 'zu
sagen. Und auf WD als NAS wäre ich bislang auch nicht gekommen :-)
Post by Wolfgang Kefurt
Es soll halt alles hin was normal auf ein oder mehreren externen HDs
herumliegt und nicht unbedingt AM jeweiligen Rechner Platz verbrauchen
soll, Bilder, Tutorial-PDFs, Videos etc..
Dafür ist ein NAS prinzipiell auch da. Es sollte nur eine _sinnvolle_
Backup-Lösung auch noch existieren.

Gruss,

Thomas
Wolfgang Kefurt
2014-11-21 23:24:58 UTC
Permalink
wie immer viel Aufschlussreiches und Interessantes...
...was ich hiermit dankbar zur Kenntnis nehme!
Und auf WD als NAS wäre ich bislang auch nicht gekommen :-)
Ach... ;-)

Nun, als Privatnutzer richtet man sich halt zwangsläufig etwas mehr nach
Kundenmeinungen und natürlich dem Preis. Wenn man einen Zentraleinkauf
im Background hat, oder das Zeug verkauft tickt man wahrscheinlich anders.
Post by Wolfgang Kefurt
Es soll halt alles hin was normal auf ein oder mehreren externen HDs
herumliegt und nicht unbedingt AM jeweiligen Rechner Platz verbrauchen
soll, Bilder, Tutorial-PDFs, Videos etc..
Dafür ist ein NAS prinzipiell auch da. Es sollte nur eine _sinnvolle_
Backup-Lösung auch noch existieren.
Dann bräuchte ich nur mal eben eine NAS-Lösung die auch ohne Gähnfaktor
funktioniert!? Wenn ja, welche?
--
Grüße
Wolfgang
Goetz Hoffart
2014-11-22 13:31:07 UTC
Permalink
Post by Wolfgang Kefurt
Dann bräuchte ich nur mal eben eine NAS-Lösung die auch ohne Gähnfaktor
funktioniert!? Wenn ja, welche?
Mac mini. Und dann zwei-drei Platten als Timemachine in Rotation.

Grüße
Götz
--
http://www.knubbelmac.de/
Thomas Kaiser
2014-11-22 20:53:53 UTC
Permalink
Post by Goetz Hoffart
Post by Wolfgang Kefurt
Dann bräuchte ich nur mal eben eine NAS-Lösung die auch ohne
Gähnfaktor funktioniert!? Wenn ja, welche?
Mac mini.
In der Tat die aktuell einzig richtige Antwort :-\

Also zumindest, wenn null Expertise im "worst case" gefragt ist.

Irgendwann nächstes Jahr ist vielleicht eine DIY-Alternative verfügbar.
Idee: Man nehme das Folgende:

- 2 billige Single-Board-Computer für 35,- http://www.innet24.de/Banana-PI::111802.html

- 2 billige Dual-Voltage-Netzteile für 12,- http://club.dx.com/reviews/172352/545374 bzw.
http://www.aliexpress.com/item/12V-2-5A-5V-2A-Power-Supply-Transformer-for-LED-Surveillance-Camera-and-more-AC-110/1262485686.html

- 2 x 3,5"-Festplatten nach Wahl (die zweite von der Kapazität her 125%
oder 150% der ersten)

- eine passende Linux-Distro ([1], [2]), die um Netatalk 3.1.x für
TimeMachine und Samba 4.3 für SMB-Filesharing angehübscht wird und
einen Backup-Daemon, der mittels rsync + hardlinks + config sync auf
dem Backup-NAS 1-n Versionsstände des produktiven Datenbestands
vorhält und zugreifbar macht.

- ein identisch funktionales Linux-Image für VirtualBox, das für den
"worst case" gedacht ist (irgendwas am Billig-NAS ist gestorben, also
HDD an SATA-zu-USB-Konverter in virtuelle Maschine durchreichen, die
dann alles 1:1 wieder bereitstellt)

- bisserl MDF + Spanplatte aus dem Baumarkt für ein Gehäuse, das die
3.5"-HDDs lautlos verpackt und den ganzen Quatsch passiv kühlt

(Nebeneffekt: Jede Instanz dieses DIY-NAS kann natürlich noch allerhand
anderes machen, bspw. AirTunes-Station, Druckserver, Zeugs ein-/ausschalten,
was-auch-immer -- das ist das eigentliche Ziel: Synergie-Effekte nutzen ;-)

Das Gehäuse wird wahlweise häßlich wie die Nacht (wurscht, weil sowas
stellt man irgendwohin, wo's keiner sieht) oder schaut aus wie eine
TimeCapsule-Kopie, die um Faktor 1,5 gewachsen ist (Ecken abrunden und
lackieren -- wer's braucht). Mit der Evaluierung von Performance und
Hitzeentwicklung bin ich durch [3]. Nächste Station ist Gehäuse bzw. ob
man den Kram so geräuschgedämmt bekommt, dass eine 3.5"-HDD nicht
rumnervt. Die Eckdaten sind momentan ein Quader aus 22mm MDF, der 15 cm
im Quadrat mißt und knappe 25 cm hoch ist (Kamineffekt bzgl. Kühlung und
effektive Geräuschdämmung durch Material und "Reserven")

Gruss,

Thomas

[1] https://www.bananian.org

[2] http://www.igorpecovnik.com/2014/09/07/banana-pi-debian-sd-image/

[3] http://forum.lemaker.org/forum-101-1-network_and_servers.html
Andre Igler
2014-11-21 15:21:37 UTC
Permalink
Post by Wolfgang Kefurt
ich habe hier eine WD MyBook Live Duo mit 2Tb in Raid 1
wieso nur 2 TB? Wie alt ist denn das?

Wieso Raid1? Wozu soll das gut sein?
Post by Wolfgang Kefurt
am Netzwerk und obwohl ich schon drauf gekommen bin, dass diese
keine Geschwindigkeitsrekorde bricht, kommt sie mir zeitweise echt
LAHM vor.
Ich fürchte, works as designed.
Post by Wolfgang Kefurt
Wäre eine Synology DS214 schneller?
Ja. Aber noch um ein Eckhaus unsicherer.
Post by Wolfgang Kefurt
Verbunden wird mit afp. Mit cifs und smb geht es auch nicht
schneller. Irgendwer hilfreiche Tipps für mich?
Nicht wirklich.

Grundsätzlich willst Du Deine Daten nicht $irgendwo hin speichern.

Du willst eine HD, die ganz normal formatiert ist, damit Du sie im
Notfall aus dem Gehäuse raus nehmen und Deine Daten retten kannst.

Wenn Du ein Raid machst, wird das nicht gehen. Raid1 ist noch dazu
ziemlich sinnbefreit.

Ein Synology spannt - mit einem proprietären OS und FS - ein Raid über
mehrere Platten. Wenn Dir dort mehr als eine HD gleichzeitig in die Knie
geht, kannst Du dir das ganze feucht ins Knie massieren.

Hat Thomas aber schon vor längerem im Detail durchgekaut.

Lies mal den Fred (drei unter diesem) "Gar keine Server mehr". Steht
alles drin. Start at <***@mid.individual.net>

Hier(TM) steht eine WD 4TB (eine Disk! Kein Raid!) in einem Kastl, das
auch Netzwerk kann, und spielt Pseudoserver. Wenn das Kastl eingeht,
kann man die disk wo anders anschließen.

Ist alles kein Server, erfüllt aber die Funktion Datengrab. Zusammen mit
zwei weiteren externen 4TB-Monster, von denen eines an einem anderen Ort
steht.

addio
--
pm <mein vorname> bei <mein nachname> punkt at
www.albinschwarz.com http://weblog.igler.at
Wolfgang Kefurt
2014-11-21 16:05:14 UTC
Permalink
Post by Andre Igler
Post by Wolfgang Kefurt
ich habe hier eine WD MyBook Live Duo mit 2Tb in Raid 1
wieso nur 2 TB? Wie alt ist denn das?
Wieso Raid1? Wozu soll das gut sein?
Raid-0 ist doch ganze Kapazität (also beide Platten) und Raid-1
ist gespiegelt (also eine kann eingehen), deswegen nur 2Tb.
Post by Andre Igler
Ich fürchte, works as designed.
Jo, liest man immer erst hinterher. :-)
Post by Andre Igler
Post by Wolfgang Kefurt
Wäre eine Synology DS214 schneller?
Ja. Aber noch um ein Eckhaus unsicherer.
Wie das?
Post by Andre Igler
Du willst eine HD, die ganz normal formatiert ist, damit Du sie im
Notfall aus dem Gehäuse raus nehmen und Deine Daten retten kannst.
Das wäre am besten, genau!
Sie soll nur halt von allen Geräten im Haushalt erreichbar sein.
Post by Andre Igler
Wenn Du ein Raid machst, wird das nicht gehen. Raid1 ist noch dazu
ziemlich sinnbefreit.
Nochmal, wieso sinnbefreit?
Wenn eine kaputt geht, ist bei Raid-1 immer noch eine mit dem selben
Inhalt da. Diese ist auch nicht verschlüsselt, wieso also unsinnig? Das
spiegeln übernimmt halt die WD-MyBook, ist damit die Platte mit anderen
Geräten nicht mehr lesbar?
Post by Andre Igler
Ein Synology spannt - mit einem proprietären OS und FS - ein Raid über
mehrere Platten. Wenn Dir dort mehr als eine HD gleichzeitig in die Knie
geht, kannst Du dir das ganze feucht ins Knie massieren.
Hat Thomas aber schon vor längerem im Detail durchgekaut.
Muss ich erst nachlesen, dieses Problem hat sich bis jetzt nicht
gestellt für mich...
Post by Andre Igler
Lies mal den Fred (drei unter diesem) "Gar keine Server mehr". Steht
OK, mach ich.
Post by Andre Igler
Hier(TM) steht eine WD 4TB (eine Disk! Kein Raid!) in einem Kastl, das
auch Netzwerk kann, und spielt Pseudoserver. Wenn das Kastl eingeht,
kann man die disk wo anders anschließen.
So hatte ich bisher auch ein "NAS" verstanden. Liege ich etwa falsch?
Soweit ich das verstanden hätte, spielt ein NAS ebenfalls nur Server und
beherbergt und verwaltet die Platten im Netzwerk!?
Wo ist der Unterschied zu Deinem "Kastl"?
Post by Andre Igler
Ist alles kein Server, erfüllt aber die Funktion Datengrab. Zusammen mit
zwei weiteren externen 4TB-Monster, von denen eines an einem anderen Ort
steht.
Wow, eine Menge Speicherplatz. :-)
Soviel ist bei mir noch nicht notwendig, ist aber auch nur Privatnutzung
und relativ unsensibler Datenbestand.
--
Grüße
Wolfgang
Andre Igler
2014-11-21 19:19:44 UTC
Permalink
Post by Andre Igler
Post by Wolfgang Kefurt
ich habe hier eine WD MyBook Live Duo mit 2Tb in Raid 1
wieso nur 2 TB? Wie alt ist denn das?
Wieso Raid1? Wozu soll das gut sein?
Raid-0 ist doch ganze Kapazität (also beide Platten) und Raid-1 ist
gespiegelt (also eine kann eingehen), deswegen nur 2Tb.
Äh - Thomas hat Dir das gerade erklärt: RAID braucht im Home-Bereich
niemand.

Wenn Du einen professionellen Server hast - also so was
<http://www8.hp.com/at/de/products/proliant-servers/index.html?facet=ProLiant-SL-Scalable>
dann nimmst Du Festplatten, die - bei gleicher Kapazität - ein
Vielfaches von dem kosten, was Du als Consumer löhnst (dafür sind sie um
mehrere Faktoren ausfallsicherer) und Du hast gaaanz viele Zugriffe,
z.B. 100.000 Mitarbeiter, und es geht um Schnelligkeit, garantierte
Zugriffszeiten, Ausfallsicherheit und so was, dann sprechen wir RAID, in
welcher Form auch immer. Oder Du drehst einen Spielfilm, in Vollformat,
digital, für $Millionen Budget. Na, wir verstehen uns.

Und selbst dann hat das noch immer /nichts/ mit Datensicherheit zu tun.
Sondern nur mit Verfügbarkeit (kein Ausfall, hot-swappable), garantierte
Zugriffe mit garantierter Zugriffsgeschwindigkeit und so
Zeux.

Datensicherheit und RAID haben /nichts/ miteinander zu tun.
Daten/sicherheit/ ist ein zweiter server. Und ein dritter, wo anders.

Noch mal, zum Mitschreiben, für's Archiv und überhaupt: RAID und
Datensicherheit sind zwei völlig verschiedene Sachen. RAID ist nur
Speed. Und Konstanz der Verfügbarkeit bei sehr vielen Zugriffen.

Bei Dir zuhause ist RAID so sinnvoll wie ein Euter auf einem Stier. Punkt.
Post by Andre Igler
Post by Wolfgang Kefurt
Wäre eine Synology DS214 schneller?
Ja. Aber noch um ein Eckhaus unsicherer.
Wie das?
Ein Synology hat ein /eigenes/ Betriebssystem und ein eigenes
Filesystem, ist also proprietäres Zeux. Auch wenn sie nicht kaputt ist,
ist eine damit beschrieben HD mit nichts anderem auslesbar. Das ist ein
Schlechtes Konzept(TM). Ein ganz schlechtes.
Post by Andre Igler
Du willst eine HD, die ganz normal formatiert ist, damit Du sie im
Notfall aus dem Gehäuse raus nehmen und Deine Daten retten kannst.
Das wäre am besten, genau! Sie soll nur halt von allen Geräten im
Haushalt erreichbar sein.
Dann kauf' Dir eine Netzwerkfestplatte.

Die Jungs von Synology haben einen noch besseren Marketingschwurbel
drauf als Apple. Und heute heißt halt alles NAS, weil das kein
geschützter Begriff ist. Grundsätzlich versteht man darunter aber ein
Kasterl, das - so wie ein Server - einen eigenen Prozessor (oder zwei,
oder vier) und ein eigenes OS hat, und sonst - im Gegensatz zu einem
Server, der auch noch directory services macht, oder DHCP, z.B. - macht
so ein NAS nix. Außer speichern.

Aber so wie Du kein RAID brauchst, brauchst auch kein NAS.

[snip]
Post by Andre Igler
Hier(TM) steht eine WD 4TB (eine Disk! Kein Raid!) in einem Kastl,
das auch Netzwerk kann, und spielt Pseudoserver. Wenn das Kastl
eingeht, kann man die disk wo anders anschließen.
So hatte ich bisher auch ein "NAS" verstanden. Liege ich etwa
falsch?
Yep, siehe oben. Da drin ist eine Platte, sowie ein Platinchen, das den
Ethernet-Anschluß besorgt, und ein bisserl Netatalk, in einer outdated
version. Und aus.

Ja, WD nennt das jetzt auch NAS, weil sonst verkaufen sie's nicht. Ist
aber "nur" eine Netzwerkfestplatte.
Privatnutzung und relativ unsensibler Datenbestand.
Was jetzt? Isses wichtig? Dann sichere es. Ist es unnötig? Dann lösch'
es. WTF

addio
--
pm <mein vorname> bei <mein nachname> punkt at
www.albinschwarz.com http://weblog.igler.at
Wolfgang Kefurt
2014-11-22 00:02:31 UTC
Permalink
Post by Andre Igler
Noch mal, zum Mitschreiben, für's Archiv und überhaupt: RAID und
Datensicherheit sind zwei völlig verschiedene Sachen. RAID ist nur
Speed. Und Konstanz der Verfügbarkeit bei sehr vielen Zugriffen.
OK, Speed ist aber momentan genau das was mir fehlt...
Post by Andre Igler
Bei Dir zuhause ist RAID so sinnvoll wie ein Euter auf einem Stier. Punkt.
Gut!
Post by Andre Igler
Ein Synology hat ein /eigenes/ Betriebssystem und ein eigenes
Filesystem, ist also proprietäres Zeux. Auch wenn sie nicht kaputt ist,
ist eine damit beschrieben HD mit nichts anderem auslesbar. Das ist ein
Schlechtes Konzept(TM). Ein ganz schlechtes.
OK, in dieser Hinsicht ist es der MyBook Live Duo ja anscheinend recht
ähnlich.
Post by Andre Igler
Post by Andre Igler
Du willst eine HD, die ganz normal formatiert ist, damit Du sie im
Notfall aus dem Gehäuse raus nehmen und Deine Daten retten kannst.
Das wäre am besten, genau! Sie soll nur halt von allen Geräten im
Haushalt erreichbar sein.
Dann kauf' Dir eine Netzwerkfestplatte.
Wir drehen uns im Kreis.
Was ich auf die Schnelle unter "Netzwerkfestplatte" ergoogelt habe
taucht immer unter dem Begriff "NAS" und mit eigener
Konfigurationssoftware (meist Java im Browser) auf! Wie unterscheide ich
also zwischen dem von Dir gemeinten und dem proprietären Zeug?
Post by Andre Igler
Die Jungs von Synology haben einen noch besseren Marketingschwurbel
drauf als Apple. Und heute heißt halt alles NAS, weil das kein
geschützter Begriff ist.
Eben!
Post by Andre Igler
Aber so wie Du kein RAID brauchst, brauchst auch kein NAS.
OK, ich lass ja mit mir reden :-)
Dann nutzt es vermutlich auch nichts, wenn ich auf Raid-0 umstelle, weil
Raid-0 immer noch Raid ist, korrekt?
Post by Andre Igler
Post by Andre Igler
Hier(TM) steht eine WD 4TB (eine Disk! Kein Raid!) in einem Kastl,
das auch Netzwerk kann, und spielt Pseudoserver. Wenn das Kastl
eingeht, kann man die disk wo anders anschließen.
Zier Dich nicht so, nenne das Modell damit ich Dir folgen kann! :-)
Post by Andre Igler
Yep, siehe oben. Da drin ist eine Platte, sowie ein Platinchen, das den
Ethernet-Anschluß besorgt, und ein bisserl Netatalk, in einer outdated
version. Und aus.
...steht ja leider so nirgends in der Beschreibung. Wahrscheinlich ist
das zu unspektakulär für den Verkauf.
Post by Andre Igler
Ja, WD nennt das jetzt auch NAS, weil sonst verkaufen sie's nicht. Ist
aber "nur" eine Netzwerkfestplatte.
Was jetzt, meine MyBook Live?
Doch nicht proprietär?
Langsam kenn' ich mich nicht mehr aus...
--
Grüße
Wolfgang
Heinz Bastenhorst
2014-11-22 00:32:09 UTC
Permalink
Post by Andre Igler
Ein Synology hat ein /eigenes/ Betriebssystem und ein eigenes
Filesystem, ist also proprietäres Zeux. Auch wenn sie nicht kaputt ist,
ist eine damit beschrieben HD mit nichts anderem auslesbar. Das ist ein
Schlechtes Konzept(TM). Ein ganz schlechtes.
Ext4 ist genauso proprietär wie HFS+ oder NTFS. Das ist nun wirklich
blanker Unsinn.
Da du von deinem Nas sowieso ein Backup brauchst, kann du bei einer
Synology DS dafür eine externe Platte u.a. auch mit NTFS formatieren,
und damit dein NAS wieder herstellen bzw. das Backup auch an Windows und
auch am Mac nutzen.
Die Synology DS hat jedem Menge Probleme und Unzulänglichkeiten, aber
was du da zu schreibst zeugt eher von Unkenntnis der Materie.

@Wolfgang: Schließ das NAS zum Test mal direkt an den Mac an und Teste
da die Geschwindigkeit. Damit hast du schon mal das Netztwerk als Fehler
ausgeschlossen.

Gruß
h1
Wolfgang Kefurt
2014-11-22 10:10:43 UTC
Permalink
Post by Heinz Bastenhorst
@Wolfgang: Schließ das NAS zum Test mal direkt an den Mac an und Teste
da die Geschwindigkeit. Damit hast du schon mal das Netztwerk als Fehler
ausgeschlossen.
Danke für den Rat, auch das werde ich noch probieren.
Allerdings verspreche ich mir keine bahnbrechende Änderung davon, weil
die NAS schon beim ersten Einrichten direkt neben dem iMac am Tisch
stand und auch nicht wirklich prompt reagierte. Ich führte das aber auf
die stattfindende Spiegelung im Hintergrund zurück.
--
Grüße
Wolfgang
Thomas Kaiser
2014-11-22 18:40:56 UTC
Permalink
Post by Wolfgang Kefurt
Post by Heinz Bastenhorst
@Wolfgang: Schließ das NAS zum Test mal direkt an den Mac an und
Teste da die Geschwindigkeit. Damit hast du schon mal das Netztwerk
als Fehler ausgeschlossen.
Danke für den Rat, auch das werde ich noch probieren.
Allerdings verspreche ich mir keine bahnbrechende Änderung davon, weil
die NAS schon beim ersten Einrichten direkt neben dem iMac am Tisch
stand und auch nicht wirklich prompt reagierte. Ich führte das aber auf
die stattfindende Spiegelung im Hintergrund zurück.
Spiegelung bzw. RAID-1 ist nicht "teuer" im Sinn von kostet Performance
(außer der Hersteller des NAS war superdoof und setzt ein SoC -- System
on Chip -- ein, das nur einen SATA-Port hat und zwischen diesem SATA-
Port und den Platten befindet sich ein billiger Port-Multiplier, der nur
"command-based switching" beherrscht und dadurch im RAID-1 Modus, die
Schreib-Performance schnell mal auf unter die Hälfte, weil alles, was die
Billig- Technik SATA schneller machen könnte, automatisch ausfällt). Da
man das dem Kasterl von außen aber nicht ansieht, weiß man's auch nicht,
warum es lahm ist.

Dein Dings lahmt aber eher bei sowas wie "directory enumeration" und dem
Handling vieler Objekte -- warum auch immer. Müßig zu spekulieren aber
wenigstens _Indiz_, dass das Problem woanders liegt als Ausbremsung weil
Spiegelung.

Gruss,

Thomas
Wolfgang Kefurt
2014-11-22 21:52:45 UTC
Permalink
Post by Thomas Kaiser
Spiegelung bzw. RAID-1 ist nicht "teuer" im Sinn von kostet Performance
(außer der Hersteller des NAS war superdoof und setzt ein SoC -- System
on Chip -- ein, das nur einen SATA-Port hat und zwischen diesem SATA-
Port und den Platten befindet sich ein billiger Port-Multiplier, der nur
"command-based switching" beherrscht und dadurch im RAID-1 Modus, die
Schreib-Performance schnell mal auf unter die Hälfte, weil alles, was die
Billig- Technik SATA schneller machen könnte, automatisch ausfällt). Da
man das dem Kasterl von außen aber nicht ansieht, weiß man's auch nicht,
warum es lahm ist.
Eben, solange die Hersteller sowas aber nicht in die Tech Specs rein
schreiben, sieht man es erst nach dem Kauf und hat auch keinen Einfluss
auf sowas zu achten.
Post by Thomas Kaiser
Dein Dings lahmt aber eher bei sowas wie "directory enumeration" und dem
Handling vieler Objekte -- warum auch immer. Müßig zu spekulieren aber
wenigstens _Indiz_, dass das Problem woanders liegt als Ausbremsung weil
Spiegelung.
Tja, was da unter der Decke passiert bleibt leider das Geheimnis von WD.
Man kann ja außer der Firmwareversion und der Seriennummer nicht
wirkliche Erkenntnisse gewinnen, was ja eigentlich ein Pro Argument
wäre, wenn es wie gewünscht funktionieren würde.

Ich werde morgen nach längerer Zeit wieder mal den iMac anwerfen
(momentan bin ich aus Bequemlichkeit meist am Notebook mit 10.9.5), der
läuft noch unter 10.6.8 und sehen ob es da flotter geht. Als die NAS neu
war hatte ich mal von der Windows7 Partition gestartet und da kam mir
die Ansprache des NAS weit schneller vor. Waren aber auch noch nicht
viele Daten drauf.
--
Grüße
Wolfgang
Thomas Kaiser
2014-11-23 10:26:36 UTC
Permalink
Post by Wolfgang Kefurt
Post by Thomas Kaiser
Spiegelung bzw. RAID-1 ist nicht "teuer" im Sinn von kostet
Performance (außer der Hersteller des NAS war superdoof und setzt ein
SoC -- System on Chip -- ein, das nur einen SATA-Port hat und
zwischen diesem SATA- Port und den Platten befindet sich ein billiger
Port-Multiplier, der nur "command-based switching" beherrscht und
dadurch im RAID-1 Modus, die Schreib-Performance schnell mal auf
unter die Hälfte, weil alles, was die Billig- Technik SATA schneller
machen könnte, automatisch ausfällt). Da man das dem Kasterl von
außen aber nicht ansieht, weiß man's auch nicht, warum es lahm ist.
Eben, solange die Hersteller sowas aber nicht in die Tech Specs rein
schreiben
Und was sollen sie da reinschreiben? "Sorry Leute, wir checken's leider
nicht, nehmen 'ne zu lahme CPU und leisten Versprechen -- cross-platform
Zugriff von Windows und Mac problemfrei -- die wir nicht halten können".

Die wollen ihr Zeugs doch verkaufen, also können sie nicht drauf
hinweisen, was alles suboptimal ist -- selbst wenn das für nahezu alle
"Mitbewerber" ebenso zutrifft.
Post by Wolfgang Kefurt
Ich werde morgen nach längerer Zeit wieder mal den iMac anwerfen
(momentan bin ich aus Bequemlichkeit meist am Notebook mit 10.9.5),
der läuft noch unter 10.6.8 und sehen ob es da flotter geht.
Na dann viel Spaß, grad wenn Du bislang schon auch per SMB auf Dein NAS
zugegriffen hast.

OS X bis einschließlich 10.6 geht wie folgt vor, wenn Du Dateien per SMB
in der Gegend herumkopierst: Es legt Finder-Metadaten (sowas wie bspw.
ein buntes Etikett oder Zeitstempel oder auch Extended Attribute und
ACLs und sowas) in eine Datei daneben, deren Name mit ._ beginnt und
deren Format ein erweitertes AppleDouble [1] ist.

Ab 10.7 guckt OS X beim Zugriff auf SMB-Server, ob deren Dateisystem
NTFS Filestreams beherrscht oder so tut (ab 10.7 hat Apple auch noch
parallel die SMB-Server-Komponente in OS X ausgetauscht, also Samba raus
und das bislang nicht dokumentierte "smbx" rein... und das sagt nach
außen "Hallo, ich bin ein Windows und die Dateien liegen nicht auf FAT
sondern auf NTFS, daher kannst Du lieber SMB-Client gerne auch NTFS-
Streams nutzen" und unter der Haube wird dann on-the-fly das, was als
alternate Streams im Format Afp_AfpInfo/Afp_Resource daherkommt, wieder
in HFS+ umgesetzt). Und gleichzeitig kennt OS X als SMB-Client noch den
Fallback-Modus auf die alten ._-AppleDouble-Dateien. D.h. als User fällt
einem dann gar nicht auf, dass man grad Mischmasch erzeugt.

Je nachdem, wie das Samba in Deinem WD-NAS nun konfiguriert ist oder
nicht, behauptet es, dass es evtl. auch NTFS Filestreams beherrscht. Und
dann würden Mac-Dateien ab 10.7 anders abgelegt als mit Vorversionen und
der Fallback-Modus sorgt wenn man ein übles Mischmasch auf der Freigabe
hat, auch noch dafür, dass alles langsamer wird. Ob man Mischmasch hat,
merkt man aber dann eben, indem man mit 10.6 oder vorher zugreift, denn
dann fehlen halt solche Sachen wie Etiketten, die beim parallelen
Zugriff von 10.7 oder höher sichtbar sind.
Post by Wolfgang Kefurt
Als die NAS neu war hatte ich mal von der Windows7 Partition gestartet
und da kam mir die Ansprache des NAS weit schneller vor. Waren aber
auch noch nicht viele Daten drauf.
Das Letztere mag einen Unterschied machen und dann gibt es noch Apple-
proprietäre SMB-Anbauten, die momentan kein SMB-Server außer OS X drauf
hat (und bald Samba, wenn Ralph mal endlich fertig wird ;-) -- schon
bisserl absurd: Die Zahl der Menschen weltweit, die überhaupt checken,
was das Problem ist, liegt wohl im zweistelligen Bereich. Und an einem
Fix bzw. einer OpenSource-Implementierung arbeitet weltweit genau ein
Mensch)

Wer sich für die Problematik interessiert (die wie schon 'zigmal in
diesem Thread geschrieben genau gar nix mit Dateisystemen sondern dem
Zirkus, der eine Ebene drüber geschieht, zu tun hat), findet ab hier

https://bugs.freenas.org/issues/5904

eine Linkliste, die das Thema halbwegs erschöpfend behandelt.

Gruss,

Thomas

[1] http://netatalk.sourceforge.net/wiki/images/5/55/AppleSingle_AppleDouble.pdf>
Wolfgang Kefurt
2014-11-23 19:58:33 UTC
Permalink
Post by Thomas Kaiser
Und was sollen sie da reinschreiben? "Sorry Leute, wir checken's leider
nicht, nehmen 'ne zu lahme CPU und leisten Versprechen -- cross-platform
Zugriff von Windows und Mac problemfrei -- die wir nicht halten können".
Na zumindest einen Hinweis auf ein gewisses Risiko beim Zugriff in
gemischten Umgebungen könnte drinstehen. Anscheinend sind Probleme
dieser Art aber sehr selten in freier Wildbahn bzw. die User suchen die
Ursachen wo anders.
Post by Thomas Kaiser
Die wollen ihr Zeugs doch verkaufen, also können sie nicht drauf
hinweisen, was alles suboptimal ist -- selbst wenn das für nahezu alle
"Mitbewerber" ebenso zutrifft.
Habe am Nachmittag ein wenig herumgesucht und wirklich fast nirgends
derartige Nachteile beschrieben gesehen. Die üblichen "Tests" in
Kurzform gehen nicht so weit und meist "gewinnt" Synology oder Qnap bei
Vergleichen und Bestenlisten. Aber mein Device ist ja auch schon etwas
älter...

Immerhin habe ich auf Youtube ein Video gefunden, in welchem ein Typ die
aktuelle WD-MyCloud EX testet und so beiläufig erwähnt, dass er damit
die doppelte Geschwindigkeit als mit seiner vorherigen WD-MyBook Live im
Gigabit Netz erreicht. Damit weiß ich wenigstens, dass die gefühlte
Lahmheit nicht ein lokaler Defekt ist. Die EX kann auch JBOD und iSCSI,
was dein ungeliebtes RAID unnötig macht. ;-)
Post by Thomas Kaiser
Na dann viel Spaß, grad wenn Du bislang schon auch per SMB auf Dein NAS
zugegriffen hast.
OS X bis einschließlich 10.6 geht wie folgt vor, wenn Du Dateien per SMB
in der Gegend herumkopierst: Es legt Finder-Metadaten (sowas wie bspw.
ein buntes Etikett oder Zeitstempel oder auch Extended Attribute und
ACLs und sowas) in eine Datei daneben, deren Name mit ._ beginnt und
deren Format ein erweitertes AppleDouble [1] ist.
Ab 10.7 guckt OS X beim Zugriff auf SMB-Server, ob deren Dateisystem
NTFS Filestreams beherrscht oder so tut (ab 10.7 hat Apple auch noch
parallel die SMB-Server-Komponente in OS X ausgetauscht, also Samba raus
und das bislang nicht dokumentierte "smbx" rein... und das sagt nach
außen "Hallo, ich bin ein Windows und die Dateien liegen nicht auf FAT
sondern auf NTFS, daher kannst Du lieber SMB-Client gerne auch NTFS-
Streams nutzen" und unter der Haube wird dann on-the-fly das, was als
alternate Streams im Format Afp_AfpInfo/Afp_Resource daherkommt, wieder
in HFS+ umgesetzt). Und gleichzeitig kennt OS X als SMB-Client noch den
Fallback-Modus auf die alten ._-AppleDouble-Dateien. D.h. als User fällt
einem dann gar nicht auf, dass man grad Mischmasch erzeugt.
Je nachdem, wie das Samba in Deinem WD-NAS nun konfiguriert ist oder
nicht, behauptet es, dass es evtl. auch NTFS Filestreams beherrscht. Und
dann würden Mac-Dateien ab 10.7 anders abgelegt als mit Vorversionen und
der Fallback-Modus sorgt wenn man ein übles Mischmasch auf der Freigabe
hat, auch noch dafür, dass alles langsamer wird. Ob man Mischmasch hat,
merkt man aber dann eben, indem man mit 10.6 oder vorher zugreift, denn
dann fehlen halt solche Sachen wie Etiketten, die beim parallelen
Zugriff von 10.7 oder höher sichtbar sind.
Die Warnung kam rechtzeitig, ich hatte eh keine Zeit heute. :-)

Was soll man dann als Normal-User tun? Man kann ja nicht wissen was da
alles im Hintergrund vorgeht und es wird einem ja von den Herstellern
(wie auch von Apple) weisgemacht "alles kein Problem, egal ob Mac oder
Windows, einfach verbinden und Daten Nutzen". Gut die rechnen vermutlich
mit je einem Mac/PC und damit nicht mit mehreren OS Versionen, obwohl
sowas ja auch für SOHO angeboten wird.
Zurück zur USB-Disk als (wieder dezentraler) Massenspeicher, oder gar
einen Rechner ständig als Server betreiben, das kann´s ja auch nicht
sein, oder?

Das Mindeste wäre ja wohl eine Empfehlung der NAS Hersteller a la
"lieber User, in gemischten Umgebungen verwende gefälligst dies und
jenes Protokoll und vermeide dies und das unter allen Umständen".
Post by Thomas Kaiser
Wer sich für die Problematik interessiert (die wie schon 'zigmal in
diesem Thread geschrieben genau gar nix mit Dateisystemen sondern dem
Zirkus, der eine Ebene drüber geschieht, zu tun hat), findet ab hier
https://bugs.freenas.org/issues/5904
eine Linkliste, die das Thema halbwegs erschöpfend behandelt.
Mir persönlich etwas zu viel Tech Stuff, wenn auch interessant.
Schade nur, dass der Enduser dann die Kopfschmerzen hat, wenn bei der
Verwendung solcher Kisten was in die Hose geht. :-\
--
Grüße
Wolfgang
Goetz Hoffart
2014-11-23 21:14:08 UTC
Permalink
Post by Wolfgang Kefurt
Was soll man dann als Normal-User tun?
Mac mini kaufen.
Post by Wolfgang Kefurt
Man kann ja nicht wissen was da alles im Hintergrund vorgeht und es wird
einem ja von den Herstellern (wie auch von Apple) weisgemacht "alles kein
Problem, egal ob Mac oder Windows, einfach verbinden und Daten Nutzen".
Geht ja meistens für Trivialfälle auch. SMB ist zwar lahm, tut aber.
Mischbetrieb kann Ärger machen, macht es oft aber nicht. Die Frage ist
halt ob du 250€ für ein halbwegs gescheites Fertig-NAS ausgeben magst,
das eine flache Lernkurve hat, die aber beim ersten Problem arg steil
bis überhängend wird. Oder dir nicht lieber ein HP N54L o.ä. und FreeNAS
holst, oder eben einen Mac mini. Oder die Anforderungen neu justierst.
Post by Wolfgang Kefurt
Zurück zur USB-Disk als (wieder dezentraler) Massenspeicher, oder gar
einen Rechner ständig als Server betreiben, das kann´s ja auch nicht
sein, oder?
Wieso nicht? Ein NAS ist auch nur ein Rechner als Server betrieben, er
ist halt so verpackt dass alle denken das sei nicht der Fall. Fast
nichts in der IT ist neu, war alles schonmal da - hier vor etwa 30
Jahren: <http://en.wikipedia.org/wiki/3Server>. Und vor 15 Jahren machte
eine kleine Firma namens Cobalt damit Furore, mit dem Qube. Und wurde
samt des Erfolgs von Sun gekauft. Die haben den Erfolg dann eingestellt.
Post by Wolfgang Kefurt
Das Mindeste wäre ja wohl eine Empfehlung der NAS Hersteller a la
"lieber User, in gemischten Umgebungen verwende gefälligst dies und
jenes Protokoll und vermeide dies und das unter allen Umständen".
Freiwillige Selbstverpflichtung? Hat ja auch beim Katalysator,
Grenzwerten im Abwasser für den Rhein, Nachtflugverboten in FFM auch
schon gut geklappt … könnte man mal wieder probieren.

Grüße
Götz
--
http://www.knubbelmac.de/
Wolfgang Kefurt
2014-11-23 22:47:01 UTC
Permalink
Post by Goetz Hoffart
Post by Wolfgang Kefurt
Was soll man dann als Normal-User tun?
Mac mini kaufen.
:-)
Post by Goetz Hoffart
Die Frage ist halt ob du 250€ für ein halbwegs gescheites Fertig-NAS
ausgeben magst, das eine flache Lernkurve hat, die aber beim ersten
Problem arg steil bis überhängend wird. Oder dir nicht lieber ein HP
N54L o.ä. und FreeNAS holst, oder eben einen Mac mini. Oder die
Anforderungen neu justierst.
Oh Gott, hätte ich bloß nicht gefragt... :-)

Eine weitere Frage ist auch, wie häufig der von dir skizzierte
Problemfall in der Praxis auftritt. Dann könnte man besser abschätzen ob
es sich auszahlt. Basteln ist in dem Fall nicht so meine Sache, da
könnte ich ja gleich den alten XPC Shuttle aus dem Keller holen und
irgendeine Krachmaschine zusammenstellen.
Post by Goetz Hoffart
Post by Wolfgang Kefurt
Zurück zur USB-Disk als (wieder dezentraler) Massenspeicher, oder
gar einen Rechner ständig als Server betreiben, das kann´s ja auch
nicht sein, oder?
Wieso nicht? Ein NAS ist auch nur ein Rechner als Server betrieben,
er ist halt so verpackt dass alle denken das sei nicht der Fall.
Aber das NAS verbraucht weit weniger Strom, hat WakeOnLAN, ist sehr
leise und ist daher stets ohne Einschalten verfügbar und ich kann sogar
die Fotos vom Schmarnfone im Urlaub dort abkübeln. Weiß nicht, ob ich
das mit einer Selbstbaulösung leicht ersetzen könnte.
--
Grüße
Wolfgang
Goetz Hoffart
2014-11-23 23:52:33 UTC
Permalink
Post by Wolfgang Kefurt
Eine weitere Frage ist auch, wie häufig der von dir skizzierte
Problemfall in der Praxis auftritt.
Sechs Versuche mit NAS, dreimal Datenkomplettverlust (RAID-Rebuild ging
schief), einmal Wackelkandidat (erkennt keine Platten als ausreichend
an, um in den RAID-Verbund aufgenommen zu werden), einmal eines das alle
Dateifreigabeservices stoppte, wenn ein Share voll war (irre
praktisch!), einmal läuft eines solala als iSCSI-Device.

Nur, das heißt halt nichts. Sechs Kisten von wievielen? Mir reichte aber
die Qualität der Probleme derart (»Oh, RAID-Rebuild ging schief? Bitte
schicken sie es an QNAP Taiwan ein«), dass mich die Quantität inzwischen
nicht mehr interessiert.
Post by Wolfgang Kefurt
Dann könnte man besser abschätzen ob
es sich auszahlt. Basteln ist in dem Fall nicht so meine Sache, da
könnte ich ja gleich den alten XPC Shuttle aus dem Keller holen und
irgendeine Krachmaschine zusammenstellen.
N54L sind recht leise. Bananapi oder ein kleiner NUC unhörbar bzw. fast
unhörbar. Mac mini sind fast nicht zu hören.
Post by Wolfgang Kefurt
Post by Goetz Hoffart
Wieso nicht? Ein NAS ist auch nur ein Rechner als Server betrieben,
er ist halt so verpackt dass alle denken das sei nicht der Fall.
Aber das NAS verbraucht weit weniger Strom,
Als was? Als ein Mac mini? Bestimmt nicht. Als ein Banana Pi? Garantiert
nicht.
Post by Wolfgang Kefurt
hat WakeOnLAN, ist sehr leise
Haben andere auch (N54L, Mac mini).
Post by Wolfgang Kefurt
und ist daher stets ohne Einschalten verfügbar und ich kann sogar
die Fotos vom Schmarnfone im Urlaub dort abkübeln. Weiß nicht, ob ich
das mit einer Selbstbaulösung leicht ersetzen könnte.
Kannst du.

Grüße
Götz
--
http://www.knubbelmac.de/
Wolfgang Kefurt
2014-11-24 08:23:09 UTC
Permalink
Post by Goetz Hoffart
Post by Wolfgang Kefurt
Eine weitere Frage ist auch, wie häufig der von dir skizzierte
Problemfall in der Praxis auftritt.
Sechs Versuche mit NAS, dreimal Datenkomplettverlust (RAID-Rebuild ging
schief), einmal Wackelkandidat (erkennt keine Platten als ausreichend
an, um in den RAID-Verbund aufgenommen zu werden), einmal eines das alle
Dateifreigabeservices stoppte, wenn ein Share voll war (irre
praktisch!), einmal läuft eines solala als iSCSI-Device.
Wow, nicht schlecht dafür, dass es eigentlich eine ausfallsichere Lösung
sein soll! :-)
Post by Goetz Hoffart
Nur, das heißt halt nichts. Sechs Kisten von wievielen? Mir reichte aber
die Qualität der Probleme derart (»Oh, RAID-Rebuild ging schief? Bitte
schicken sie es an QNAP Taiwan ein«), dass mich die Quantität inzwischen
nicht mehr interessiert.
Toller Lösungsvorschlag...
Post by Goetz Hoffart
N54L sind recht leise. Bananapi oder ein kleiner NUC unhörbar bzw. fast
unhörbar. Mac mini sind fast nicht zu hören.
Einen 2012er Mini ohne DVD hätte ich sogar (der Sammeltick). Läuft mit
10.8, aber den als Datengrab zu missbrauchen missfällt. :-/
Große/größere HDs müsste man da ja auch zusätzlich und extern betreiben,
innen ist ja kaum Platz.
Post by Goetz Hoffart
Post by Wolfgang Kefurt
Post by Goetz Hoffart
Wieso nicht? Ein NAS ist auch nur ein Rechner als Server betrieben,
er ist halt so verpackt dass alle denken das sei nicht der Fall.
Das dämmert mir nun bereits langsam.
--
Grüße
Wolfgang
Thomas Kaiser
2014-11-24 09:33:53 UTC
Permalink
Post by Wolfgang Kefurt
Post by Goetz Hoffart
Post by Wolfgang Kefurt
Eine weitere Frage ist auch, wie häufig der von dir skizzierte
Problemfall in der Praxis auftritt.
Sechs Versuche mit NAS, dreimal Datenkomplettverlust (RAID-Rebuild
ging schief), einmal Wackelkandidat (erkennt keine Platten als
ausreichend an, um in den RAID-Verbund aufgenommen zu werden), einmal
eines das alle Dateifreigabeservices stoppte, wenn ein Share voll war
(irre praktisch!), einmal läuft eines solala als iSCSI-Device.
Wow, nicht schlecht dafür, dass es eigentlich eine ausfallsichere
Lösung sein soll! :-)
Also abgesehen davon, dass Götz' bunter Strauß an negativer Erfahrungen
tatsächlich keinerlei statistische Relevanz hat, wie er selbst schon
schrieb... zeigt das aber sehr gut das grundsätzliche Dilemma von
Billig-/Blödel-RAID wie in den typischen NAS-Eimern *ausschließlich*
existent auf:

Genauso wie Du die Qualität eines Backups nur dadurch beurteilen kannst,
dass Du den Restore-Fall durchspielst und dabei ein Augenmerk darauf
hast, dass Du den zurückzuholenden Kram vollumfänglich innerhalb der
definierten Zeitfenster wieder in nutzbar irgendwo hinspielen konntest,
genauso definiert sich RAID nur dadurch, die Verfügbarkeit zu erhöhen
und den Ausfall von Einzelkomponenten heil zu überstehen (dabei mal
ausblendend, dass RAID im professionellen Umfeld auch noch was mit
höheren sequentiellen Datentransferraten und Volumes hoher Kapazität zu
tun haben kann).

Und wie soll man das bei diesen Kasperl-RAID-Kisten rausbekommen? Indem
man es testet. Also Platte im laufenden Betrieb rausreißen. Bzw. nicht
einfach rausreißen sondern gaaaanz langsam raus und wieder rein. Und
wieder raus und wieder rein. Und gucken, was passiert. Dann mal die eine
Platte ganz raus, Ersatzplatte rein, Rebuild starten (was eigentlich
automatisch stattfinden sollte). Dann 'ne andere Platte rausziehen und
gucken, was einem RAID-5 so bringt.

Dann mal ein Holzstäbchen hinten zum Netzteillüfter reinstecken und
gucken, was passiert. Oder mal kurz das Stromkabel raus und wieder rein
und gucken, wie's dem Dateisystem geht. Und da Einzelfallbetrachtungen
sinnlos sind, das ganze Prozedere mindestens zehn- besser hundertmal
wiederholen. _Nach_ der Prozedur weißt Du, wie weit Du Deinem RAID-
Kasterl über den Weg trauen kannst und wie es sich in welchen
Situationen verhält. Vorher nicht.

Und das ist das Problem: Man kauft sich da nur ein gutes Gefühl und
vertraut darauf, dass die RAID-Kasterl das einzige, was sie evtl. packen
könnten: also den *schlagartigen* Ausfall einer Platte abzufangen (wenn
man Pech hat, stirbt die Platte aber einen langsamen Tod!), auch
wirklich schaffen. Und schlauer ist man dann erst, wenn der Worst Case
eingetreten ist und die Daten weg sind. Was aber zum Glück eh völlig
wurscht ist, weil man dann halt das Backup einspielt. Ach so, hat man
nicht? Weil einem suggeriert wurde, RAID hätte was mit Datensicherheit
zu tun? Na, dann ist es halt Zeit für einen sauberen Neuanfang.

Meine persönliche Lehre aus 'zig RAID-Dramen über die Jahre ist: Finger
weg, laß das Systemhäuser machen, die ausreichend Stückzahlen bei ihren
Kunden draußen haben. Sollen die sich die blutige Nase holen, wenn mal
wieder irgendwas Irres passiert (dass bspw. ein RAID-Controller mit der
neuen Firmware regelmäßig um Neumond rum Platten als vermeintlich
ausgefallen erkennt und dann immer nach spätestens der dritten Platte
das ganze Array futsch ist, usw. usf.)
Post by Wolfgang Kefurt
Einen 2012er Mini ohne DVD hätte ich sogar (der Sammeltick). Läuft mit
10.8, aber den als Datengrab zu missbrauchen missfällt. :-/
Das Datengrab kann der im Nebenjob unauffällig mitmachen. Und Dank USB
3.0 sogar besonders günstig... und Dank S/PDIF+HDMI+mDP könnte der im
zweiten Nebenjob sogar auch noch Mediacenter spielen.

Gruss,

Thomas
Patrick Kormann
2014-11-24 11:18:02 UTC
Permalink
Post by Wolfgang Kefurt
Wow, nicht schlecht dafür, dass es eigentlich eine ausfallsichere Lösung
sein soll! :-)
'Ausfallsicher' ist halt so ne Sache. Oft kauft man sich nur ein anderes
Problem. Damals, als ich noch ein kleines Rechenzenterchen betrieben
habe war es z.B. auch so, dass unsere Strombedingen Ausfälle exakt 100%
höher waren Dank USV als sie es ohne gewesen wären. (Mehrere Ausfälle
bedingt durch sich aufhängende und später dann kaputte USV, Probleme im
Stromnetz über die ganze Zeit hinweg: 0). Aber das war halt in einer
Stadt in der Schweiz.
Hier in Spanien etwas ausserhalb kriegt ne USV im Schnitt einmal die
Woche zu zeigen, was sie kann (auch wenn's oft nur kurz ist)

Bei den RAIDs war es schon immer so, dass man *ganz* dumm schaut, wenn
der RAID Controller (oder in dem Fall hier: Das NAS) selbst abraucht
statt einer Platte. Sofern man nicht vorgesorgt hat, natürlich.

Das ist IMHO ein guter Punkt für sowas wie FreeNAS. Erstens ist das
ziemlich robust (nur weil man mal kurz die falsche Platte ersetzt ist
nicht gleich alles kaputt) und zweitens, wenn man's physikalisch
hinkriegt die Platten anzuschliessen läuft das zur Not dann noch an
irgend einem Rechner wo FreeNAS virtuell läuft..
Goetz Hoffart
2014-11-24 13:11:02 UTC
Permalink
Post by Patrick Kormann
Damals, als ich noch ein kleines Rechenzenterchen betrieben
habe war es z.B. auch so, dass unsere Strombedingen Ausfälle exakt 100%
höher waren Dank USV als sie es ohne gewesen wären. (Mehrere Ausfälle
bedingt durch sich aufhängende und später dann kaputte USV, Probleme im
Stromnetz über die ganze Zeit hinweg: 0).
Dito in einer südwestdeutschen Großstadt. 8 Jahre, kein Stromwackler.
Zwei defekte USVs. Da hilft halt nur: USVs auch doppelt auslegen. Und
wehe man hat Geräte die keine redundanten Netzteile haben, dann wird es
komplizierter.
Post by Patrick Kormann
Das ist IMHO ein guter Punkt für sowas wie FreeNAS. Erstens ist das
ziemlich robust (nur weil man mal kurz die falsche Platte ersetzt ist
nicht gleich alles kaputt) und zweitens, wenn man's physikalisch
hinkriegt die Platten anzuschliessen läuft das zur Not dann noch an
irgend einem Rechner wo FreeNAS virtuell läuft..
$KOLLEGE hat sich grad mit Anlauf genüßlich in den Fuß geschossen: neue
Platten in einen dickeren Dell R720 (16 Kerne, 128 GB RAM, 8x SAS),
Dell-Setup kommt beim Boot hoch »hab da neue Platten, willst du die
nutzen?«. Er hat etwas zu schnell »Ja« geklickt. RAID leer. Mit 'md'
wäre das so schnell nicht gegangen :-)

Grüße
Götz
--
http://www.knubbelmac.de/
Thomas Kaiser
2014-11-24 13:37:30 UTC
Permalink
Post by Goetz Hoffart
Damals, als ich noch ein kleines Rechenzenterchen betrieben habe war
es z.B. auch so, dass unsere Strombedingen Ausfälle exakt 100% höher
waren Dank USV als sie es ohne gewesen wären. (Mehrere Ausfälle
bedingt durch sich aufhängende und später dann kaputte USV, Probleme
im Stromnetz über die ganze Zeit hinweg: 0).
Dito in einer südwestdeutschen Großstadt. 8 Jahre, kein Stromwackler.
Zwei defekte USVs. Da hilft halt nur: USVs auch doppelt auslegen. Und
wehe man hat Geräte die keine redundanten Netzteile haben, dann wird
es komplizierter.
Dann schafft man die Redundanz halt dadurch, dass man besagte Geräte
doppelt auslegt und die zweite Instanz am Besten in anderem Brand-
abschnitt/Serverraum verbaut! ;-)

Vor paar Monaten Umzug eines der langjährigsten (Ex-)Kunden. Vorher: 2
Serverräume am alten Standort, im produktiven Serverraum alles an einer
USV, im Backup-Serverraum IIRC nur 'ne kleine USV für das 90-TByte-
Monster (und warum auch nicht? Großstadt, kein Stromausfall die letzte
Dekade)

Samstag Mittag zum Kunden an den neuen Standort, um die Server wieder
zum Laufen zu bringen... und erstmal die Ansage:

- "Du kannst noch nicht starten, die Elektriker brauchen noch"
- "Barum?"
- "USV läuft noch nicht."
- "Äh, ok und im zweiten Serverraum? Fahr ich halt den Backup-Kram
erstmal hoch?"
- "Gibt's nicht"
- ...
- "Äh, also nur noch einen Serverraum und alle Systeme an einer USV? Mit
beiden Netzteilen?"
- "Genau"

(keine weiteren Fragen: Mit Mehraufwand die Situation künstlich
verschlechtern)
Post by Goetz Hoffart
Mit 'md' wäre das so schnell nicht gegangen :-)
Und was will man mit md und vielen Platten? RAID-5 ist doof, weil nur
einfache Redundanz und RAID-6 ist doof, weil doppelte Redundanz nie
funktioniert hat sondern im Gegenteil im Normallfall zu Datenverlust
führt, wenn man's braucht (was die ganzen superschlauen Linux-Admins
wohl nie ausprobiert haben, weil "gutes Gefühl" reicht ja auch völlig im
professionellen Umfeld):

https://lkml.org/lkml/2014/8/18/17 (2.6.32 ist von 2009!)

Ach, ich weiß schon, warum ich raidz/ZFS-Fanboi bin :-)

Gruss,

Thomas
Goetz Hoffart
2014-11-24 17:55:24 UTC
Permalink
Post by Thomas Kaiser
https://lkml.org/lkml/2014/8/18/17
Schön!
Post by Thomas Kaiser
Ach, ich weiß schon, warum ich raidz/ZFS-Fanboi bin :-)
Schau mer mal wo btrfs in 2-3 Jahren ist. Die Richtung scheint die
richtige bis jetzt.

Grüße
Götz
--
http://www.knubbelmac.de/
Thomas Kaiser
2014-11-24 18:27:52 UTC
Permalink
Post by Goetz Hoffart
Post by Thomas Kaiser
https://lkml.org/lkml/2014/8/18/17
Schön!
Gell? Und das Beste: Wurde 2009 eingeführt und ist 2014 aufgefallen --
das sagt eigentlich alles. Bzw. das zeigt, dass das entweder niemand
genutzt hat oder dass die Leute einfach blindes Vertrauen über Sachen
ausbreiten, die man testen *muß*.
Post by Goetz Hoffart
Post by Thomas Kaiser
Ach, ich weiß schon, warum ich raidz/ZFS-Fanboi bin :-)
Schau mer mal wo btrfs in 2-3 Jahren ist.
Vielleicht ja schon irgendwo da, wo ZFS vor 7-8 Jahren war? Ich hab just
heute mal den Status Quo bzgl. RAID-5/-6 in btrfs nachgeguckt und kam
aus dem Lachen nicht mehr raus:

http://marc.merlins.org/perso/btrfs/post_2014-03-23_Btrfs-Raid5-Status.html
Post by Goetz Hoffart
Die Richtung scheint die richtige bis jetzt.
Yep. Einziges Problem: Wenn btrfs nicht aufpaßt beim Überqueren der
Straße zwischen Sandkasten und Vorschule wird's evtl. plattgefahren ;-)

Jaja, schon gut. Ich wäre auch sehr froh, wenn btrfs endlich erwachsen
wird bzw. wenigstens mal aus der Pubertät rauskommt. Die FS-Situation
unter Linux ist nicht wirklich schön.

Gruss,

Thomas
Goetz Hoffart
2014-11-24 18:34:56 UTC
Permalink
Post by Thomas Kaiser
Ich hab just
heute mal den Status Quo bzgl. RAID-5/-6 in btrfs nachgeguckt und kam
http://marc.merlins.org/perso/btrfs/post_2014-03-23_Btrfs-Raid5-Status.html
Jo, der Entwickler sagt "experimentell". D.h. »außer Entwickler: Finger
weg«. Ist doch nix falsch dran.
Post by Thomas Kaiser
Post by Goetz Hoffart
Die Richtung scheint die richtige bis jetzt.
Yep. Einziges Problem: Wenn btrfs nicht aufpaßt beim Überqueren der
Straße zwischen Sandkasten und Vorschule wird's evtl. plattgefahren ;-)
Jaja, schon gut. Ich wäre auch sehr froh, wenn btrfs endlich erwachsen
wird bzw. wenigstens mal aus der Pubertät rauskommt. Die FS-Situation
unter Linux ist nicht wirklich schön.
Genau. Und die Paketmanagement-Situation unter Solaris auch nicht. Aber
vielleicht denk ich da auch falsch.

Grüße
Götz
--
http://www.knubbelmac.de/
Thomas Kaiser
2014-11-25 08:08:42 UTC
Permalink
Post by Goetz Hoffart
Ich hab just heute mal den Status Quo bzgl. RAID-5/-6 in btrfs
http://marc.merlins.org/perso/btrfs/post_2014-03-23_Btrfs-Raid5-Status.html
Jo, der Entwickler sagt "experimentell". D.h. »außer Entwickler: Finger
weg«. Ist doch nix falsch dran.
Nee, die Warnung ist richtig. Der Status ist halt unschön unreif, v.a.
wenn man bedenkt, was da noch an -- vielen schlechten mit viel
Datenverlust einhergehenden -- Erfahrungen gesammelt werden muß, damit
das irgendwann mal irgendwas taugt.
Post by Goetz Hoffart
Die FS-Situation unter Linux ist nicht wirklich schön.
Genau. Und die Paketmanagement-Situation unter Solaris auch nicht. Aber
vielleicht denk ich da auch falsch.
Wir sind schon wieder OT deluxe. :-) Aber was an pkgutil ist denn schlimm?

Wenn man mal mit

http://www.opencsw.org/manual/for-administrators/getting-started.html

startet und im Hinterkopf hat, dass man auf Systemen, die eher doof
erreichbar sind (also nicht Pakete nachladen dürfen) oder von eher
Doofen gewartet werden, _vorher_ dicke Packages inklusive _aller_
Abhängigkeiten _supersimpel_ mittels pkgutil bauen kann, die dann der
dortige Admin ohne zu wissen, was er überhaupt tut, per pkgadd
einspielen kann, dann ist doch alles gut?

http://www.opencsw.org/manual/for-administrators/installation-en-masse.html

Also mir reichte das + eine früher ellenlange Liste von Aliasen, die die
Solaris-Horror-CLI-Variante auf das GNU-Pendant unterhalb /opt/csw umbog,
eigentlich aus. Und mit aktuellen Solaris-Versionen ist sogar Letzteres
nicht mehr nötig.

Das geht sogar so weit, dass ich gar nicht wirklich merke, auf welchem
OS ich meist rumschraube. Hab vor 'nem Jahr ca. bei 'nem Kunden versucht
mit Solaris-Methodik einen Dienst einzurichten bzw. zu starten. Durch
mein Genörgel neugierig geworden, schaute mir der Admin über die
Schulter und meinte: "Das ist nicht mehr Solaris. Du hast die Kiste vor
2 Jahren in eine Linux-VM migriert." -- "Und warum heißt der Host dann
FireV880?" -- "Weil Du uns erklärt hast, was wir alles umstellen müssen,
wenn wir den Hostnamen anpassen wollen". Aktive Verdrängung trifft
Pragmatismus.

Gruss,

Thomas
Volker Birk
2014-11-24 22:40:32 UTC
Permalink
Die FS-Situation unter Linux ist nicht wirklich schön.
Wenn ich da mal ergänzend beipflichten darf:

Die FS-Situation ist nicht wirklich schön. Eigentlich fast nirgends.

Viele Grüsse,
VB.
--
“Vor Snowden war das ein Blog mit Verschwörungstheorien.
Nach Snowden ist das ein Security-Newsticker.
Bei unverändertem Inhalt...”
Marc Stibane über Fefes Blog
Thomas Kaiser
2014-11-23 21:18:53 UTC
Permalink
Post by Wolfgang Kefurt
Post by Thomas Kaiser
Und was sollen sie da reinschreiben? "Sorry Leute, wir checken's
leider nicht, nehmen 'ne zu lahme CPU und leisten Versprechen --
cross-platform Zugriff von Windows und Mac problemfrei -- die wir
nicht halten können".
Na zumindest einen Hinweis auf ein gewisses Risiko beim Zugriff in
gemischten Umgebungen könnte drinstehen. Anscheinend sind Probleme
dieser Art aber sehr selten in freier Wildbahn bzw. die User suchen die
Ursachen wo anders.
Ich hab grad mal im Netz gesucht. Sieht so aus, als ob WD da ein
stinknormales Debian Wheezy mit ext4, Netatalk 3.0.x und Samba x.y am
Start hat, man SSH anknipsen kann und sogar beliebig die Konfiguration
feintunen kann. Das ist quasi der sympathische Part.

http://sourceforge.net/p/netatalk/mailman/message/32915006/
http://community.wd.com/t5/WD-My-Cloud/Cannot-connect-via-AFP-SMB-works-fine/td-p/718280
http://community.wd.com/t5/WD-My-Cloud/What-capabiliities-does-My-Cloud-offer-on-the-local-LAN/td-p/601011

Die schlechte Nachricht: Das geht halt mit der Zeit schief, wenn man
parallel mit Samba und Netatalk auf den selben Shares herumwerkelt, weil
dann Netatalks CNID-Datenbanken nicht aufgefrischt werden und das zu
Symptomen wie "boah, ganz schön langsam" bis hin zu "Hä? Wo sind meine
Daten hin" (per AFP nur noch ein Teil sichtbar aber per SMB alles).

Besser funktionieren könnte das Ganze, wenn Samba ab 4.2 zum Einsatz
kommt und richtig parametrisiert wird. Aber sowas wird man in "fix und
fertig"-NAS wohl so schnell nicht sehen. Und die Situation ist auf allen
Linux-basierten NAS identisch, das geht halt schief und die User merkens
im Regelfall nicht bzw. schmeißen irgendwann das NAS weg oder nutzen
gleich nur noch SMB oder was-auch-immer.

Ich bin ja zum Teil auch immer wieder baff, wie Profis mit diesen
Problemen umgehen. Weil meist läuft's auf Ignoranz und "zurück in die
Steinzeit" raus ("Keine Umlaute und Leerzeichen! Das will unser Server
nicht, hab ich Euch schon zehnmal gesagt")
Post by Wolfgang Kefurt
was dein ungeliebtes RAID unnötig macht. ;-)
Mißverständnis: Ich find RAID großartig. Aber nicht in doof. Und darauf
läuft's bei diesen kleinen NAS-Eimern regelmäßig hinaus.
Post by Wolfgang Kefurt
Was soll man dann als Normal-User tun?
Einen Mac ab OS X 10.8 als Server/NAS nehmen. Dann sind die Probleme
alle weg. Oder drauf achten, dass man nicht mit SMB und AFP gemischt auf
ein und den selben Shares werkelt (also Shares trennen, die einen nur
vom Mac per AFP, die anderen nur von Windows aus nutzen. Und eine
Austausch-Share, die plattformübergreifend genutzt wird und wo man bei
auftretenden Problemen per SSH die .AppleDB-Inhalte -- besagte
CNID-Datenbanken -- wegschmeißt)

Perspektivisch auf Samba 4.2/4.3 setzen und AFP vergessen. Da müssen wir
halt auf Ralph warten, dass der mal in die Puschen kommt ;-)

Und meinen Lösungsansatz hab ich ja schon vorgestellt: Ein DIY-NAS, das
von den Kosten her 35,- € für 'nen Banana Pi und nochmal 20,- € für
Gehäuse/Kabel bedeutet plus die dazu passende 3.5"-HDD. Der Banana Pi
kommt auf ca. 35/55 Mbyte/sek schreibend/lesend und hat bei richtigem
Setup der Serverdienste auch kein Geschissel mit mieser Performance beim
Öffnen von Verzeichnissen (aufgrund malader CNID-Datenbanken und sowas).
Und hat die selbe beschissene Ausgangssituation wie alle kommerziellen
NAS, die weniger als 1.000,- € kosten, was Datenintegrität und
-sicherheit angeht.
Post by Wolfgang Kefurt
Zurück zur USB-Disk als (wieder dezentraler) Massenspeicher, oder gar
einen Rechner ständig als Server betreiben, das kann´s ja auch nicht
sein, oder?
Einen Tod muß man halt sterben. Wenn man noch einen älteren Mini als
Mediacenter und NAS umwidmet und den konsequent bei Nichtgebrauch
schlafen legt, dann merkt man vermutlich keinen großen Unterschied bzgl.
Komfort im Vergleich zu einem NAS. Aber im Gegensatz zu all den NAS-
Dingern funktioniert dort Cross-Platform-FileSharing. Und Dank
Wake-on-LAN (was bspw. Fritzboxen inzwischen vollautomatisch machen,
wenn man bspw. auf dem Mac Squeezebox Server [1] läuft und das über eine
Portweiterleitung aus dem Internet erreichbar sein soll. Sobald Du oder
wer anders irgendwo auf der Welt von außen drauf zugreifen will, weckt
die Fritzbox den Mac brav auf).

Oder bei den kommerziellen NAS-Dingern drauf achten, dass man nicht die
Protokolle je Freigabe mischt. Also konsequent von allen Macs nur per
AFP auf Freigaben zugreifen, auf die kein Windows darf. Dann erspart man
sich den CNID-bedingten Ärger und erfreut sich im Regelfall höherer
Performance beim Zugriff auf viele Objekte (also nicht Durchsatz beim
Kopieren sondern so Sachen wie "Ordner öffnen")

Die gute Nachricht: Apple hat AFP abgekündigt, das dauert jetzt nur noch
paar Jahre, bis die NAS-Hersteller das dann auch fehlerfrei in Form der
Samba-Konfiguration umsetzen und dann ist das alles Schnee von gestern.

Gruss,

Thomas

[1] http://www.macupdate.com/app/mac/8973/logitech-media-server
Wolfgang Kefurt
2014-11-23 23:41:47 UTC
Permalink
Post by Thomas Kaiser
Ich hab grad mal im Netz gesucht. Sieht so aus, als ob WD da ein
stinknormales Debian Wheezy mit ext4, Netatalk 3.0.x und Samba x.y am
Start hat, man SSH anknipsen kann und sogar beliebig die Konfiguration
feintunen kann. Das ist quasi der sympathische Part.
http://sourceforge.net/p/netatalk/mailman/message/32915006/
http://community.wd.com/t5/WD-My-Cloud/Cannot-connect-via-AFP-SMB-works-fine/td-p/718280
http://community.wd.com/t5/WD-My-Cloud/What-capabiliities-does-My-Cloud-offer-on-the-local-LAN/td-p/601011
Wobei meine eine Generation davor ist, nämlich *WD MyBook Live Duo*.
Post by Thomas Kaiser
Post by Wolfgang Kefurt
Was soll man dann als Normal-User tun?
Einen Mac ab OS X 10.8 als Server/NAS nehmen. Dann sind die Probleme
alle weg.
Dafür muss/müsste man aber einen Rechner im Dauerbetrieb laufen lassen,
also echter Fileserver mit entsprechendem Energiebedarf. Overkill für
privat denke ich.
Post by Thomas Kaiser
Oder drauf achten, dass man nicht mit SMB und AFP gemischt auf
ein und den selben Shares werkelt (also Shares trennen, die einen nur
vom Mac per AFP, die anderen nur von Windows aus nutzen. Und eine
Austausch-Share, die plattformübergreifend genutzt wird und wo man bei
auftretenden Problemen per SSH die .AppleDB-Inhalte -- besagte
CNID-Datenbanken -- wegschmeißt)
Das steht dann wieder entgegen dem Konzept der "zentralen Datenablage".
Post by Thomas Kaiser
Einen Tod muß man halt sterben. Wenn man noch einen älteren Mini als
Mediacenter und NAS umwidmet und den konsequent bei Nichtgebrauch
schlafen legt, dann merkt man vermutlich keinen großen Unterschied bzgl.
Komfort im Vergleich zu einem NAS. Aber im Gegensatz zu all den NAS-
Dingern funktioniert dort Cross-Platform-FileSharing. Und Dank
Wake-on-LAN (was bspw. Fritzboxen inzwischen vollautomatisch machen,
wenn man bspw. auf dem Mac Squeezebox Server [1] läuft und das über eine
Portweiterleitung aus dem Internet erreichbar sein soll. Sobald Du oder
wer anders irgendwo auf der Welt von außen drauf zugreifen will, weckt
die Fritzbox den Mac brav auf).
Muss ich verinnerlichen. Einen Mini als Datengrab zu opfern würde
irgendwie weh tun, außerdem müsste ja noch eine halbwegs üppige HD dran.
Post by Thomas Kaiser
Oder bei den kommerziellen NAS-Dingern drauf achten, dass man nicht die
Protokolle je Freigabe mischt. Also konsequent von allen Macs nur per
AFP auf Freigaben zugreifen, auf die kein Windows darf. Dann erspart man
sich den CNID-bedingten Ärger und erfreut sich im Regelfall höherer
Performance beim Zugriff auf viele Objekte (also nicht Durchsatz beim
Kopieren sondern so Sachen wie "Ordner öffnen")
Das sollte zu schaffen sein.
Jetzt bin ich ja etwas schlauer...
Post by Thomas Kaiser
Die gute Nachricht: Apple hat AFP abgekündigt, das dauert jetzt nur noch
paar Jahre, bis die NAS-Hersteller das dann auch fehlerfrei in Form der
Samba-Konfiguration umsetzen und dann ist das alles Schnee von gestern.
Na toll, dann kommt die nächste Fragerunde. :-)
--
Grüße
Wolfgang
Thomas Kaiser
2014-11-24 09:04:18 UTC
Permalink
Post by Wolfgang Kefurt
Post by Thomas Kaiser
Einen Mac ab OS X 10.8 als Server/NAS nehmen. Dann sind die Probleme
alle weg.
Dafür muss/müsste man aber einen Rechner im Dauerbetrieb laufen
lassen, also echter Fileserver mit entsprechendem Energiebedarf.
Overkill für privat denke ich.
"Rechner" ist relativ. So ein NAS ist ja auch nix weiter als ein
Rechner, dessen Energieeffizienz in allererster Linie davon abhängt, wie
er mit den Platten umgeht und wie das Netzteil dimensioniert ist. Mich
interessieren diese ganzen Billig-NAS schon prinzipiell nicht, daher
null eigene Erfahrungen. Aber wenn man bspw. das hier

http://www.pc-magazin.de/vergleichstest/nas-test-netzwerkfestplatte-vergleich-qnap-synology-netgear-1543720.html

überfliegt, dann kann man schon erahnen, dass das Buffalo-Dings, das
weder die Platten nach 'ner gewissen Zeit schlafen schickt noch einen
Zeitplanmodus hat, um sich bspw. nachts runterzufahren, noch Wake-on-LAN
kann, deutlich mehr verbrät als ein vernünftig als Mediacenter/NAS
aufgesetzter Mini:

http://support.apple.com/de-de/HT3468

Ein aktueller Mac unter einem aktuellen OS X verbraucht _selbst_ so gut
wie gar keine Energie, wenn nix zu tun ist. Das Spannende hier wie dort
sind die Platten, d.h. wenn man am Mini eine Batterie 3,5"-HDDs hängen
hat und deren Powermanagement und der Wirkungsgrad der Netzteile blöd
ist, dann steht auf einmal Götz' N54L besser da. Das Problem an
Netzteilen ist regelmäßig, dass sie a) hochgradig ineffizient werden,
wenn ihre Leistung nur bisserl gefordert ist aber b) natürlich
ausreichend Reserven haben müssen, falls die Kiste unter Vollast
betrieben wird (da kommen die 85W beim Mini her)

Bei sowas wie 'nem Banana Pi als Basis für ein DIY-NAS sieht's auf den
ersten Blick fantastisch aus, weil der selbst unter Volllast keine 4
Watt verbraucht -- solange keine Platten ins Spiel kommen. Will ich da
dran 3,5" HDDs betreiben, braucht's auch noch 12V und davon bitte 2A _je
Platte_, weil die beim Hochfahren kurzzeitig so viel brauchen.

D.h. obwohl bspw. 'ne WD Green im Betrieb mit 5-7 Watt auskommt, brauch
ich ein deutlich überdimensionierteres Netzteil, um die Peaks beim
Spin-Up abzufangen und hab am Ende wieder ein Netzteil, das die meiste
Zeit in einem ineffizienten Lastbereich betrieben wird. Kombiniert man
sowas wie 'nen Banana Pi hingegen mit einer 2,5" HDD, dann kommt man am
Ende mit einer 2A/5V-Wandwarze aus, weil selbst 2TB fassende Platten für
den Spin-Up keine 5 Watt brauchen. Dann hast Du ein "Gesamtsystem", das
selbst mit 24/7 durchlaufender Platte im Schnitt irgendwo zwischen 5 und
10 Watt verbraucht -- und zwar Steckdosenseitig, d.h. inkl. Netzteil-
verluste.

Aber eigentlich ist dieser Betriebsmodus doof, denn ein NAS sollte den
überwiegenden Teil der Zeit die Platte(n) schlafen legen. Und dann
unterscheidet sich der Gesamtenergieverbauch übers Jahr gesehen eh nicht
mehr so drastisch zwischen Banana Pi, Mac Mini, N54L oder einem
Fertig-NAS (wenn dieses vernünftig konfiguriert ist, siehe oben das
Negativbeispiel Buffalo)
Post by Wolfgang Kefurt
Post by Thomas Kaiser
Oder drauf achten, dass man nicht mit SMB und AFP gemischt auf ein
und den selben Shares werkelt (also Shares trennen, die einen nur vom
Mac per AFP, die anderen nur von Windows aus nutzen. Und eine
Austausch-Share, die plattformübergreifend genutzt wird und wo man
bei auftretenden Problemen per SSH die .AppleDB-Inhalte -- besagte
CNID-Datenbanken -- wegschmeißt)
Das steht dann wieder entgegen dem Konzept der "zentralen
Datenablage".
Wenn Du nur Macs ab mindestens 10.7 im Einsatz hast, kannst Du auch
komplett auf AFP verzichten und dann auf SMB setzen. Wie schnell das
dann ist bei Dir, keine Ahnung. Gerüchtehalber hat Apple in 10.10 den
SMB-Client aufgebohrt, dass der jetzt keine solchen Schwächen mehr beim
Öffnen von Verzeichnissen mit viel Inhalt hat. Aber alles noch nicht
ausprobiert.
Post by Wolfgang Kefurt
Post by Thomas Kaiser
Einen Tod muß man halt sterben.
;-)
Post by Wolfgang Kefurt
Muss ich verinnerlichen. Einen Mini als Datengrab zu opfern würde
irgendwie weh tun, außerdem müsste ja noch eine halbwegs üppige HD dran.
Wenn noch ein Mini rumsteht, warum den nicht dafür nehmen? Der büßt ja
dadurch keine Funktionalität ein, die er jetzt hat. Der muß nicht
headless betrieben werden, sondern an dem kann ganz normal gewerkelt
werden.

Und wegen üppiger Platte(n): Samsung hat 2TB Notebook-HDs im Programm,
die nicht mehr so dick auftragen (man kann mit Ach und Krach 2 15mm hohe
HDDs in einen Mini stopfen aber das ist doof):

http://geizhals.at/de/?cat=hde7s&xf=1080_SATA+1.5Gb%2Fs%7E1080_SATA+3Gb%2Fs%7E1080_SATA+6Gb%2Fs%7E958_2000%7E3772_2.5#xf_top

Und in jedem Fall gehört extern dann entsprechendes Backup-Gedöns an den
Mini. _Meiner Meinung nach_ reicht USB 2.0 für den Zweck völlig, ich
würde aber Stand heute kein USB2.0-Gehäuse mehr kaufen, weil wäre ja
doof zwengs Zukunft und so. Und ich würde auch niemals irgendeine
"fertige" externe Platte kaufen, weil man weder weiß, was da drin an
Platte verbaut ist, noch was der Bridge-Chip zwischen SATA und USB kann.

D.h. _ich_ würde ein 3,5"-Gehäuse suchen, das USB 3.0 in richtig kann
(UASP und SAT), bspw. das IB-366StU3+B:

http://geizhals.at/de/raidsonic-icy-box-ib-366stu3-b-20470-a976791.html

(die Modelle mit + im Namen deuten bei denen drauf hin, dass sie moderne
USB3-zu-SATA-Bridges einbauen, die eben auch diese schicken Features
haben). Ich würde aber mindestens 2 externe HDDs im Wechsel als Time-
Machine-Medium laufen lassen, läßt sich bspw. über eine USB-Steckdosen-
leiste wunderhübsch vom Mac aus ein-/ausschalten: Die Gembird EG-PM2
bspw.:

http://geizhals.at/de/231255382

Das zugehörige Progrämmchen http://sispmctl.sourceforge.net läuft auch
unter OS X:

macbookpro-tk:~ tk$ brew search sispmctl
sispmctl

(BTW: Ich schreib demnächst ein sog. CUPS-Backend, das wenn an Mac oder
Linux so eine USB-Steckdosenleiste angeschlossen ist, je schaltbarer
Dose einen Pseudo-Drucker zur Verfügung stellt, der dann ganz simpel mit
bspw. Laserdruckern zusammen so genutzt werden kann, dass eingehende
Druckjobs -- also wenn man sein NAS dann auch als Druckserver mißbraucht
-- automatisch den Drucker einschalten und man am Ende des Gedruckes
einfach eine leere Seite auf den "Dose 3 ausschalten"-Pseudodrucker
schickt, damit er wieder ausgeschalten wird)
Post by Wolfgang Kefurt
Post by Thomas Kaiser
Die gute Nachricht: Apple hat AFP abgekündigt, das dauert jetzt nur
noch paar Jahre, bis die NAS-Hersteller das dann auch fehlerfrei in
Form der Samba-Konfiguration umsetzen und dann ist das alles Schnee
von gestern.
Na toll, dann kommt die nächste Fragerunde. :-)
Naja, aber kaum im Zusammenhang mit den Basisfunktionalitäten wie
Dateisharing. Ich denke, dass Dir Stand jetz noch gar nicht klar ist,
dass es den ganzen NAS-Aufwertungs-Kram (Mediacenter, Cloud-Blabla,
etc.) auch für DIY-NAS gibt, sei es, dass das ein stinknormaler Mini
unter OS X ist, eine Linux-Kiste wie ein Banana Pi mit bspw. OMV
<http://www.openmediavault.org> oder bspw. ein N54L mit FreeNAS und
entsprechenden Plugins: http://www.freenas.org/downloads/plugins/9/x64/

Man darf aber nicht den Fehler machen, alles einfach so zu installieren,
was einem in die Hände fällt, denn wie in allen Bereichen gibt es auch
im OpenSource-Metier Projekte, deren Anspruch und Wirklichkeit böse
auseinanderklaffen. Wer sich bspw. einen "Cloud-Ersatz" einfängt, der
inzwischen eigene Seiten bei Schwachstellenauflistungs-Seiten verbuchen
kann, macht definitiv was falsch:

http://www.cvedetails.com/product/22262/Owncloud-Owncloud.html?vendor_id=11929

Gruss,

Thomas
Wolfgang Kefurt
2014-11-24 12:56:55 UTC
Permalink
...eine Menge aufklärendes Zeug, so dass mir jetzt die Birne raucht
und ich wirklich ernsthaft nachdenken muss, ob und was ich wirklich
ändere. :-)
Lesestoff für lange Winterabende habe ich ja nun genug.
Danke für die Links!

Werde zusehen wie ich nun weiter verfahre. Große externe Backup-Platte
muss dann ja auch noch her usw.. Die Kopiergeschwindigkeit um die es mir
ursprünglich ging, ist mittlerweile zur Fußnote verkommen. Vielmehr
überlege ich nun nach dem bisherigen Thread viel intensiver, ob ich
nicht unverzüglich meine Daten noch auf eine externe Platte sichern sollte.
;-)
--
Grüße
Wolfgang
Thomas Kaiser
2014-11-24 14:23:16 UTC
Permalink
Post by Wolfgang Kefurt
überlege ich nun nach dem bisherigen Thread viel intensiver, ob ich
nicht unverzüglich meine Daten noch auf eine externe Platte sichern sollte.
Das solltest Du in jedem Fall, _falls_ die Daten was wert sind. Und
"sichern" bedeutet automatisch *nicht* nur spiegeln (wie es das im
Home-/SOHO-Bereich unsinnige RAID-1 macht).

Und wenn Du 'nen Mac als (nebenberufliches) Datengrab auserküren
solltest, dann ist die Einstiegshürde ziemlich niedrig bzw. nicht
existent: TimeMachine. Bei 'nem Fertig-NAS kannst Du erstmal das
Evaluieren anfangen, was sich dort konkret hinter irgendwelchen als
"Backup" beworbenen Funktionen verbirgt (mit bisserl Pech ist das dann
nämlich auch nur wieder dummes 1:1 Gesynce und damit hast Du im
Vergleich zu RAID-1 fast nix gewonnen außer dass Du aufgrund der
Zeitverzögerung zwischen den Syncs evtl. noch was retten kannst, wenn Du
rechtzeitig bemerkst, dass Du einen "Restore-Bedarf" haben solltest)

Gruss,

Thomas
Hermann Schaefer
2014-11-24 18:14:45 UTC
Permalink
Post by Thomas Kaiser
Und wenn Du 'nen Mac als (nebenberufliches) Datengrab auserküren
solltest
auserkiesen.. ^^
Ingo Keck
2014-11-24 16:45:20 UTC
Permalink
Thomas Kaiser <***@phg-online.de> wrote:

[...]
Post by Thomas Kaiser
D.h. obwohl bspw. 'ne WD Green im Betrieb mit 5-7 Watt auskommt, brauch
ich ein deutlich überdimensionierteres Netzteil, um die Peaks beim
Spin-Up abzufangen und hab am Ende wieder ein Netzteil, das die meiste
Zeit in einem ineffizienten Lastbereich betrieben wird.
Dumme Frage: Was spricht dagegen, da einen etwas größeren Kondensator
oder gleich einen Akku dran zu hängen, der die fehlenden 1.5A beim
Starten liefert und ansonsten unauffällig ist?

Ingo.
--
GeorgeSLO: We all know what happens to evil villans in the end.
Kevin C: They leave their jobs at Goldman Sachs, Haliburton, etc and
take positions in the federal government.
(user comments on Yehuda Moon)
Thomas Kaiser
2014-11-24 17:37:50 UTC
Permalink
Post by Ingo Keck
[...]
Post by Thomas Kaiser
D.h. obwohl bspw. 'ne WD Green im Betrieb mit 5-7 Watt auskommt,
brauch ich ein deutlich überdimensionierteres Netzteil, um die Peaks
beim Spin-Up abzufangen und hab am Ende wieder ein Netzteil, das die
meiste Zeit in einem ineffizienten Lastbereich betrieben wird.
Dumme Frage: Was spricht dagegen, da einen etwas größeren Kondensator
oder gleich einen Akku dran zu hängen, der die fehlenden 1.5A beim
Starten liefert und ansonsten unauffällig ist?
Evtl. nur, dass ich ein Elektrik-Depp bin und an der Stelle auf Nummer
sicher gehen will. Ich hab da bisserl rumgesucht (wegen einem VOLTEK
SPEC7188B, das mit seinen 12V/0,6A eigentlich für den Betrieb einer
sparsamen WD Green ausreichend sein sollte aber den Spin-Up niemals
packt) und das las sich alles nach deutlich komplizierter, weil ein
dicker Kondensator ohne weitere Vorsichtsmaßnahmen auch nicht ganz ohne
ist. Und Akku braucht dann wieder Ladeschaltung usw. usf.

Ich muß das Thema mal mit 'nem Elektrik-Checker durchgehen, denn bei
allem, was in Flammen aufgehen kann, ist Halbwissen IMO ein schlechter
Ratgeber.

Im Profi-Umfeld federt man das Problem ja durch verzögertes Hochfahren
der Platten ab und dass die konsequent durchrotieren. Da braucht's dann
auch keine Angabe bzgl. 'peak current' im Datenblatt und es reicht eine
Reserve im zweistelligen Watt-Bereich. Die Gehäuse für "Billig-RAID"
sind vom Netzteil aber trotzdem auf den Worst-Case ausgelegt. Ein SC847J
bspw. (passen 45 3,5" HDDs rein) kommt mit 1.400 Watt Netzteil daher,
was je Platte knapp 3A Peak macht. Offensichtlich rechnen die damit,
dass es Leute gibt, die alle Platten synchron hochfahren wollen.

Ganz interessant in dem Kontext die Erfahrungen rund um "Open Vault"
(die Cloud-Giganten machen ja teils auf "open source hardware"):

http://www.opencompute.org/projects/storage/

Die packen 30 performante HDDs auf 2 Höheneinheiten, fahren die in 5
Gruppen hoch und haben recht klare Vorstellungen davon, in welchem
Lastbereich sie die Netzteile und Co. betreiben, weil das Dings auch ein
Musterbeispiel für Hardware-Monitoring ist -- und man das auch mal
nachlesen kann)

Gruss,

Thomas
Ingo Keck
2014-11-25 10:41:17 UTC
Permalink
[...]
Post by Thomas Kaiser
Post by Ingo Keck
Dumme Frage: Was spricht dagegen, da einen etwas größeren Kondensator
oder gleich einen Akku dran zu hängen, der die fehlenden 1.5A beim
Starten liefert und ansonsten unauffällig ist?
Evtl. nur, dass ich ein Elektrik-Depp bin und an der Stelle auf Nummer
sicher gehen will. Ich hab da bisserl rumgesucht (wegen einem VOLTEK
SPEC7188B, das mit seinen 12V/0,6A eigentlich für den Betrieb einer
sparsamen WD Green ausreichend sein sollte aber den Spin-Up niemals
packt) und das las sich alles nach deutlich komplizierter, weil ein
dicker Kondensator ohne weitere Vorsichtsmaßnahmen auch nicht ganz ohne
ist. Und Akku braucht dann wieder Ladeschaltung usw. usf.
Die Lösung der Kondensatoren sollte elektrisch problemlos sein (einfach
parallel zum 12V schalten, wie bei den guten alten
Gleichrichternetzteilen), aber braucht wohl zu viel Platz. 1A/s = 1F und
sie müssen das auch liefern können, also kleine Innenwiderstände, keine
Goldcaps. Oder hab ich was übersehen?

Batterie-mäßig wäre ein Blei-Gel-Akku AFAIK problemlos. NiMH sind auch
gutmütig, brauchen aber IIRC doch eine Ladestrombegrenzung.

Oder ein zusätzliches Netzteil beim Start parallel schalten und danach
wieder abtrennen? Schaltungstechnisch deutlicher Mehraufwand.

Vermutlich wäre Blei-Geld mit gleichzeitiger Kontrolle des Netzteils das
einfachste und kann gleich als geordnet-runterfahr-USV missbraucht
werden.

[...]
Post by Thomas Kaiser
Ganz interessant in dem Kontext die Erfahrungen rund um "Open Vault"
http://www.opencompute.org/projects/storage/
Die packen 30 performante HDDs auf 2 Höheneinheiten, fahren die in 5
Gruppen hoch und haben recht klare Vorstellungen davon, in welchem
Lastbereich sie die Netzteile und Co. betreiben, weil das Dings auch ein
Musterbeispiel für Hardware-Monitoring ist -- und man das auch mal
nachlesen kann)
Ich seh dich schon einen batteriegepufferten Arduino in dein NAS bauen
um alle Parameter unabhängig auslesen zu können. :-)

Ingo.
--
GeorgeSLO: We all know what happens to evil villans in the end.
Kevin C: They leave their jobs at Goldman Sachs, Haliburton, etc and
take positions in the federal government.
(user comments on Yehuda Moon)
Thomas Kaiser
2014-11-25 11:39:35 UTC
Permalink
Post by Ingo Keck
[...]
Post by Thomas Kaiser
Post by Ingo Keck
Dumme Frage: Was spricht dagegen, da einen etwas größeren
Kondensator oder gleich einen Akku dran zu hängen, der die
fehlenden 1.5A beim Starten liefert und ansonsten unauffällig ist?
Evtl. nur, dass ich ein Elektrik-Depp bin und an der Stelle auf
Nummer sicher gehen will. Ich hab da bisserl rumgesucht (wegen einem
VOLTEK SPEC7188B, das mit seinen 12V/0,6A eigentlich für den Betrieb
einer sparsamen WD Green ausreichend sein sollte aber den Spin-Up
niemals packt) und das las sich alles nach deutlich komplizierter,
weil ein dicker Kondensator ohne weitere Vorsichtsmaßnahmen auch
nicht ganz ohne ist. Und Akku braucht dann wieder Ladeschaltung usw.
usf.
Die Lösung der Kondensatoren sollte elektrisch problemlos sein
(einfach parallel zum 12V schalten, wie bei den guten alten
Gleichrichternetzteilen), aber braucht wohl zu viel Platz. 1A/s = 1F
und sie müssen das auch liefern können, also kleine Innenwiderstände,
keine Goldcaps. Oder hab ich was übersehen?
Was ich so gelesen hatte, dass die Dinger dann auch schon wieder ganz
schön teuer werden können?
Post by Ingo Keck
Batterie-mäßig wäre ein Blei-Gel-Akku AFAIK problemlos. NiMH sind auch
gutmütig, brauchen aber IIRC doch eine Ladestrombegrenzung.
Oder ein zusätzliches Netzteil beim Start parallel schalten und danach
wieder abtrennen? Schaltungstechnisch deutlicher Mehraufwand.
Und das Problem ist, dass es ja eigentlich nicht um "Start" geht sondern
dass wenn man die Platte schlafen legt sie eben für paar Sekunden beim
nächsten Spin-Up, der je nach Software-Randbedingungen quasi jederzeit
anstehen kann, den zusätzlichen Saft auf der 12V-Schiene bereitstellen
müsste.
Post by Ingo Keck
Vermutlich wäre Blei-Geld mit gleichzeitiger Kontrolle des Netzteils
das einfachste und kann gleich als geordnet-runterfahr-USV missbraucht
werden.
Das "Witzige" ist, dass wenn ich auf die fixe Idee »3,5"-HDD« verzichten
würde, die Probleme gar nicht existent wären, denn diese typischen ARM-
Boards haben ja alle schon den ganzen Akkukram für sowas wie USV an Bord
(weil das natürliche Umfeld der Dinger sind ja eigentlich Smartphones
und Tablets). Da man mit 2,5"-HDDs aber aktuell nur 2TByte maximal
speichern kann und das in den Zeiten des allgegenwärtigen TByte-Wahns
nix ist, v.a. wenn das eigentlich ein Backup-Ziel werden soll, das mehr
Kapazität als der produktive Storage braucht, führt der Verzicht auf
3,5"-HDDs das Projekt bisserl ad absurdum.
Post by Ingo Keck
Ich seh dich schon einen batteriegepufferten Arduino in dein NAS bauen
um alle Parameter unabhängig auslesen zu können. :-)
Bislang geh ich immer noch davon aus, dass das ARM-Board selbst dazu in
der Lage sein wird, immerhin kommen die Dinger ja mit 'zig GPIO-Pins auf
denen die in dem Bereich sinnvollen Chosen wie 1-Wire, I2C, SPI und UART
verfügbar sind, um simpel Sensoren auslesen und Informationen absondern
zu können.

Und wenn würde ich nicht auf Arduino sondern Intels Edison [1] setzen.
Schon alleine weil die Idee so schön gaga ist, auf der Größe einer
SD-Card deren 3 CPU-Cores, die unter 2 OS laufen, mit 1 GByte RAM und 4
GByte eMMC Flash zur Seite und 802.11ac und Bluetooth 4.0 und und und
unterzubringen.

Gruss,

Thomas

[1] http://heise.de/-2390262
Ingo Keck
2014-11-25 20:56:21 UTC
Permalink
[...]
Post by Thomas Kaiser
Post by Ingo Keck
Die Lösung der Kondensatoren sollte elektrisch problemlos sein
(einfach parallel zum 12V schalten, wie bei den guten alten
Gleichrichternetzteilen), aber braucht wohl zu viel Platz. 1A/s = 1F
und sie müssen das auch liefern können, also kleine Innenwiderstände,
keine Goldcaps. Oder hab ich was übersehen?
Was ich so gelesen hatte, dass die Dinger dann auch schon wieder ganz
schön teuer werden können?
Ja.
Post by Thomas Kaiser
Post by Ingo Keck
Batterie-mäßig wäre ein Blei-Gel-Akku AFAIK problemlos. NiMH sind auch
gutmütig, brauchen aber IIRC doch eine Ladestrombegrenzung.
Fürs Archiv: Blei-Gel brauchen in erster Linie eine
Ladespannungsbegrenzung. Deswegen sollten sie im konkreten Fall
unproblematisch sein. Nur ein Tiefentladungschutz ist anzuraten.
Post by Thomas Kaiser
Post by Ingo Keck
Oder ein zusätzliches Netzteil beim Start parallel schalten und danach
wieder abtrennen? Schaltungstechnisch deutlicher Mehraufwand.
Und das Problem ist, dass es ja eigentlich nicht um "Start" geht sondern
dass wenn man die Platte schlafen legt sie eben für paar Sekunden beim
nächsten Spin-Up, der je nach Software-Randbedingungen quasi jederzeit
anstehen kann, den zusätzlichen Saft auf der 12V-Schiene bereitstellen
müsste.
Also doch Blei-Gel Akku parallel zur Stromversorgung schalten.
Sicherstellen, dass er nicht tiefentladen werden kann.

[...]
Post by Thomas Kaiser
Post by Ingo Keck
Ich seh dich schon einen batteriegepufferten Arduino in dein NAS bauen
um alle Parameter unabhängig auslesen zu können. :-)
Bislang geh ich immer noch davon aus, dass das ARM-Board selbst dazu in
der Lage sein wird, immerhin kommen die Dinger ja mit 'zig GPIO-Pins auf
denen die in dem Bereich sinnvollen Chosen wie 1-Wire, I2C, SPI und UART
verfügbar sind, um simpel Sensoren auslesen und Informationen absondern
zu können.
Ich hätte die Überwachung lieber unabhängig davon. Stell dir vor
irgendwas geht schief und der ARM ist weg vom Fenster (z.B. dank
Spannungseinbruch). Damit fehlen dir auf jeden Fall die Daten kurz bevor
der Fehler auftrat, selbst wenn Du sie regelmäßig übers Netz schickst.
Mit einer unabhängigen Überwachung hast Du Daten rund um den Event.
Post by Thomas Kaiser
Und wenn würde ich nicht auf Arduino sondern Intels Edison [1] setzen.
Pah, http://www.micropython.org/ rules. Wer will schon Wifi...

Ingo.
--
GeorgeSLO: We all know what happens to evil villans in the end.
Kevin C: They leave their jobs at Goldman Sachs, Haliburton, etc and
take positions in the federal government.
(user comments on Yehuda Moon)
Thomas Kaiser
2014-11-26 09:11:42 UTC
Permalink
Post by Ingo Keck
Fürs Archiv: Blei-Gel brauchen in erster Linie eine
Ladespannungsbegrenzung. Deswegen sollten sie im konkreten Fall
unproblematisch sein. Nur ein Tiefentladungschutz ist anzuraten.
Vorgemerkt für die vorweihnachtliche Session mit dem Elektro-Checker.
Post by Ingo Keck
Ich hätte die Überwachung lieber unabhängig davon. Stell dir vor
irgendwas geht schief und der ARM ist weg vom Fenster (z.B. dank
Spannungseinbruch). Damit fehlen dir auf jeden Fall die Daten kurz
bevor der Fehler auftrat, selbst wenn Du sie regelmäßig übers Netz
schickst. Mit einer unabhängigen Überwachung hast Du Daten rund um den
Event.
Valider Punkt, grad wenn man sich an eine Lösung erst herantastet.
Uargs, noch ein neues Faß aufmachen...

Aber für die Evaluierungsphase tendiere ich dann eher zur Zweit-Banane
wie jetzt schon auch im Einsatz gewesen bei Messungen unter Last (dann
wird so ein schwachbrüstiges ARM-Board ohne RT-OS auf einmal hübsch
unzuverlässig und kann Sensoren nicht mehr auslesen, etc. pp. -- drum
<Loading Image...>. Aber mal schauen, evtl.
wächst mir der ganze low-level- und Hardware-Kram eh einfach nur über
den Kopf :-)
Post by Ingo Keck
Post by Thomas Kaiser
Und wenn würde ich nicht auf Arduino sondern Intels Edison [1] setzen.
Pah, http://www.micropython.org/ rules. Wer will schon Wifi...
Ach, herrje, was es alles gibt :-)

Auch interessant. Aber ich als Software-Spezi fühl mich auf dem
Embedded-Zeugs immer gleich so unwohl, wenn nicht wenigstens ein
ausgewachsenes Linux drauf läuft ("Was der Bauer ned kennt, frißt er
ned")

Dank' und Gruss,

Thomas
Dominik Schlütter
2014-11-26 12:23:58 UTC
Permalink
Post by Thomas Kaiser
Aber für die Evaluierungsphase tendiere ich dann eher zur Zweit-Banane
wie jetzt schon auch im Einsatz gewesen bei Messungen unter Last (dann
wird so ein schwachbrüstiges ARM-Board ohne RT-OS auf einmal hübsch
unzuverlässig und kann Sensoren nicht mehr auslesen, etc. pp. -- drum
<http://kaiser-edv.de/tmp/43iJIq/IMG_4829.JPG>.
Ich halte einen kleinen ATMega nicht für die schlechteste Idee. Ich habe
hier auch gerade ein Projekt mit derartiger Hardware, der Banana Pi
dient dabei als zentraler Datenbankknoten - dazu hat er eine kleine SSD
bekommen und kommuniziert seriell über die GPIO-Steckerleiste mit einem
Zusatzboard, auf dem ein ATMega328 sitzt, der wiederum Sensordaten im
433MHz-Band einsammelt und weitergibt.

Mich hat vor allem das Kabelgewusel genervt, zumal ich das Teil jetzt in
der Test- und Bastelphase ständig herumschleppe (und die Anschlüsse
verteilen sich ja rundherum). Also habe ich mir erst mal einen Spacer
mit Kabelkanälen gedruckt, das ist jetzt schon mal nur ein Teil
<Loading Image...> - das wird
statt der unnützen schwarzen Plastikumrandung der Intel320-SSD
aufgeschraubt.

Dieses Setup ist auch um Welten schneller als ein Raspberry Pi, der von
SD-Karte bootet. Ich würde jetzt gerne noch die SD-Karte komplett
weglassen können, aber das ist ja leider nicht vorgesehen.

Dazu braucht es noch eine Batterie für die RTC (Lötpunkte sind ja
bereits da - oder weiß jemand, welchen Supercap man da nehmen kann?) und
dann das Aufsteckboard mit ATMega und RFM69-Funkmodul. Gehäuse kommt
irgendwann zum Schluss, mal schauen ob ich was drucke oder aus Holz
fräse. Aber das ist jetzt alles ziemlich weit vom Thema weg ... :-).
Post by Thomas Kaiser
[Intels Edison, Micropython]
Ach, herrje, was es alles gibt :-)
Ja, da gibts inzwischen viele nette Spielzeuge. Letzte Woche war
Spark.io build night, die haben mit dem Photon/P0 auch interessante
Hardware <https://www.spark.io> - aber da läuft alles über "die Cloud",
vom Editor über den Compiler bis hin zum WLAN-API. Muss man mögen (aber
den Server gibts inzwischen als OpenSource, man kann sich also seine
eigene Cloud bauen).
Post by Thomas Kaiser
Auch interessant. Aber ich als Software-Spezi fühl mich auf dem
Embedded-Zeugs immer gleich so unwohl, wenn nicht wenigstens ein
ausgewachsenes Linux drauf läuft ("Was der Bauer ned kennt, frißt er
ned")
Das schöne an Arduinos ist, dass man sich mit dem ganzen Kram nicht
abgeben muss. Kein Scheduler, kein Speichermanagement - nur ein Job auf
"bare metal". Macht vieles einfacher. Und ist billig, es braucht nur
<http://www.banggood.com/20Pcs-Microcontroller-IC-ATMEGA328P-AU-TQFP-32-ATMEL-Chip-p-944259.html>
und drei 100nF-Kondensatoren, fertig ist der Arduino-Klon. Na gut, eine
LED mit Vorwiderstand und einen FTDI-Stecker will man auch noch.


Gruß,

Dominik.


(... der dieses Jahr im Fablab EAGLE, Platinen fräsen und SMD löten
gelernt hat :-)
Thomas Kaiser
2014-11-26 13:29:04 UTC
Permalink
Spacer mit Kabelkanälen gedruckt, das ist jetzt schon mal nur ein Teil
<http://ultravelours.com/_pix/20141111_IMG03255_spacer.jpg> - das wird
statt der unnützen schwarzen Plastikumrandung der Intel320-SSD
aufgeschraubt.
Schick und sinnvoll :-) Und auch so'n neues Faß, die 3D-Druckerei.
Dieses Setup ist auch um Welten schneller als ein Raspberry Pi, der
von SD-Karte bootet. Ich würde jetzt gerne noch die SD-Karte komplett
weglassen können, aber das ist ja leider nicht vorgesehen.
Aber auch nicht schlimm, denn es braucht ja wirklich nur fast nix auf
der SD-Card, wenn das rootfs auf SATA oder USB liegt. Ich muß endlich
mal 'ne Mail im Bekanntenkreis rumschicken, dass ich alle uralten und
egal wie grindigen SD-Karten gerne "entsorge", weil für den Zweck tut's
auch die lahmste/kleinste. Dann dauert halt das Booten 1 Sek. länger.
Post by Thomas Kaiser
Auch interessant. Aber ich als Software-Spezi fühl mich auf dem
Embedded-Zeugs immer gleich so unwohl, wenn nicht wenigstens ein
ausgewachsenes Linux drauf läuft ("Was der Bauer ned kennt, frißt er
ned")
Das schöne an Arduinos ist, dass man sich mit dem ganzen Kram nicht
abgeben muss. Kein Scheduler, kein Speichermanagement - nur ein Job
auf "bare metal". Macht vieles einfacher.
Aber fremde Welt, an die man sich (ich zumindest mich) erstmal gewöhnen
muß. Ich komm ja aus genau der anderen Ecke, also dem Server- und
Software-Umfeld und find an diesen Single-Board-Computern erstmal vor
allem so toll, dass man trotz vertrautem Umfeld (AKA Linux) mit
minimalem Aufwand zusätzliche Hardware damit verheiraten kann und sich
dann ganz neue Einsatzmöglichkeiten ergeben.

Am Beispiel des vorher geposteten Büro-Setups mit einem Banana Pi je
Flurende, wo Laserdrucker und Einzugscanner stehen. Für schlappe 60,-

1 x http://www.exp-tech.de/Shields/MOD-RFID1356-USB-RFDI-Reader.html
20 x http://www.exp-tech.de/Shields/Wireless/RFID/RFID1356-Key-RFID-Tag-for-MOD-RFID1356.html
1 x LED für OK-Anzeige

kann man aus dem "Einzugscanner wirft Scans stumpf auf Bananas SMB-
Freigabe" einen "Einzugscanner mailt User seine Scans zu, wenn der
direkt vorher seinen Schlüsselbund bzw. das RFID-Token genutzt hat"
machen.

Und wenn man nochmal sagenhafte 5,-€ mehr investiert, dann erledigt man
gleich noch "authentifiziertes/geschütztes Drucken per PIN" mit:

http://www.exp-tech.de/Zubehoer/Taste-Schalter/Keypad-12-Button.html

Dafür braucht's 'ne bisserl modifizierte PPD auf den Macs, eine
spezielle CUPS-Queue und bisserl Code, um zus. zu RFID das Tastenfeld
auszulesen. Und dann können die Leute im Druckdialog am Mac "geschützt
drucken" auswählen, schicken ihre(n) Job(s) los, latschen dann später in
den Flur zur Banana/Drucker/RFID-Leser/Keypad-Kombination, werfen ihr
RFID-Tag auf den Leser, geben innerhalb 3 Sekunden ihre PIN ein und alle
vormals zwischengespeicherten Ausdrucke werden _jetzt erst_ ausgegeben.

Über sowas freuen sich CUPS-Kasper wie ich: Einen stinknormalen USB-
Arbeitsplatzdrucker zum Highend-Netzwerk-Arbeitsgruppen-Dings zu pimpen
:-)
(... der dieses Jahr im Fablab EAGLE, Platinen fräsen und SMD löten
gelernt hat :-)
Genau darüber bin ich auch gestolpert -- das hier in München war bis vor
Kurzem (als ich noch keinen Plan hatte) sogar direkt um die Ecke und ist
inzwischen elend viele 6 Busstationen entfernt. ;-)

Gruss,

Thomas
Dominik Schlütter
2014-11-26 14:21:05 UTC
Permalink
Post by Thomas Kaiser
Schick und sinnvoll :-) Und auch so'n neues Faß, die 3D-Druckerei.
Ach, da gewöhnt man sich schnell dran - auch wenn es immer noch oft eine
Lösung auf der Sucher nach einem Problem ist. Soviel Plastikkleinkram
braucht man eigentlich nicht, und für andere Materialien/besseres Finish
muss dann doch wieder ein Dienstleister wie Shapeways & Co. ran. Es
hilft allerdings, wenn man Erfahrung mit 3D-CAD hat.
Post by Thomas Kaiser
Aber auch nicht schlimm, denn es braucht ja wirklich nur fast nix auf
der SD-Card, wenn das rootfs auf SATA oder USB liegt.
Ja. Mich hat zunächst auch der Formfaktor gestört (das Ding steht halt
wieder über, und dann auch noch an einer Kante, an der sonst nix ist).
Mit der SSD darunter ist das jetzt nicht mehr so wild.

Ich habe hier auch noch allerlei kleine SD, da wäre ein Minimalsystem
schon ganz praktisch. Fertig im Netz habe ich bislang nur Images
gefunden, von denen man dann auch direkt den Kernel booten kann. Aber
wenn ich <http://linux-sunxi.org/Bootable_SD_card#SD_Card_Layout>
richtig verstehe, braucht es doch mehr als nur eine Mini-Partition mit
'uImage' und 'script.bin'. Mal schauen.
Post by Thomas Kaiser
Aber fremde Welt, an die man sich (ich zumindest mich) erstmal gewöhnen
muß. Ich komm ja aus genau der anderen Ecke, also dem Server- und
Software-Umfeld und find an diesen Single-Board-Computern erstmal vor
allem so toll, dass man trotz vertrautem Umfeld (AKA Linux) mit
minimalem Aufwand zusätzliche Hardware damit verheiraten kann und sich
dann ganz neue Einsatzmöglichkeiten ergeben.
Das schöne an Arduino-Basteleien ist IMHO, dass man einfach mal
irgendwie loslegen kann. Die Teile selbst sind erstaunlich
widerstandsfähig (und kosten nicht die Welt). Und man hat einen IMHO
recht einfachen Upgrade-Pfad um nicht immer mit den "dicken" blauen
Platinen zu hantieren - es steckt schliesslich alles in einem einzelnen
Chip mit 28 Beinchen (bzw. 32 in der SMD-Version).


Gruß,

Dominik.
Thomas Kaiser
2014-11-26 14:50:52 UTC
Permalink
Post by Dominik Schlütter
Post by Thomas Kaiser
Aber auch nicht schlimm, denn es braucht ja wirklich nur fast nix auf
der SD-Card, wenn das rootfs auf SATA oder USB liegt.
Ja. Mich hat zunächst auch der Formfaktor gestört (das Ding steht halt
wieder über, und dann auch noch an einer Kante, an der sonst nix ist).
http://www.aliexpress.com/w/wholesale-short-sd-card-adapter.html
Post by Dominik Schlütter
Ich habe hier auch noch allerlei kleine SD, da wäre ein Minimalsystem
schon ganz praktisch. Fertig im Netz habe ich bislang nur Images
gefunden, von denen man dann auch direkt den Kernel booten kann. Aber
wenn ich <http://linux-sunxi.org/Bootable_SD_card#SD_Card_Layout>
richtig verstehe, braucht es doch mehr als nur eine Mini-Partition mit
'uImage' und 'script.bin'. Mal schauen.
Wenn Du einen zweiten Linux-Host hast, dann reicht es, Dir irgendeines
der verfügbaren Images zu besorgen, dann zum einen den "early boot"-
Kram in Form der ersten 672 KByte auf die SD-Card zu bügeln:

dd if=bananian-1411.img of=/dev/rdisk9 bs=1024 count=672

(damit hast Du dann U-Boot am Start, das schon SATA und USB
initialisieren kann). Und dann mußt Du gucken, ob Dein Image eine
separate /boot-Partition hat oder nicht, denn davon hängt's dann ab, wie
Du weiter vorgehen mußt bzgl. Partitionierung und um das rootfs auf die
SATA-Platte zu syncen und wie Du in der ggf. vorhandenen /boot-Partition
in der uEnv.txt aus /dev/mmcblk0p1 dann /dev/sda1 machst.

Weil je nach Partitionierung kann's dann gscheider sein, das vorher zu
machen und dann den Bootloader-Kram des Image mit

dd if=bananian-1411.img of=/dev/rdisk9 bs=1024 skip=8 count=664

draufzubügeln. Ich würde "zum Üben" mit einem kleinen Image anfangen,
das auf 'ne 1 GByte SD-Card paßt und von dort mal das rootfs auf SATA
verschieben:

http://forum.lemaker.org/forum.php?mod=redirect&goto=findpost&ptid=3087&pid=17622

Und dann weitergucken. Theoretisch reichen SD-Cards mit paar MByte, um
das Ding zum Booten zu bekommen. Das Prozedere wird dann nur bisserl
hakelig, wenn man nicht mindestens noch eine Linux-Kiste mit Kartenleser
hat.
Post by Dominik Schlütter
Das schöne an Arduino-Basteleien ist IMHO, dass man einfach mal
irgendwie loslegen kann.
Ich werd' mich irgendwann überwinden. Danke fürs Insistieren :-)

Gruss,

Thomas
Dominik Schlütter
2014-11-26 18:46:45 UTC
Permalink
Post by Thomas Kaiser
Wenn Du einen zweiten Linux-Host hast, dann reicht es, Dir irgendeines
der verfügbaren Images zu besorgen, dann zum einen den "early boot"-
dd if=bananian-1411.img of=/dev/rdisk9 bs=1024 count=672
(damit hast Du dann U-Boot am Start, das schon SATA und USB
initialisieren kann).
Klingt schon mal gut. Ich dachte, ich schließe einfach einen Kartenleser
an und kopiere das von der "internen" Karte rüber. Ich habe mit Bananian
angefangen und dann auch deinen Link unten gefunden und das rootfs auf
die SSD gesynct. Das läuft alles, es wird auch die SSD genutzt (ich habe
die uEnv.txt angepasst). Ich würde jetzt aber gerne die 8GB-SD-Karte
anderweitig verwenden und deshalb nur das Minimum auf eine andere,
kleinere Karte zu schreiben.

Dann kann die Banane beim Start auf die Karte schauen, die uEnv.txt
finden und dann dank "root=/dev/sda1" von der SSD starten. Also das, was
sie jetzt auch macht, nur mit weniger Platzbedarf.
Post by Thomas Kaiser
Weil je nach Partitionierung kann's dann gscheider sein, das vorher zu
machen und dann den Bootloader-Kram des Image mit
dd if=bananian-1411.img of=/dev/rdisk9 bs=1024 skip=8 count=664
draufzubügeln.
Dann würde ich die kleine Karte partitionieren (1 Partition ...), ab 8k
(also ohne Partitionstabelle) alles bis 672 kopieren? Muss ich dann noch
uEnv.txt & Co. aufspielen? Oder kann ich nicht einfach /dev/mmcblk0p1
auf eine kleine Karte klonen ("dd-en")? Hach, dieses ganze low-level
gelinuxe ist anscheinend nicht so mein Ding :-).


Gruß,

Dominik.


(... der auch frühestens nächste Woche wieder zum Basteln kommt.)
Thomas Kaiser
2014-11-27 09:29:16 UTC
Permalink
Post by Dominik Schlütter
Dann kann die Banane beim Start auf die Karte schauen, die uEnv.txt
finden und dann dank "root=/dev/sda1" von der SSD starten. Also das,
was sie jetzt auch macht, nur mit weniger Platzbedarf.
Sollte reichen, einfach stumpf die komplette Karte bis zum "Anschlag"
per dd zu klonen, wenn Du jetzt schon eine hast, die "rootfs auf SATA"
kann. Denn dann ist auf der kleineren SD-Card "hinten raus" zwar ein
defektes Filesystem aber davon kriegt der Boot-Prozeß noch nicht mal was
mit, weil er vorher schon auf die SSD abbiegt.

Gruss,

Thomas
Thomas Kaiser
2014-11-27 16:09:45 UTC
Permalink
Post by Ingo Keck
[...]
Post by Thomas Kaiser
Post by Ingo Keck
Dumme Frage: Was spricht dagegen, da einen etwas größeren
Kondensator oder gleich einen Akku dran zu hängen, der die
fehlenden 1.5A beim Starten liefert und ansonsten unauffällig ist?
Evtl. nur, dass ich ein Elektrik-Depp bin und an der Stelle auf
Nummer sicher gehen will. Ich hab da bisserl rumgesucht (wegen einem
VOLTEK SPEC7188B, das mit seinen 12V/0,6A eigentlich für den Betrieb
einer sparsamen WD Green ausreichend sein sollte aber den Spin-Up
niemals packt) und das las sich alles nach deutlich komplizierter,
weil ein dicker Kondensator ohne weitere Vorsichtsmaßnahmen auch
nicht ganz ohne ist. Und Akku braucht dann wieder Ladeschaltung usw.
usf.
Die Lösung der Kondensatoren sollte elektrisch problemlos sein (einfach
parallel zum 12V schalten, wie bei den guten alten
Gleichrichternetzteilen), aber braucht wohl zu viel Platz. 1A/s = 1F und
sie müssen das auch liefern können, also kleine Innenwiderstände, keine
Goldcaps.
Lustig, hier hat jemand mit ähnlichen Mitteln eine prinzipielle
Fehlkonstruktion (externes RAID-5 mit zu schwachem Netzteil, das bei
RAID-Rebuilds darum das komplette Array schrottet) versucht, zu retten.
Mit 4700µF/25V:

http://www.amazon.de/product-reviews/B00383WAVS/

Und der Nachfolger hat das selbe Problem:

http://www.amazon.de/review/RXFYPH4G370DP/ref=cm_cr_pr_cmt?ASIN=B004YITVWM

Seltsame Gerätekategorie, seltsame Menschen, die sowas nutzen :-)

Gruss,

Thomas
Thomas Kaiser
2014-11-26 11:59:10 UTC
Permalink
Post by Thomas Kaiser
Das zugehörige Progrämmchen http://sispmctl.sourceforge.net läuft auch
macbookpro-tk:~ tk$ brew search sispmctl
sispmctl
(BTW: Ich schreib demnächst ein sog. CUPS-Backend, das wenn an Mac oder
Linux so eine USB-Steckdosenleiste angeschlossen ist, je schaltbarer
Dose einen Pseudo-Drucker zur Verfügung stellt, der dann ganz simpel mit
bspw. Laserdruckern zusammen so genutzt werden kann, dass eingehende
Druckjobs -- also wenn man sein NAS dann auch als Druckserver mißbraucht
-- automatisch den Drucker einschalten und man am Ende des Gedruckes
einfach eine leere Seite auf den "Dose 3 ausschalten"-Pseudodrucker
schickt, damit er wieder ausgeschalten wird)
Fertig: http://pastebin.com/S8n7jN2S

Mit Bildern/Erklärung: http://forum.lemaker.org/thread-9962-1-1.html

Aufgabenstellung war: Bei Kunde sind nahezu zeitgleich zwei Canon
ImageRunner (dicke All-in-One-Druck/Scan/Kopier-Monster) ausgefallen.
Ersatz besorgen oder Alternativen prüfen? Läuft auf die Alternative
hinaus. Dort wurde eh fast nie kopiert.

Es stehen einige USB-Arbeitsplatz-Laser rum und ein alter All-in-One-
Tintenstrahl-Brother, bei dem natürlich schon längst der Druckkopf
eingetrocknet ist. Und ein Praktikant steht auch noch herum -- mal zur
Abwechslung ein pfiffiger.

Der nicht mehr druckende Brother steht jetzt im Flur als netzwerk-
fähiger Einzugscanner, zwei Banana Pi und 4 USB-Steckdosenleisten wurden
angeschafft. Die Bananas machen nun 4 Arbeitsplatz-Laser netzwerkfähig
(CUPS und "Druckerklassen" sei Dank für lau, eine Queue sorgt für die
"Kopierer"-Funktionalität) und mein Backend wird in Zukunft dafür
sorgen, dass die Drucker automagisch eingeschalten werden, wenn
Druckjobs anstehen (je nach Druckaufkommen die jeweils zweite
Druckerinstanz nur bei Bedarf) und nach 1 Std. Inaktivität oder auch bei
Bedarf wieder aus (haben anscheinend hohen Standby-Verbrauch).

Das Killerargument war aber, die Espressomaschine automatisch mit den
ersten Druckjobs einzuschalten, denn el Cheffe dort ist notorischer
Frühaufsteher, jagt von daheim über VPN schon Druckjobs los und schlägt
dann 'ne halbe Stunde später auf. Überhaupt scheint sich ein Großteil
des ganzen Banana-Potentials auf die Espressomaschine zu konzentrieren:
der Praktikant "arbeitet" grad an einer automatischen Wasserstand-
überwachung der Jura (zusätzliche Materialkosten: Keine, weil USB-Kamera
schon rumlag und es anscheinend OpenSource Pattern Recognition Software
wie Sand am Meer gibt)

Über die Steckerleisten wird via cron 'ne ganze Menge mehr geschalten
(administriert von der Sekretärin per Webmin, höhö) und so wirklich
sinnvoll ist das sicher alles nur zum Teil aber es macht mal wieder Spaß
und wird dann dort auch nochmal spannend, wenn ich meine "Banana Pi
meets Port Multiplier"-Versuche abgeschlossen habe, weil dann zu den
jetzt nicht mal 200,- Tacken netto für Steckerleisten+Banana an je einem
Flurende dann nochmal keine 1.000,- Tacken für 5 x WD Green WD30EZRX je
Banana dazukommen und dann insg. 30 TByte TimeMachine Backup-Storage für
alle Clients zur Verfügung steht (sind Kreative und lernen das Speichern
auf dem Server wohl nicht mehr in diesem Leben)

Gruss,

Thomas

PS: Ach ja, der Mac-Bezug: Die schlechte Nachricht: aktuelle OS X
Versionen können nicht mehr mit der CUPS-Version (1.5), die ein
"aktuelles" Debian mitbringt, d.h. da ist dann Warten auf jessie
respektive Handarbeit angesagt, um CUPS zu aktualisieren.

Der obige Ansatz läuft aber genauso gut unter OS X, wenn man 'nen
Mac als Druckserver nutzt (was ja extrem simpel ist, wenn man die
richtige Checkbox in den Systemeinstellungen trifft) und die
Steckerleisten per USB am Mac hat. Hab ich aber noch nicht testen
können, weil meine beiden SiS-PM produktiv zu sehr eingebunden sind.
Goetz Hoffart
2014-11-26 18:31:04 UTC
Permalink
aktuelle OS X Versionen können nicht mehr mit der CUPS-Version (1.5), die
ein "aktuelles" Debian mitbringt,
Gar nicht? Wie äußert sich das Nichtkönnen?

Grüße
Götz
--
http://www.knubbelmac.de/
Thomas Kaiser
2014-11-27 09:27:08 UTC
Permalink
Post by Goetz Hoffart
aktuelle OS X Versionen können nicht mehr mit der CUPS-Version (1.5),
die ein "aktuelles" Debian mitbringt,
Gar nicht? Wie äußert sich das Nichtkönnen?
Angeblich nicht drucken können bzw. schon gar keine Queues einrichten.
Mit jessie soll's gehen (CUPS 1.7.x AFAIK), dort setzen sie auf CUPS 2.0.

Gruss,

Thomas
Goetz Hoffart
2014-11-27 09:33:37 UTC
Permalink
Post by Thomas Kaiser
Angeblich nicht drucken können bzw. schon gar keine Queues einrichten.
Mit jessie soll's gehen (CUPS 1.7.x AFAIK), dort setzen sie auf CUPS 2.0.
Wundert mich jetzt, da $KUNDE schon auf Yosemite umgestiegen ist, Debian
6.0 und 7.0 einsetzt (u.a. auch für CUPS), und seit zwei Wochen keiner
schrie, dass er nicht hätte drucken können. Ich frage heute mal nach.

Grüße
Götz
--
http://www.knubbelmac.de/
Thomas Kaiser
2014-11-27 09:50:59 UTC
Permalink
Post by Goetz Hoffart
Post by Thomas Kaiser
Angeblich nicht drucken können bzw. schon gar keine Queues
einrichten. Mit jessie soll's gehen (CUPS 1.7.x AFAIK), dort setzen
sie auf CUPS 2.0.
Wundert mich jetzt, da $KUNDE schon auf Yosemite umgestiegen ist,
Debian 6.0 und 7.0 einsetzt (u.a. auch für CUPS), und seit zwei Wochen
keiner schrie, dass er nicht hätte drucken können. Ich frage heute mal
nach.
Bitte auch, über welches Protokoll gedruckt wird. Die meisten drucken ja
per SMB und nicht direkt IPP (und nur damit soll's haken -- ich plapper
aber grad nur Praktikantenerkenntnisse nach. Nachdem ich von dem aber
dermaßen viel halte, würde ich für seine Erkenntnise fast schon einen
Finger ins Feuer legen ;-)

Gruss,

Thomas
Hermann Schaefer
2014-11-24 11:31:11 UTC
Permalink
Post by Wolfgang Kefurt
Muss ich verinnerlichen. Einen Mini als Datengrab zu opfern würde
irgendwie weh tun, außerdem müsste ja noch eine halbwegs üppige HD dran.
Mini + 2x 4TB USB-Platte (kosten so um die 160.-). Eine freigeben, die andere
per Timemachine füttern. Eine zweite kann man dann auch noch per Timemachine
drankleben und nur alle paar Wochen wechseln (für externes Backup), hat aber den
Nachteil, daß Timemachine dann jedes Mal einen kompletten Sync fahren muss - was
die Platten ggf. sehr belasten kann - kommt halt auf die Anzahl Dateien an,
weniger auf die gesamte Größe.

Alternative wäre ein Hackintosh aus 'nem Intel NUC.
Wolfgang Kefurt
2014-11-24 13:02:56 UTC
Permalink
Post by Hermann Schaefer
Mini + 2x 4TB USB-Platte (kosten so um die 160.-). Eine freigeben, die andere
per Timemachine füttern.
Du meinst die Freigabe mittels TM sichern?
Muss ich mir ansehen, klingt interessant und wäre eventuell eine Lösung.
SuperDuper, CCC, oder Chronosync hätte ich auch, falls was davon besser
geeignet wäre. Mit Chronosync habe ich jeweils die Bilder und ein paar
andere Ordner vom Rechner auf die externe synchronisiert, das ging ganz
zuverlässig.
--
Grüße
Wolfgang
Thomas Kaiser
2014-11-24 14:07:19 UTC
Permalink
Post by Wolfgang Kefurt
Du meinst die Freigabe mittels TM sichern?
TimeMachine bedeutet Backup, mit rotierenden Medien sogar fast perfektes.
Post by Wolfgang Kefurt
Muss ich mir ansehen, klingt interessant und wäre eventuell eine
Lösung. SuperDuper, CCC, oder Chronosync hätte ich auch, falls was
davon besser geeignet wäre.
Nein, das ist nicht besser, das ist Sync-Mist. Das ist für Spezial-
situationen (1:1 Sync) toll, hilft aber nur bedingt hinsichtlich
Erzeugung von Datensicherheit, außer diese Werkzeuge beherrschen
Versionierung und können damit im Backup-Modus betrieben werden (aber
wozu? Es gibt TimeMachine und das hat gleich auch noch ein tolles
Restore-UI)

Anekdote: Der bisher lukrativste [1] Datenverlust spielte sich bei einem
"Koste, was wolle"-Ex-Kunden ab. Sauteure Oracle-Server, sauteure IBM-
RAIDs dran mit sauteurem Volumemanager/Dateisystem drauf (Veritas). Weil
sauteuer noch nicht teuer genug ist, 1:1 das Ganze in zweiten Serverraum
gespiegelt. Dazu noch sauteure Serviceverträge, weil wenn der konzern-
interne IT-Dienstleister feststellt, dass er eigentlich gar nicht IT
kann, dann muß man alles outsourcen.

Dann sauteure Produktionssoftware, die "by design" regelmäßig Daten
vernichtet, weil sie nicht zwischen AFP-Server unterhalb /Volumes und
lokaler Ordner irgendwo unterhalb /Volumes unterscheiden kann. Und dann
im Anschluß das Mounten der Server-Volumes auch noch fehlschlägt,
weshalb die IT ein Skript ausrollte, das diese Hinterlassenschaften
ihrer eigenen Gaga-Applikation abräumen sollte. Und wie's Murphy's Law
halt so will, ab und an auch ganze Servervolumes rekursiv gelöscht hat.

Und Hoppala war die komplette Bildproduktion des laufenden Monats
vernichtet (sage und schreibe 9.555 Bilder). Und noch hoppalalaler die
Erkenntnis, dass davon kein Backup existiert, weil diese Pfade halt
irgendwie nie per Passierschein A38 der zuständigen Backup-Behörde beim
Dienstleister mitgeteilt wurden und die alle so superprofessionell
gearbeitet haben, dass niemand mal einen Restore testet (hätten sie das
getan, wäre ihnen evtl. auch aufgefallen, dass Full-Restore oder
Desaster Recovery gleichbedeutend mit "wir sperren jetzt mal zu" ist,
weil die LAN-Anbindung des Backup-Servers schon rein rechnerisch im
Idealfall +90 Stunden Wiederherstellung bedeutet hätte, also de facto
locker eine Woche Stillstand)

Und die Moral von der Geschicht: Spiegelung reicht nunmal nicht. Sondern
ist eine neckische Spielerei, um die Verfügbarkeit zu erhöhen aber hat
-- ich wiederhole mich -- nichts aber auch wirklich überhaupt nichts mit
Datensicherheit zu tun.

Man hätte das natürlich damals schon sinnvoll machen können, also auf
dem produktiven RAID ZFS mit Snapshots, die dann per "zfs send/receive"
auf das zweite RAID gesynct worden wären. Dann wäre kein Datenverlust
aufgetreten sondern man hätte halt mit einem Lächeln einfach den letzten
Snapshot wiederhergestellt. Aber hey, das wäre sowohl zu vernünftig als
auch zu billig gewesen. Sowas macht man nicht, wenn man "IT deluxe"
spielen will: da ist das Teuerste, das am ehesten versagt, gerade gut
genug.
Post by Wolfgang Kefurt
Mit Chronosync habe ich jeweils die Bilder und ein paar andere Ordner
vom Rechner auf die externe synchronisiert, das ging ganz zuverlässig.
Es ist nur ein Sync und alles, was an der Quelle weg/kaputt ist, ist es
kurz danach auch am Ziel. Das will man nicht :-)

Gruss,

Thomas

[1] Lukrativ für uns war der Datenverlust, weil wenn wirklich fast
10.000 Bilder ohne Backup weg sind und man irgendwie pro Tag 1.000 -
1.500 Werbemitteln mit eben diesen Bildchen anfertigen soll, dann
auch mal schnell einen Dienstleister beauftragt, der dann das
Zaubern anfangen darf.

Letztlich war deren Glück, dass alle Bilder durch einen Workflow auf
ein entferntes Bilddatenbanksystem geschoben wurden (das die Bilder
farblich verdreht und herunterskaliert hat) und dass sie OPI nutzten
und die Grobbilder auf einem separaten Volume parallel lagen. Ich
konnte aufgrund eines Helios-Bug^WFeatures knapp 1.000 Bilder aus den
"Grobdaten" 1:1 restaurieren, weil die da im Original drinsteckten
und für die anderen Bilder wenigstens aus den Grobbildern die
Freistellpfade und die originalen Pixeldimensionen extrahieren und
dann aus den bunten Web-Bildchen der Bilddatenbank durch Farbraum-
Konvertierung und Hochskalierung die Originale rekonstruieren, die
freilich qualitativ dann bisserl durchhingen. Aber da der typische
Rezipient der Werbung, die die da tagein/tagaus produzieren, eh
relativ blind ist...
Goetz Hoffart
2014-11-24 13:11:02 UTC
Permalink
Post by Hermann Schaefer
Mini + 2x 4TB USB-Platte (kosten so um die 160.-). Eine freigeben, die
andere per Timemachine füttern. Eine zweite kann man dann auch noch per
Timemachine drankleben und nur alle paar Wochen wechseln (für externes
Backup), hat aber den Nachteil, daß Timemachine dann jedes Mal einen
kompletten Sync fahren muss - was die Platten ggf. sehr belasten kann -
kommt halt auf die Anzahl Dateien an, weniger auf die gesamte Größe.
Wieso kompletter Sync? Es wird halt kopiert was neu ist, soll ja genauso
sein. Wenn Platten das nicht abkönnen, dann wird's eh bitter.

Für rotierende TimeMachine-Platten kann man sich auch RDX angucken, wenn
man mit maximal 2 TB pro Medium hinkommt. Festes Gehäuse mit USB 3.0,
und »Medien« (gut verpackte, spezielle 2,5" Platten mit 160-2000 GB
Kapazität), die auch viele Auswürfe/Wechsel überstehen. eSATA ist da
nämlich ganz schlecht spezifiziert, Thunderbolt auch. USB ist ganz gut
was Ein-/Aussteckzyklen angeht.
Post by Hermann Schaefer
Alternative wäre ein Hackintosh aus 'nem Intel NUC.
Die sind erstaunlich laut. Weit (!) entfernt von einem Mac mini.

Grüße
Götz
--
http://www.knubbelmac.de/
Hermann Schaefer
2014-11-24 18:12:17 UTC
Permalink
Post by Goetz Hoffart
Wieso kompletter Sync? Es wird halt kopiert was neu ist, soll ja genauso
sein. Wenn Platten das nicht abkönnen, dann wird's eh bitter.
Kommt halt auf den Datendurchsatz an. Wenn - was nach Wochen wahrscheinlich ist
- das dateisysteminterne Log übergelaufen ist, muss Timemachine halt einen
kompletten Sync fahren, damit es auch weiß, was sich inzwischen geändert hat.
Wer also nur alle paar Wochen TM dranhängt, belastet seine Platten vermutlich
mehr, als gleich permanent dran lassen.
Post by Goetz Hoffart
Post by Hermann Schaefer
Alternative wäre ein Hackintosh aus 'nem Intel NUC.
Die sind erstaunlich laut. Weit (!) entfernt von einem Mac mini.
Dafür ungleich billiger. Als "NAS" taugen die allemal, und USB-3 ist für so was
eh schnell genug. Dafür kostet es durchaus Nerven, bis man Maverick davon
überzeugt hat, auch auf so 'nem schnöden NUC zu laufen.
Goetz Hoffart
2014-11-24 18:49:43 UTC
Permalink
Post by Hermann Schaefer
Kommt halt auf den Datendurchsatz an. Wenn - was nach Wochen
wahrscheinlich ist - das dateisysteminterne Log übergelaufen ist, muss
Timemachine halt einen kompletten Sync fahren, damit es auch weiß, was
sich inzwischen geändert hat. Wer also nur alle paar Wochen TM dranhängt,
belastet seine Platten vermutlich mehr, als gleich permanent dran lassen.
Wenn die Platte ein Problem damit hat, alle n Wochen ein paar Stunden
rumzuschrubben, dann ist es die falsche Platte.
Post by Hermann Schaefer
Post by Goetz Hoffart
Die sind erstaunlich laut. Weit (!) entfernt von einem Mac mini.
Dafür ungleich billiger. Als "NAS" taugen die allemal, und USB-3 ist für
so was eh schnell genug. Dafür kostet es durchaus Nerven, bis man Maverick
davon überzeugt hat, auch auf so 'nem schnöden NUC zu laufen.
Mavericks läuft auf dem kleinen NUC? Celeron 847? Ich finde nur Hinweise
auf die i3/i5-Modelle. Die kosten aber nackig schon 200 €. Bis da noch e
bissele was drin ist, ist mir der Abstand zu einem richtigen Mac mini zu
klein, als dass ich basteln wollte. Aber klar, wenn man es sportlich
sieht … /me bastelt gerade an TCP/IP für ein System, das technisch auf
dem Stand von so 1993 ist, mit 14 MB RAM, MMU-los.

Grüße
Götz
--
http://www.knubbelmac.de/
Thomas Kaiser
2014-11-24 21:41:53 UTC
Permalink
Goetz Hoffart schrieb in <news:1lvmrqx.svigzk1yf2qicN%***@hoffart.de>
[NUC Hackintosh]
Ich finde nur Hinweise auf die i3/i5-Modelle. Die kosten aber nackig
schon 200 €.
Und rumpeln dann noch mit dem i3-3217U daher, der noch nicht mal AES-NI
kann?
Bis da noch e bissele was drin ist, ist mir der Abstand zu einem
richtigen Mac mini zu klein, als dass ich basteln wollte.
Das wäre die Variante, die dem "kleinen" 2014er Mini nahekommt:

http://geizhals.at/de/intel-nuc-kit-d54250wyk-boxd54250wyk-a1006873.html

300 Tacken, keine HDD, keine SSD, kein RAM, 2 x TB2 fehlen. Und Cancom
bspw. verscherbelt den kleinsten Mini aktuell für max. 110,- € mehr. Nun
ja.

Gruss,

Thomas
Goetz Hoffart
2014-11-25 08:21:23 UTC
Permalink
Post by Thomas Kaiser
Ich finde nur Hinweise auf die i3/i5-Modelle. Die kosten aber nackig
schon 200 €.
Und rumpeln dann noch mit dem i3-3217U daher, der noch nicht mal AES-NI
kann?
Jop ...
Post by Thomas Kaiser
http://geizhals.at/de/intel-nuc-kit-d54250wyk-boxd54250wyk-a1006873.html
300 Tacken, keine HDD, keine SSD, kein RAM, 2 x TB2 fehlen. Und Cancom
bspw. verscherbelt den kleinsten Mini aktuell für max. 110,- € mehr. Nun
ja.
Genau den kenne ich - mir deutlich zu laut.

Grüße
Götz
--
http://www.knubbelmac.de/
Thomas Kaiser
2014-11-25 09:03:28 UTC
Permalink
[Intel-NUC als Hackintosh-Mini-Ersatz]
Post by Goetz Hoffart
Post by Thomas Kaiser
http://geizhals.at/de/intel-nuc-kit-d54250wyk-boxd54250wyk-a1006873.html
300 Tacken, keine HDD, keine SSD, kein RAM, 2 x TB2 fehlen. Und Cancom
bspw. verscherbelt den kleinsten Mini aktuell für max. 110,- € mehr. Nun
ja.
Genau den kenne ich - mir deutlich zu laut.
Bei dem Lärmdämmungs-Gehäuseansatz, den ich grad für all meine ARM-
Boards verfolge (massiver MDF-Quader mit Innenmaßen von 108x108mm für
3,5" HDD + Board + Netzteil + Gedöns), hab ich auch mal gaudihalber das
Verbauen eines NUC Boards durchgespielt. Paßt von den Ausmaßen her bei
vertikaler Montage aber mit passiv Kühlen ist eh nix [1], der Original-
Lüfter bläst quasi in die falsche Richtung und da das Ding 19V will, ist
es auch bzgl. Stromquelle schwierig (wenn man es zusätzlich mit 3.5"-HDD
betreiben will, was mein Ziel bei dem ganzen Gehäusezirkus ist).

Der Aufwand, den Apple zur Kühlung vergleichbarer i5/i7 betreibt, also
fette Heatpipe kombiniert mit im Verhältnis riesigem extra leisem Lüfter
lohnt eben tatsächlich:

https://d3nevzfk7ii3be.cloudfront.net/igi/olUKU1QDea1SwKOh.huge

Gruss,

Thomas

[1] http://www.anandtech.com/show/7566/intels-haswell-nuc-d54250wyk-ucff-pc-review/6
Heinz Bastenhorst
2014-11-25 23:14:46 UTC
Permalink
Post by Thomas Kaiser
Die gute Nachricht: Apple hat AFP abgekündigt
Wirklich eine gute Nachricht, ich habe das schon lange aufgegeben.
Da mit AFP kein Fast User Switching vernünftig möglich ist, war das für
mich immer ein KO kriterium.
Ich habe sowieso, auch wenn keine Windows Büchsen da wären, alle Macs
nur noch mit CIFS/SMB zugreifen lassen (wer nutzt schon Etiketten).
AFP und FUS ist broken by design.

Gruß
h1
Thomas Kaiser
2014-11-25 23:24:03 UTC
Permalink
Post by Heinz Bastenhorst
Ich habe sowieso, auch wenn keine Windows Büchsen da wären, alle Macs
nur noch mit CIFS/SMB zugreifen lassen (wer nutzt schon Etiketten).
Naja, das mit den Etiketten ist ja nur Symptom. Wenn Etiketten gehen,
dann werden Mac-Dateien vollwertig gespeichert. Wenn nicht, dann nicht.

Und bei AFP ist das alles Teil des Protokolls und der Server hat sich
drum zu kümmern, wie's in dessen Dateisystem gespeichert wird. Bei SMB
kommt's auf die OS X Version an, denn älteres OS X --> der Kram kommt in
die ._-AppleDouble-Dateien, frischeres OS X --> Der Client-Mac tut so,
als ob er es in File-Streams speichert (und ein OS X ab 10.7 oder 10.8
als SMB-Server setzt das dann on-the-fly wieder auf HFS+ um), wenn der
SMB-Server so tut, als ob er das beherrscht (das ist bei Windows und
NTFS immer zu bejahren, bei irgendwelchen Schraddel-NAS mit Samba immer
zu hinterfragen). Und genau diese Vielfalt an Varianten, die alle
erstmal vor dem Nutzer verborgen werden, sorgt für hübsch viele Probleme.

Wenn man netzwerkweit identische OS X Versionen fährt, dann hat man auch
mit SMB recht wenig Probleme (abgesehen von der teils besch***enen
Geschwindigkeit), wenn nicht, dann kommt's drauf an. Aber genau das
verwächst sich jetzt ja so langsam. In ein paar Jahren ist alles fein --
trotz SMB ;-)

Gruss,

Thomas
Heinz Bastenhorst
2014-11-26 10:06:42 UTC
Permalink
Thomas Kaiser <***@phg-online.de> wrote:

Kein Wort zu AFP und FUS ;-).
Post by Thomas Kaiser
Wenn man netzwerkweit identische OS X Versionen fährt, dann hat man auch
mit SMB recht wenig Probleme (abgesehen von der teils besch***enen
Geschwindigkeit), wenn nicht, dann kommt's drauf an.
Also mit der Geschwindigkeit habe ich (zumindest mit deinem
Lieblingsfeind Synology Nas) keine Probleme, das ist bei AFP und SMB in
etwa gleich schnell.
Download immerhin umd die 90MB/s upload 70MB/s mit der eher schwachen
DS212j (ca. 7GB großes ISO-File, OSX10.10).

<http://www.synology-wiki.de/index.php/Welchen_Prozessortyp_besitzt_mein_System%3F>

Gruß
h1
Thomas Kaiser
2014-11-26 10:59:49 UTC
Permalink
Post by Heinz Bastenhorst
Kein Wort zu AFP und FUS ;-).
Doch, doch, parallel hab ich doch das Feature beschrieben, das dann auch
per SMB/CIFS kommt, wenn SMB-Sessions "persistent" werden sollten (hängt
vom Samba in Deinem NAS und von der OS X Version ab, die Deine Macs
fahren ;-)
Post by Heinz Bastenhorst
Download immerhin umd die 90MB/s upload 70MB/s mit der eher schwachen
DS212j (ca. 7GB großes ISO-File, OSX10.10).
Das ist komplett uninteressant, also zumindest wenn man _viele_ Objekte
auf dem NAS hat. Dann mag die Kopiergeschwindigkeit fetter Brocken zwar
ok sein aber das Öffnen eines Verzeichnisses kann deutlich länger dauern
als mit AFP (wenn allerdings Netatalk auf dem NAS durch Mischbetrieb
SMB/AFP schon ausreichend kirre geworden ist, kann es wiederum per AFP
_nochmal_ lahmer werden, was den Zugriff auf viele Objekte angeht)

Gruss,

Thomas
Goetz Hoffart
2014-11-26 08:53:28 UTC
Permalink
Post by Heinz Bastenhorst
Da mit AFP kein Fast User Switching vernünftig möglich ist,
?

Grüße
Götz
--
http://www.knubbelmac.de/
Thomas Kaiser
2014-11-26 09:16:52 UTC
Permalink
Post by Heinz Bastenhorst
Da mit AFP kein Fast User Switching vernünftig möglich ist,
?
Blanke Vermutung: Das selbe "Problem", das Du hast, wenn Du "Terminal-
server" unter OS X spielen willst, bspw. <http://www.aquaconnect.net>.
Jede AFP-Verbindung eines jeden User-Kontextes wird separat unterhalb
/Volumes eingehängt und so hat man schnell /Volumes/AFP, /Volumes/AFP-1,
/Volumes/AFP-2 und kein User darf auf den AFP-Mount des anderen
zugreifen respektive sieht den gar nicht erst.

Ist aber ein Feature und kein Bug und wird mit SMB auch kommen, jetzt wo
Apple SMB-Reconnect kann (wenn der Server mitspielt, d.h. nur eine Frage
der Zeit, bis die NAS-Firmware aufgefrischt wird und dann das selbe
Feature auch via SMB zur Verfügung steht ;-)

Gruss,

Thomas
Heinz Bastenhorst
2014-11-26 10:48:00 UTC
Permalink
Post by Thomas Kaiser
Blanke Vermutung: Das selbe "Problem", das Du hast, wenn Du "Terminal-
server" unter OS X spielen willst, bspw. <http://www.aquaconnect.net>.
Jede AFP-Verbindung eines jeden User-Kontextes wird separat unterhalb
/Volumes eingehängt und so hat man schnell /Volumes/AFP, /Volumes/AFP-1,
/Volumes/AFP-2 und kein User darf auf den AFP-Mount des anderen
zugreifen respektive sieht den gar nicht erst.
Naja, der User sieht den Mount des anderen schon auf seinem
Schreibtisch, darf darauf aber nicht zugreifen.

Ist bei SMB nicht so, mounts der anderen User sehe ich überhaupt nicht.
Wenn ich die gleich Freigabe brauche, mounte ich die einfach als anderer
User mit den dazugehörigen Berechtigungen noch einmal.

Wenn ich aber Freigaben habe, die für alle da sein sollen z.B. das
Musikarchiv für iTunes werden diese unter AFP, wie Thomas schon sagt,
als music-1 gemountet und das ist für iTunes schon mal tödlich.

Ganz zu schweigen, das die Freigabe aber im Finder nicht als music-1
angezeigt wird, sondern auch als music.
Da hat man dann zwei gleich lautende Freigaben auf seinem Desktop, eine
darf ich, die andere nicht. sic!
Afp funktioniert prima, solange du nur alleine an deinem Rechner sitzt.
Post by Thomas Kaiser
Ist aber ein Feature und kein Bug und wird mit SMB auch kommen,
Ich halte das für einen Bug, oder zumindest nicht zuende gedacht.
Bei SMB kannst du ja mehrfachverbindungen der gleiche IP verbieten, aber
dieses kranke AFP verhalten wird hoffentlich keinen Einzug in SMB
finden.

Gruß
h1
Thomas Kaiser
2014-11-26 11:03:20 UTC
Permalink
Post by Heinz Bastenhorst
Post by Thomas Kaiser
Blanke Vermutung: Das selbe "Problem", das Du hast, wenn Du "Terminal-
server" unter OS X spielen willst, bspw. <http://www.aquaconnect.net>.
Jede AFP-Verbindung eines jeden User-Kontextes wird separat unterhalb
/Volumes eingehängt und so hat man schnell /Volumes/AFP, /Volumes/AFP-1,
/Volumes/AFP-2 und kein User darf auf den AFP-Mount des anderen
zugreifen respektive sieht den gar nicht erst.
Naja, der User sieht den Mount des anderen schon auf seinem
Schreibtisch, darf darauf aber nicht zugreifen.
Ah, ok. Das ist dann der Unterschied zwischen FUS und Aquaconnect bspw.
Post by Heinz Bastenhorst
Ist bei SMB nicht so, mounts der anderen User sehe ich überhaupt nicht.
Na, dann guck doch bitte das nächste mal parallel in so einer Situation
im Terminal per "df", ob direkt nach dem Fast-User-Switch die SMB-
Verbindung überhaupt noch besteht oder nicht einfach mit dem Abmelden
des vorherigen User-Accounts auch gleich beerdigt wurde..
Post by Heinz Bastenhorst
Wenn ich die gleich Freigabe brauche, mounte ich die einfach als anderer
User mit den dazugehörigen Berechtigungen noch einmal.
Bitte wirklich beide Varianten durchspielen und jeweils per "df"
nachgucken.

Gruss,

Thomas
Heinz Bastenhorst
2014-11-26 17:42:06 UTC
Permalink
Post by Thomas Kaiser
Post by Heinz Bastenhorst
Wenn ich die gleich Freigabe brauche, mounte ich die einfach als anderer
User mit den dazugehörigen Berechtigungen noch einmal.
Bitte wirklich beide Varianten durchspielen und jeweils per "df"
nachgucken.
Das ist ja gruselig, vorne (im Finder) ist bei jedem User immer nur
music als Freigabe zu sehen, in /Volumes wird aber für jede weitere
Verbindung ein music-1, music-2 usw. angelegt.

df:
//***@nemesis/music /Volumes/music
//***@nemesis/music /Volumes/music-1
//***@192.168.1.10/public /Volumes/music-2

ich nehme alles zurück und behaupte ab sofort das Gegenteil!

Da kann ich ja nur froh sein, das meine Frau nie Musik mit iTunes gehört
hat wenn ich auch an dem Rechner angemeldet war, bzw. nie vor mir
angemeldet war, wenn ich iTunes gestartet habe.

Das wäre dann ja mit SMB genauso (nur nicht so offensichtlich) in die
Hose gegangen.

Also wäre für z.B. für solche Fälle (iTunes), in denen man "feste Pfade"
zu einem Server braucht sinnvoll, mit dem Automounter sich die
mountpoits z.B. irgend wo im Userhome zusammen zu bauen? Oder gibt es
einfachere Möglichkeiten?

Gruß
h1
Thomas Kaiser
2014-11-27 09:26:03 UTC
Permalink
Post by Heinz Bastenhorst
Post by Thomas Kaiser
Post by Heinz Bastenhorst
Wenn ich die gleich Freigabe brauche, mounte ich die einfach als
anderer User mit den dazugehörigen Berechtigungen noch einmal.
Bitte wirklich beide Varianten durchspielen und jeweils per "df"
nachgucken.
Das ist ja gruselig, vorne (im Finder) ist bei jedem User immer nur
music als Freigabe zu sehen, in /Volumes wird aber für jede weitere
Verbindung ein music-1, music-2 usw. angelegt.
"Was ich nicht weiß macht mich nicht heiß" reloaded ;-)
Post by Heinz Bastenhorst
Also wäre für z.B. für solche Fälle (iTunes), in denen man "feste
Pfade" zu einem Server braucht sinnvoll, mit dem Automounter sich die
mountpoits z.B. irgend wo im Userhome zusammen zu bauen? Oder gibt es
einfachere Möglichkeiten?
Ich würde einen Eintrag in die /etc/fstab werfen, der unterhalb
/Users/Shared zeigt (zum Testen als root "/usr/sbin/automount -cv")

Gruss,

Thomas

PS: Konzeptionelles: https://ssl.apple.com/business/docs/Autofs.pdf
Hermann Schaefer
2014-11-27 16:05:45 UTC
Permalink
Post by Thomas Kaiser
Ich würde einen Eintrag in die /etc/fstab werfen,
cat /etc/fstab.hd
IGNORE THIS FILE.
This file does nothing, contains no useful data, and might go away in
future releases. Do not depend on this file or its contents.

Du meintest sicher

cat /etc/auto_master
#
# Automounter master map
#
+auto_master # Use directory service
/net -hosts -nobrowse,hidefromfinder,nosuid
/home auto_home -nobrowse,hidefromfinder
/Network/Servers -fstab
/- -static
Thomas Kaiser
2014-11-27 16:30:31 UTC
Permalink
Post by Hermann Schaefer
Post by Thomas Kaiser
Ich würde einen Eintrag in die /etc/fstab werfen,
cat /etc/fstab.hd
Nö, ich meinte nicht fstab.hd sondern in der Tat /etc/fstab (existiert
normalerweise nicht und muß man halt anlegen). Und da kommt alles an
mounts rein, was man nicht "dynamisch" vom diskarbitrationd betüdeln
lassen will (Mounts unterhalb /Volumes mit dynamischem Mountpoint und
ggf. anderem Namen im Finder) sondern vom automountd.

Die fstab verpackt auch "Volume UUID", d.h. wenn man bspw. ein fettes
externes RAID am Mac betreibt und irgendeine Software hat, die aus dem
"Mac-Namen" "RAID" immer auf /Volumes/RAID schließt (was prinzipiell
falsch ist, weil alles unterhalb /Volumes ist immer dynamisch), dann
schließt man das Ding an, guckt per "diskutil list/info" nach der Volume
UUID und kopiert die in die /etc/fstab mit einem Mountpoint ungleich
/Volumes/$SONSTNOCHWAS (weil /Volumes gehört dem diskarbitrationd und
nicht dem automountd), z.B.:

UUID=478080ED-19BD-3E64-9B0D-17D84E6CE8A1 /data hfs rw,auto

Netz-Shares kommen so da rein:

$server:$finder-name /pfad/zum/mountpoint url automounted,url==afp://$user:$password@$server-fqdn/$share 0 0

/pfad/zum/mountpoint legt man vorher an, dann macht man

automount -vc

dann wundert man sich, dass nix gemountet ist (laut df) und erkennt
dann, dass das erst im Hintergrund automatisch geschieht, sobald drauf
zugegriffen wird (und dafür reicht dann schon ein ls aufs Verzeichnis).
Und mit SMB funktionierts genauso, mit NFS praktisch auch. Siehe ab
Seite 9 in Autofs.pdf.

Und noch 'ne Warnung: Der automountd versucht dann eisern, den Netzwerk-
Mount wieder herzustellen, wenn der mal wegbricht. Was gut ist, falls
mal ein Server ausfallen sollte aber auch dumm laufen kann, wenn man den
Server für immer ausschaltet und sich wundert, warum der betreffende Mac
mit seinem fstab-Eintrag im I/O festklemmt ;-)

BTW: /System/Library/Extensions/autofs.kext/Contents/Resources/
existiert und da drin steckt Hilfreiches, grad wenn man autofs mit
Verzeichnisdiensten spielt (und die maps aus dem Netzwerk kommen, da
hilft dann bspw. dumpammap und watch_for_automounts weiter)

Gruss,

Thomas
Ralph Boehme
2014-11-23 21:20:58 UTC
Permalink
Post by Thomas Kaiser
Post by Wolfgang Kefurt
Post by Thomas Kaiser
Spiegelung bzw. RAID-1 ist nicht "teuer" im Sinn von kostet
Performance (außer der Hersteller des NAS war superdoof und setzt ein
SoC -- System on Chip -- ein, das nur einen SATA-Port hat und
zwischen diesem SATA- Port und den Platten befindet sich ein billiger
Port-Multiplier, der nur "command-based switching" beherrscht und
dadurch im RAID-1 Modus, die Schreib-Performance schnell mal auf
unter die Hälfte, weil alles, was die Billig- Technik SATA schneller
machen könnte, automatisch ausfällt). Da man das dem Kasterl von
außen aber nicht ansieht, weiß man's auch nicht, warum es lahm ist.
Eben, solange die Hersteller sowas aber nicht in die Tech Specs rein
schreiben
Und was sollen sie da reinschreiben? "Sorry Leute, wir checken's leider
nicht, nehmen 'ne zu lahme CPU und leisten Versprechen -- cross-platform
Zugriff von Windows und Mac problemfrei -- die wir nicht halten können".
Die wollen ihr Zeugs doch verkaufen, also können sie nicht drauf
hinweisen, was alles suboptimal ist -- selbst wenn das für nahezu alle
"Mitbewerber" ebenso zutrifft.
Post by Wolfgang Kefurt
Ich werde morgen nach längerer Zeit wieder mal den iMac anwerfen
(momentan bin ich aus Bequemlichkeit meist am Notebook mit 10.9.5),
der läuft noch unter 10.6.8 und sehen ob es da flotter geht.
Na dann viel Spaß, grad wenn Du bislang schon auch per SMB auf Dein NAS
zugegriffen hast.
OS X bis einschließlich 10.6 geht wie folgt vor, wenn Du Dateien per SMB
in der Gegend herumkopierst: Es legt Finder-Metadaten (sowas wie bspw.
ein buntes Etikett oder Zeitstempel oder auch Extended Attribute und
ACLs und sowas) in eine Datei daneben, deren Name mit ._ beginnt und
deren Format ein erweitertes AppleDouble [1] ist.
Ab 10.7 guckt OS X beim Zugriff auf SMB-Server, ob deren Dateisystem
NTFS Filestreams beherrscht oder so tut (ab 10.7 hat Apple auch noch
parallel die SMB-Server-Komponente in OS X ausgetauscht, also Samba raus
und das bislang nicht dokumentierte "smbx" rein... und das sagt nach
außen "Hallo, ich bin ein Windows und die Dateien liegen nicht auf FAT
sondern auf NTFS, daher kannst Du lieber SMB-Client gerne auch NTFS-
Streams nutzen" und unter der Haube wird dann on-the-fly das, was als
alternate Streams im Format Afp_AfpInfo/Afp_Resource daherkommt, wieder
in HFS+ umgesetzt). Und gleichzeitig kennt OS X als SMB-Client noch den
Fallback-Modus auf die alten ._-AppleDouble-Dateien. D.h. als User fällt
einem dann gar nicht auf, dass man grad Mischmasch erzeugt.
Je nachdem, wie das Samba in Deinem WD-NAS nun konfiguriert ist oder
nicht, behauptet es, dass es evtl. auch NTFS Filestreams beherrscht. Und
dann würden Mac-Dateien ab 10.7 anders abgelegt als mit Vorversionen und
der Fallback-Modus sorgt wenn man ein übles Mischmasch auf der Freigabe
hat, auch noch dafür, dass alles langsamer wird. Ob man Mischmasch hat,
merkt man aber dann eben, indem man mit 10.6 oder vorher zugreift, denn
dann fehlen halt solche Sachen wie Etiketten, die beim parallelen
Zugriff von 10.7 oder höher sichtbar sind.
Post by Wolfgang Kefurt
Als die NAS neu war hatte ich mal von der Windows7 Partition gestartet
und da kam mir die Ansprache des NAS weit schneller vor. Waren aber
auch noch nicht viele Daten drauf.
Das Letztere mag einen Unterschied machen und dann gibt es noch Apple-
proprietäre SMB-Anbauten, die momentan kein SMB-Server außer OS X drauf
hat (und bald Samba, wenn Ralph mal endlich fertig wird ;-) ...
ja, ja, ich mach ja schon. ;) Grad noch dabei größere Umbauten zu
machen, da der erste Ansatz im Cluster extrem lahmarschig war.

Gruß,
Ralph
Gerald E:scher
2014-11-22 17:38:46 UTC
Permalink
Post by Heinz Bastenhorst
Post by Andre Igler
Ein Synology hat ein /eigenes/ Betriebssystem und ein eigenes
Filesystem, ist also proprietäres Zeux. Auch wenn sie nicht kaputt ist,
ist eine damit beschrieben HD mit nichts anderem auslesbar. Das ist ein
Schlechtes Konzept(TM). Ein ganz schlechtes.
Ext4 ist genauso proprietär wie HFS+ oder NTFS.
Wann wurde NTFS von M$ dokumentiert und der Quellcode des
Treibers veröffentlicht?
--
Gerald
Volker Birk
2014-11-22 20:04:57 UTC
Permalink
Post by Heinz Bastenhorst
Ext4 ist genauso proprietär wie HFS+ oder NTFS.
Das mal sicher nicht bei freier Software.

Viele Grüsse,
VB.
--
“Vor Snowden war das ein Blog mit Verschwörungstheorien.
Nach Snowden ist das ein Security-Newsticker.
Bei unverändertem Inhalt...”
Marc Stibane über Fefes Blog
Marcus Jodorf
2014-11-22 01:33:31 UTC
Permalink
Post by Andre Igler
Raid-0 ist doch ganze Kapazität (also beide Platten) und Raid-1 ist
gespiegelt (also eine kann eingehen), deswegen nur 2Tb.
Äh - Thomas hat Dir das gerade erklärt: RAID braucht im Home-Bereich
niemand.
Das ist zu pauschal.
Ich brauch sowas. Auch daheim.
Weil ich will die Kapazität und das Tempo. Und die höhere Verfügbarkeit
nehm ich nebenbei als Plus mit, weil die spielt privat nun mal nicht so
die Rolle.
Und nein, mit Backup darf man das nat. nicht verwechseln.
Post by Andre Igler
Wenn Du einen professionellen Server hast - also so was
<http://www8.hp.com/at/de/products/proliant-servers/index.html?facet=ProLiant-SL-Scalable>
dann nimmst Du Festplatten, die - bei gleicher Kapazität - ein
Vielfaches von dem kosten, was Du als Consumer löhnst (dafür sind sie
um mehrere Faktoren ausfallsicherer)
Auch ganz stumpfe Pauschalisierung. Ich hab auch Serverplatten, die nur
wenig mehr kosten als die Consumervarianten. Sind halt keine Raketen
aber recht solide.

Aber wenn wir z.B. von netten 15k Platten reden, dann gibt es da
zwar den vielfachen Preis - aber nur einen Bruchteil der Kapazität
von Consumerplatten. Bei meiner letzten Bestellung lagen die 600 GB
Platten da bei roundabout 460 Euro pro Stück. Consumergröße gibt es da
nicht ansatzweise. Muß man halt mehr von kaufen.
Also das streut erheblich und hängt schlicht vom Einsatzzweck ab.
Post by Andre Igler
und Du hast gaaanz viele Zugriffe, z.B. 100.000 Mitarbeiter, und es
geht um Schnelligkeit, garantierte Zugriffszeiten, Ausfallsicherheit
und so was, dann sprechen wir RAID, in welcher Form auch immer.
Bisschen arg dramatisiert, oder? ;-)
Mann kann auch für drei Mitarbeiter ein Raid aufbauen oder für
einen. Die Gründe variieren da auch schon mal.
Post by Andre Igler
Noch mal, zum Mitschreiben, für's Archiv und überhaupt: RAID und
Datensicherheit sind zwei völlig verschiedene Sachen. RAID ist nur
Speed. Und Konstanz der Verfügbarkeit bei sehr vielen Zugriffen.
So halbwegs bekommst Du hier wenigstens wieder die Kurve ;-)
Hauptsächlich geht es i.d.R. um zeitliche Verfügbarkeit
bzw. Ausfallsicherheit.
Post by Andre Igler
Bei Dir zuhause ist RAID so sinnvoll wie ein Euter auf einem Stier. Punkt.
Ich finde das z.B. extrem sinnvoll bei mir zuhause.
Ich fahr im alten Mini Server noch zwei Platten als Raid 1. Das hat mir
durchaus eine längere Ausfallzeit erspart, als eine der Platten verreckt
ist. Statt zwei Tage zu stehen, lief das System halt mit einer einfach
weiter, bis der Ersatz geliefert wurde und ich hab mir den Zeitverlust
mit dem Backup auch noch gespart.

Im anderen Rechner fahre ich ein Raid 6 mit 8 Platten. Weil ich will
Speed aber SSDs sind mir noch viel zu klein und mehrere SSDs sind mir
für zuhause einfach noch zu teuer. Also ein Haufen Platten und man hat
für relativ kleines Geld auch ordentlich Tempo. Und wenn mal wieder eine
Platte hops geht, läuft die Kiste erst mal weiter und man spart sich
in den meisten Fällen das Einspielen des Backups - was annähernd ewig
dauern würde.
Post by Andre Igler
Ein Synology hat ein /eigenes/ Betriebssystem und ein eigenes Filesystem,
ist also proprietäres Zeux. Auch wenn sie nicht kaputt ist, ist eine
damit beschrieben HD mit nichts anderem auslesbar. Das ist ein Schlechtes
Konzept(TM). Ein ganz schlechtes.
Das Problem hat man mit jedem professionellen Raid Hostadapter. Dafür
legt man sich gleich Ersatz hin oder sorgt dafür, das Ersatz entsprechend
schnell geliefert wird. Normalste Sache der Welt.

Wobei die Synologie-Hobel sind doch nur kleine Linuxschüsseln, wenn ich
nicht irre. Dann läuft da ziemlich sicher ext4 o.ä. mit Softwareraid.
D.h. das kann man an so ziemlich jedem beliebigen Computer wieder in
Gang bekommen, falls die Kiste selber abbraucht.
Eine im Falle von Hardwareversagen zugänglicheres Raid gibt es praktisch
nicht. Das kriegt man mit allem vom RaspberryPi bis hin zum gerooteten
Samsungfernseher vom Kumpel wieder in Gang, solange man nur die Platten
irgendwie dran bekommt (und sei es via USB).
Post by Andre Igler
Post by Andre Igler
Du willst eine HD, die ganz normal formatiert ist, damit Du sie im
Notfall aus dem Gehäuse raus nehmen und Deine Daten retten kannst.
Wie gesagt reicht es bei Linux Softwareraid, wenn man die Platten
irgendwo dranbekommt, wo Linux drauf rennt. Da herrscht nun wahrlich
kein Mangel.
Post by Andre Igler
Das wäre am besten, genau! Sie soll nur halt von allen Geräten im
Haushalt erreichbar sein.
Dann kauf' Dir eine Netzwerkfestplatte.
Das würde ich z.B. nie machen. Das ist fast immer überteuerter
Schrott in hübschen Verpackungen. Nicht selten lahm und als Krönung
auch noch öfters mit völlig unbrauchbarem thermischen Design, wo die
Platte im Gehäuse schön gar gekocht wird und kaum die Garantiezeit
überlebt.
Ernsthaft: Die billigen Consumerteile taugen da so gut wie nichts
bzw. darf man keine hohen Ansprüche haben.
Post by Andre Igler
Die Jungs von Synology haben einen noch besseren Marketingschwurbel
drauf als Apple. Und heute heißt halt alles NAS, weil das kein
geschützter Begriff ist. Grundsätzlich versteht man darunter aber ein
Kasterl, das - so wie ein Server - einen eigenen Prozessor (oder zwei,
oder vier) und ein eigenes OS hat, und sonst - im Gegensatz zu einem
Server, der auch noch directory services macht, oder DHCP, z.B. -
macht so ein NAS nix. Außer speichern.
Du hast jetzt Fileserver reichlich kompliziert ausgedrückt. ;-)
Nebenbei ist auch so ein Synology Dings im Kern auch nix anderes, wenn
man die Gimmicks drumrum ausknipst.
Post by Andre Igler
Aber so wie Du kein RAID brauchst, brauchst auch kein NAS.
Aha.
Post by Andre Igler
Post by Andre Igler
Hier(TM) steht eine WD 4TB (eine Disk! Kein Raid!) in einem Kastl,
das auch Netzwerk kann, und spielt Pseudoserver.
Also - wenn es ein WD Fertiggerät ist - eines von den Dingern, die WD
ultrapenetrant als „NAS“ und private „Cloud“ bewirbt.
Die spielen ja auch sehr gerne Buzzword-Bullshit-Bingo.

Über Netz gelten die meisten der WD Teile nebenbei als reichlich lahm
weil untermotorisiert.
Aber so ein NAS braucht man ja auch nicht ;-)
Nebenbei sind das fast alles auch wieder mal nur kleine Linuxschüsseln,
was WD da vertickt (ein paar der größeren Modelle fahren Windows Server
Varianten - ja, daß ist gruselig).
Ist im Grunde das Selbe wie Synology - nur mit schlapperer CPU.
Post by Andre Igler
Yep, siehe oben. Da drin ist eine Platte, sowie ein Platinchen, das
den Ethernet-Anschluß besorgt, und ein bisserl Netatalk, in einer
outdated version. Und aus.
Also das Selbe in grün.
Post by Andre Igler
Ja, WD nennt das jetzt auch NAS, weil sonst verkaufen sie's nicht. Ist
aber "nur" eine Netzwerkfestplatte.
Ich kann Deine Terminologie auch einfach nicht nachvollziehen. Das ist
wirklich abenteuerlich (wie bei den Marketingabteilungen).
Letztlich sind das fast alles kleine Linuxschüsseln mit halt mehr oder
weniger Platten.
Je nach Tagesform wird das dann gerne als NAS, blahblah Cloud, whatever
bezeichnet. Ist aber natürlich alles derselbe Brei und das gibt es
einfach in allen Größenabstufungen und Qualitäten.


Gruß,

Marcus
⚂⚃
Wolfgang Kefurt
2014-11-22 10:50:26 UTC
Permalink
Post by Marcus Jodorf
Post by Andre Igler
Dann kauf' Dir eine Netzwerkfestplatte.
Das würde ich z.B. nie machen. Das ist fast immer überteuerter
Schrott in hübschen Verpackungen. Nicht selten lahm und als Krönung
auch noch öfters mit völlig unbrauchbarem thermischen Design, wo die
Platte im Gehäuse schön gar gekocht wird und kaum die Garantiezeit
überlebt.
Ernsthaft: Die billigen Consumerteile taugen da so gut wie nichts
bzw. darf man keine hohen Ansprüche haben.
OK, langsam wird es spannend.
Ich habe den Verdacht, eine Grundsatzdiskussion ausgelöst zu haben. :-(
Post by Marcus Jodorf
Über Netz gelten die meisten der WD Teile nebenbei als reichlich lahm
weil untermotorisiert.
Aber so ein NAS braucht man ja auch nicht ;-)
Hmm, wo ist nun genau die Untermotorisierung?
Mangelt es an Prozessor-speed weil das Ding (hier eine WD MyBookLive
Duo) so lahm reagiert? Die CPU ist glaube ich ein 800Mhz single.
Post by Marcus Jodorf
Ist im Grunde das Selbe wie Synology - nur mit schlapperer CPU.
OK
Post by Marcus Jodorf
Post by Andre Igler
Ja, WD nennt das jetzt auch NAS, weil sonst verkaufen sie's nicht. Ist
aber "nur" eine Netzwerkfestplatte.
Ich kann Deine Terminologie auch einfach nicht nachvollziehen. Das ist
wirklich abenteuerlich (wie bei den Marketingabteilungen).
Letztlich sind das fast alles kleine Linuxschüsseln mit halt mehr oder
weniger Platten.
Je nach Tagesform wird das dann gerne als NAS, blahblah Cloud, whatever
bezeichnet. Ist aber natürlich alles derselbe Brei und das gibt es
einfach in allen Größenabstufungen und Qualitäten.
Und worauf muss man dann achten damit das Zeug auch so flott reagiert
wie es die Netzwerkgeschwindigkeit zulassen würde, CPU alleine?

Ich meine manche Sachen kopieren schneller und dann wartet man wieder
ein wenig bis ein Finderfenster endlich den Inhalt anzeigt, DAS ist es
was nervt! Ob das Zeug nun 30 oder 50MB/sec kopiert, macht für zu Hause
ja nicht wirklich so viel Unterschied sofern man nicht gerade die ganze
HD sichert.
--
Grüße
Wolfgang
Thomas Kaiser
2014-11-22 18:55:57 UTC
Permalink
Post by Marcus Jodorf
Ich fahr im alten Mini Server noch zwei Platten als Raid 1.
Die RAID-1-Implementierung in OS X ist DAU-tauglich, weil sich ein
defektes RAID-Set einfach so wie eine stinknormal partitionierte Platte
verhält. Das _kann_ bei irgendwelchen grindigen Linux-Implementierungen
völlig anders sein. Da schaust Du _als Laie_ (versuch's Dir wenigstens
mal vorzustellen, also blende mal aus, dass Du halt Linux kannst und in
dem Bereich arbeitest und deshalb das alles als nette Fingerübung
betrachtest, woran Laien blutigst scheitern werden) dann einfach nur
blöd und googlest tagelang herum, ob das depperte RAID nun auf LVM oder
mdutils oder Hämorrhoiden oder sonstwas aufgebaut wurde und wie Du an
die blöden Daten wieder rankommst.
Post by Marcus Jodorf
Wobei die Synologie-Hobel sind doch nur kleine Linuxschüsseln, wenn
ich nicht irre. Dann läuft da ziemlich sicher ext4 o.ä. mit
Softwareraid.
Und alles, was spannend ist, passiert *oberhalb* des Dateisystems, wenn
wir über NAS/Server/Netzwerkfestplatte reden.
Post by Marcus Jodorf
D.h. das kann man an so ziemlich jedem beliebigen Computer wieder in
Gang bekommen, falls die Kiste selber abbraucht.
_Wenn_ man die entsprechende Expertise am Start hat, nicht von Ignoranz
geplagt ist (wie Du grad den Eindruck machst, denn ist ja neckisch, wenn
ich das ext4 mounten kann aber nicht auch irgendwie das Samba oder
Netatalk in genau der Konfig aufgesetzt bekomme, damit die Daten auf dem
NAS wieder Mac-freundlich rausgereicht werden) und schön viel Zeit
investiert. Und damit die ganze Idee von RAID, d.h. Verfügbarkeit,
komplett konterkariert. RAID daheim ist eine Scheißidee. Punkt.

Außer man ist Linux-Admin und hat den realen Bedarf, unterm Sofa ein
RAID-6 aus 8 Platten zu fahren -- wozu auch immer. :-)
Post by Marcus Jodorf
Wie gesagt reicht es bei Linux Softwareraid, wenn man die Platten
irgendwo dranbekommt, wo Linux drauf rennt. Da herrscht nun wahrlich
kein Mangel.
Wenn wir in einer Welt ohne Ressourceforks und Finder-Metadaten leben
würden, die auf dem Stand der 70er des letzten Jahrhunderts ist (plain
ASCII muß reichen und Umlaute gibt's nicht). Sonst hast Du praktische
Probleme, die Du grad fröhlich in Deiner Theorie ausblendest.

Gruss,

Thomas, hat einem Spezl schon helfen "dürfen", an die Daten aus seinem
NAS-Eimer nach Ableben desselben wieder dranzukommen, was ein elender
Scheißaufwand war, weil der NAS-Hersteller eine proprietäre Mischung aus
ext3 und ext4-Features angerührt hat -- da war nix mit dem "alles so
easy, läßt sich an jedem Linux-Hobel problemfrei mounten" sondern da war
Expertise bis zum Abwinken gefragt. Ich glaub, es handelte sich um QNAP
und nicht die mir persönlich ein wenig verhasste Firma Synology...

PS: Theorie und Praxis... wie so oft...
Hermann Schaefer
2014-11-22 23:35:10 UTC
Permalink
Post by Thomas Kaiser
Außer man ist Linux-Admin und hat den realen Bedarf, unterm Sofa ein
RAID-6 aus 8 Platten zu fahren -- wozu auch immer. :-)
Ich binde das dann per iSCSI auf den Mac. Und warum? Weil ich es kann.. :D
Post by Thomas Kaiser
Thomas, hat einem Spezl schon helfen "dürfen", an die Daten aus seinem
NAS-Eimer nach Ableben desselben wieder dranzukommen, was ein elender
Scheißaufwand war, weil der NAS-Hersteller eine proprietäre Mischung aus
ext3 und ext4-Features angerührt hat -- da war nix mit dem "alles so
easy, läßt sich an jedem Linux-Hobel problemfrei mounten" sondern da war
Expertise bis zum Abwinken gefragt. Ich glaub, es handelte sich um QNAP
und nicht die mir persönlich ein wenig verhasste Firma Synology...
Das übelste war ein Adaptec/Quantum-NAS ("SNAP-Server") mit nicht dokumentiertem
UFS-Derivat. Keine Chance, da ging für mich gar nichts. Sollen inzwischen ja XFS
nehmen, aber wäre auch so ein Laden, von dem ich die Finger lasse.
Patrick Kormann
2014-11-23 18:28:11 UTC
Permalink
Post by Marcus Jodorf
Im anderen Rechner fahre ich ein Raid 6 mit 8 Platten. Weil ich will
Speed aber SSDs sind mir noch viel zu klein und mehrere SSDs sind mir
für zuhause einfach noch zu teuer. Also ein Haufen Platten und man hat
für relativ kleines Geld auch ordentlich Tempo. Und wenn mal wieder eine
Platte hops geht, läuft die Kiste erst mal weiter und man spart sich
in den meisten Fällen das Einspielen des Backups - was annähernd ewig
dauern würde.
Ein anderer Vorteil z.B bei einem RaidZ ist, dass man so einfach die
Kapazität erweitern kann - einfach eine Platte nach der anderen
ersetzen, wieder silvern lassen und am Ende hat man mehr Kapazität.
Marc Stibane
2014-11-27 14:47:11 UTC
Permalink
Post by Patrick Kormann
Ein anderer Vorteil z.B bei einem RaidZ ist, dass man so einfach die
Kapazität erweitern kann - einfach eine Platte nach der anderen
ersetzen, wieder silvern lassen und am Ende hat man mehr Kapazität.
Will mir gerade ein raidz2 mit 6 Platten bauen. Habe hier derzeit noch
vier 4TB (halbvoll), sechs 3TB (ziemlich voll) und vier 2TB (leer)
rumliegen. Wobei die Daten eh alle doppelt auf den Platten vorhanden
sind, allerdings etwas chaotisch verteilt.

Der Plan:
1) Anfangs die vier 2TB und zwei der sechs 3TB nehmen, wobei ich die
derzeitigen Daten der zwei 3TB wohl noch irgendwie auf die vier 4TB
zwischenlagern kann. Raidz2 mit sechs Platten bauen: netto 8TB (leer).
2) die dritte 3TB Platte auf das raidz2 kopieren, dann eine 2TB des
raidz damit ersetzen. Rebuild (3 von 8TB belegt).
3) die vierte 3TB Platte auf das raidz2 kopieren, dann die zweite 2TB
des raidz damit ersetzen. Rebuild (6 von 8TB belegt).
4) die fünfte 3TB Platte auf das raidz2 (2TB) und eine leere 2TB (1TB)
kopieren, dann die dritte 2TB des raidz damit ersetzen. Rebuild (8 von
8TB belegt).
5) die sechste 3TB Platte auf zwei 2TB kopieren, dann die vierte 2TB des
raidz damit ersetzen, womit die Nettokapazität von 8 auf 12TB steigt.
Rebuild (8 von 12TB belegt).
6) jetzt die Daten konsolidieren, also eher unwichtiges (Backups von
Filmen) auf die vier 2TB auslagern und den Rest eben geeignet verteilen.

Wird wohl 'ne Woche dauern mit den ganzen Kopier-Sessions.

Vorteil der ganzen Aktion: Das raidz2 kann wachsen. Im nächsten Schritt
muss ich nur noch zwei weitere 4TB Platten kaufen und kann dann der
Reihe nach die 3TB durch 4TB ersetzen. Und dann kommen 6TB-Platten...
--
In a world without walls and fences,
who needs windows and gates?
Juergen P. Meier
2014-11-22 08:29:42 UTC
Permalink
Post by Andre Igler
Post by Andre Igler
Post by Wolfgang Kefurt
ich habe hier eine WD MyBook Live Duo mit 2Tb in Raid 1
wieso nur 2 TB? Wie alt ist denn das?
Wieso Raid1? Wozu soll das gut sein?
Raid-0 ist doch ganze Kapazität (also beide Platten) und Raid-1 ist
gespiegelt (also eine kann eingehen), deswegen nur 2Tb.
Äh - Thomas hat Dir das gerade erklärt: RAID braucht im Home-Bereich
niemand.
Unsinn.

Gerade bei Storageteilen mit 2 oder 4 platten will man im Home-bereich
RAID-0 oder RAID-1(+0), je nach dem ob man /eine/ grosse Platte oder
lieber im Ausfallfall einer HDD ohne Datenverlust diese schnell tauschen
koennen will. (oder JBOD anstelle von RAID-0 wenn das NAS das kann,
dann muessen die HDD nicht gleich gross sein.)

Wovon man im Home-Bereich tunlichst pauschal und ganz im Allgemeinen
die Finger lassen sollte sind alle anderen RAID-Level (5,6,5+,6+,etc).
Und damit haette Thomas uneingeschraenkt Recht (sofern er das
gesagt hat)!
Post by Andre Igler
Ein Synology hat ein /eigenes/ Betriebssystem und ein eigenes
Filesystem, ist also proprietäres Zeux. Auch wenn sie nicht kaputt ist,
Auch WD hat das. WD vewendet Linux und idR. ext3fs als Dateisystem.

WD verbaut aber schon immer recht arschlahme CPUs in ihre NAS.
Post by Andre Igler
ist eine damit beschrieben HD mit nichts anderem auslesbar. Das ist ein
Schlechtes Konzept(TM). Ein ganz schlechtes.
Bei WDs kannst du die platten dank *Standardsoftware* an jedem
beliebigen Linux-System anschliessen und ganz normal in dein LVM
einbinden.
Sogar *direkt* an deinem MAC sofern du darauf eine Linux-VM laufen hast.

BTDT.
Post by Andre Igler
Post by Andre Igler
Du willst eine HD, die ganz normal formatiert ist, damit Du sie im
Notfall aus dem Gehäuse raus nehmen und Deine Daten retten kannst.
Das wäre am besten, genau! Sie soll nur halt von allen Geräten im
Haushalt erreichbar sein.
Wiederspricht dem.
Post by Andre Igler
Dann kauf' Dir eine Netzwerkfestplatte.
GENAU DAS HAT ER DOCH GEMACHT!

Nur ist diese Netzwerkfestplatte ein Logisches Volume das
ueber zwei physikalische Volumes per RAID-Level 1 gespiegelt wurde.

DAS alles hat mit der Performanceproblematik aber EXAKT GENAU
GARNICHTS ZU TUN!

Denn diesbezueglich gibt es GENAU GAR KEINEN UNTERSCHIED zu einem WD
NAS mit nur einer Platte.
Post by Andre Igler
Die Jungs von Synology haben einen noch besseren Marketingschwurbel
drauf als Apple. Und heute heißt halt alles NAS, weil das kein
Die neueren Synologies verwenden auch halbwegs performante CPUs in
ihren NAS, sind damit also performanter als WD.

Deren Software ist aber auch nicht besser.
Post by Andre Igler
geschützter Begriff ist. Grundsätzlich versteht man darunter aber ein
NAS ist ganz einfach: Network Attached Storage. Ein NAS muss ein
Netzwerkstorageprotokoll sprechen (mindestens eines), und damit muss
es als Netzwerkserver zwingend ein eigenes Betriebsystem haben.

Es gibt auf dem Markt genau drei Sorten NAS:
Geraete mit Microsoft Windows als OS
Geraete mit Linux als OS
Geraete mit einem BSD als OS

Wenn man Macs und/oder Linux Geraete nutzt, dann sollte man tunlichst
die Finger von der ersten und dritten Kategorie lassen.

Wenn man ausschliesslich Windows nutzt, ist die erste Kategorie die
passenste (Buffalo ist hier als ein Hersteller besonders zu erwaehnen).

Wenn man ZFS nutzen moechte, sollte man zur dritten Kategorie greifen.
Post by Andre Igler
Kasterl, das - so wie ein Server - einen eigenen Prozessor (oder zwei,
oder vier) und ein eigenes OS hat, und sonst - im Gegensatz zu einem
Server, der auch noch directory services macht, oder DHCP, z.B. - macht
so ein NAS nix. Außer speichern.
Aber so wie Du kein RAID brauchst, brauchst auch kein NAS.
Was fuer ein zusammenhangloser Unsinn.

"Wer kein Fahrrad braucht, der braucht auch keinen Taucheranzug."

Das eine hat mit dem anderen nicht das geringste zu tun.

Mir scheint du weist nicht so genau, was "RAID" alles umfasst.
Post by Andre Igler
[snip]
Post by Andre Igler
Hier(TM) steht eine WD 4TB (eine Disk! Kein Raid!) in einem Kastl,
das auch Netzwerk kann, und spielt Pseudoserver. Wenn das Kastl
eingeht, kann man die disk wo anders anschließen.
Und wenn die selbe CPU wie im WD Duo eingebaut ist, dann ist es exakt
genauso scheisse langsam.
Post by Andre Igler
So hatte ich bisher auch ein "NAS" verstanden. Liege ich etwa
falsch?
Nein. Du liegst genau richtig. Ein "NAS" ist ein Storage dass du per
Netzwerk anklemmst. OB das nun ein ESXi Server mit diveresen OS in VMs
(Storage-Server fuer alle moeglichen Clientsorten) mit per Fibercahnnel
angeschlossenem Petabyteschrank ist, oder ein kleiner Wuerfel mit vier
SAS Platten in denen ein Core-i5 Duo steckt auf dem ein Linux laeuft
oder ein noch kleineres Kaestchen mit einer Atom-CPU und zwei SATA
Platten - das alles sind "NAS".
Post by Andre Igler
Yep, siehe oben. Da drin ist eine Platte, sowie ein Platinchen, das den
Unfug.
Post by Andre Igler
Ethernet-Anschluß besorgt, und ein bisserl Netatalk, in einer outdated
version. Und aus.
Ja, WD nennt das jetzt auch NAS, weil sonst verkaufen sie's nicht. Ist
aber "nur" eine Netzwerkfestplatte.
Eine "Netzwerkfestplatte" ist eine spezielle Form von "NAS": naemlich
ein NAS mit nur einer Festplatte.

Das ist so wie mit den Begriffen "Hund" und "Dackel".

Es ist also ein "NAS". WEnn du dem widersprichst, erklaere doch mal der
gespannten Netzoeffentlichkeit, was genau *DU* unter "NAS" verstehst.

Bisher hast du dich ja nur daraueber ausgelassen, was du /nicht/
darunter verstehst.

Juergen
--
Juergen P. Meier - "This World is about to be Destroyed!"
end
If you think technology can solve your problems you don't understand
technology and you don't understand your problems. (Bruce Schneier)
Wolfgang Kefurt
2014-11-22 11:00:23 UTC
Permalink
Post by Juergen P. Meier
Post by Andre Igler
Dann kauf' Dir eine Netzwerkfestplatte.
GENAU DAS HAT ER DOCH GEMACHT!
Nur ist diese Netzwerkfestplatte ein Logisches Volume das
ueber zwei physikalische Volumes per RAID-Level 1 gespiegelt wurde.
DAS alles hat mit der Performanceproblematik aber EXAKT GENAU
GARNICHTS ZU TUN!
Danke!
Ich hatte schon langsam an mir gezweifelt. :-)
--
Grüße
Wolfgang
Thomas Kaiser
2014-11-22 21:23:24 UTC
Permalink
Post by Juergen P. Meier
Wovon man im Home-Bereich tunlichst pauschal und ganz im Allgemeinen
die Finger lassen sollte sind alle anderen RAID-Level (5,6,5+,6+,etc).
Und damit haette Thomas uneingeschraenkt Recht (sofern er das gesagt
hat)!
Nee, der findet RAID-1 im Homebereich sogar noch scheißer als die
"höheren" RAID-Level. Weil sinnlos, wenn man nicht "Verfügbarkeit"
braucht (und wer bitte sehr braucht das daheim?) und alle anderen
Faktoren ebenfalls bedenkt. So ein "RAID an sich" hat 'zig SPoFs, die --
wenn man sie ebenfalls berücksichtigt -- die ganze Idee ad absurdum
führen.

RAID-1 hat den höchsten Verschnitt (es gehen 100% für Redundanz drauf)
und kann im Fall von Inkonsistenzen zwischen den Daten auf den beiden
gespiegelten Platten noch nicht mal die absolut primitive Frage
beantworten, welche Platte die richtigen Daten hat (das können höhere
RAID-Level hingegen schon, weil sie Checksummen-basiert Inkonsistenzen
a) bemerken und b) korrigieren können. An beidem scheitert RAID-1
einfach so, obwohl es maximal verschwenderisch mit Speicherplatz umgeht)
Post by Juergen P. Meier
Auch WD hat das. WD vewendet Linux und idR. ext3fs als Dateisystem.
Die spannenden Dinge im Kontext NAS passieren oberhalb des Dateisystems.
Aber wenn Du Pech hast, scheiterst Du schon am Dateisystem an sich (wenn
es eben kein normales ext3 ist, das Du in einer Linux-VM oder an einem
Linux-Hobel mounten kannst sondern irgendein kreativer RAID-Mist, der
dann eine handgetunte mdadm- oder LVM-Konfig braucht, damit Du überhaupt
den Quatsch mounten kannst. Und an der Stelle verlieren sogar Pseudo-
Linux-Experten ihre Daten, weil man im 'worst case' ein leichtes
Nervenflattern hat und jede Fehleingabe von Kommandos evtl. die letzte
war... zumindest auf dem vormals existenten Datenbestand. Dieses
Ballaballa-Linux-RAID-Gebastel widerspricht so ziemlich allen Design-
Prinzipien rund um fehlertoleranten Storage)
Post by Juergen P. Meier
Bei WDs kannst du die platten dank *Standardsoftware* an jedem
beliebigen Linux-System anschliessen und ganz normal in dein LVM
einbinden.
Sogar *direkt* an deinem MAC sofern du darauf eine Linux-VM laufen hast.
BTDT.
Genau, das ist die Grundvoraussetzung, dass sowas klappt: Dass man
beruflich eh nix anderes macht, als doofes Linux zu bändigen, und daher
Expertise und Randbedingungen hat, damit man den Schrott retten kann,
wenn das "RAID an sich" auf einmal nicht mehr funktionieren sollte.
Post by Juergen P. Meier
Geraete mit Microsoft Windows als OS
Geraete mit Linux als OS
Geraete mit einem BSD als OS
Du hast die zweitbeste Variante vergessen: Solaris oder ein Derivat
(weil das hat das ganz arg tolle ZFS _inkl._ xattr-APIs und das ist
deshalb so toll, weil man dann cross-platform-Filesharing zwischen
Windows und OS X machen kann, ohne dass irgendwas schiefgeht)

Und die beste Variante hast Du auch noch vergessen: Ein NAS auf OS X
Basis.
Post by Juergen P. Meier
Wenn man Macs und/oder Linux Geraete nutzt, dann sollte man tunlichst
die Finger von der ersten und dritten Kategorie lassen.
Quatschquatschquatsch. Ausgerechnet LaCie hatte mal irgendwelche NAS im
Programm, die auf Windows XP embedded basierten, ExtremeZ-IP als
AFP-Server mitbrachten und damit jedem dahergelaufenen Linux-basiertem
NAS haushoch überlegen war, weil cross-platform File- und Record-Locking
in fehlerfrei mitbringend. Das konnte damals sonst nur noch OS X oder
Helios. Ralph hatte dann irgendwann Netatalk so weit, dass es unter
Solaris mit dem dortigen SMB-Daemon ausreichend eng kuscheln konnte,
dass das auch mit Netatalk cross-platform funktionierte (aber unter
Linux gab's da nix)

Gruss,

Thomas
Andre Igler
2014-11-23 20:51:07 UTC
Permalink
Juergen P. Meier schrieb in
Post by Juergen P. Meier
Wovon man im Home-Bereich tunlichst pauschal und ganz im
Allgemeinen die Finger lassen sollte sind alle anderen RAID-Level
(5,6,5+,6+,etc). Und damit haette Thomas uneingeschraenkt Recht
(sofern er das gesagt hat)!
Nee, der findet RAID-1 im Homebereich sogar noch scheißer als die
"höheren" RAID-Level. Weil sinnlos, wenn man nicht "Verfügbarkeit"
braucht (und wer bitte sehr braucht das daheim?) und alle anderen
Faktoren ebenfalls bedenkt. So ein "RAID an sich" hat 'zig SPoFs, die
-- wenn man sie ebenfalls berücksichtigt -- die ganze Idee ad
absurdum führen.
Dacht' ich mir, dass Du einsteigst.

[snip]
Genau, das ist die Grundvoraussetzung, dass sowas klappt: Dass man
beruflich eh nix anderes macht, als doofes Linux zu bändigen, und
daher Expertise und Randbedingungen hat, damit man den Schrott retten
kann, wenn das "RAID an sich" auf einmal nicht mehr funktionieren
sollte.
Post by Juergen P. Meier
Es gibt auf dem Markt genau drei Sorten NAS: Geraete mit Microsoft
Windows als OS Geraete mit Linux als OS Geraete mit einem BSD als
OS
Du hast die zweitbeste Variante vergessen: Solaris oder ein Derivat
(weil das hat das ganz arg tolle ZFS _inkl._ xattr-APIs und das ist
deshalb so toll, weil man dann cross-platform-Filesharing zwischen
Windows und OS X machen kann, ohne dass irgendwas schiefgeht)
Der OP machte zumindest mir nicht den Eindruck, als würde ihm all das
viel sagen bzw. bei seiner Entscheidung helfen können. Also schrub ich,
was ich schrub, und stehe dazu. RAID im SoHo Bereich ist Quatsch bzw.
vergeudetes Kapital. Was ich nicht schrub, und was dennoch stimmt, wäre
die Mac Mini Lösung. Mit ThunderBolt. Junge, kann man sich da gehen
lassen ...
Ausgerechnet LaCie hatte mal irgendwelche NAS im Programm, die auf
Windows XP embedded basierten, ExtremeZ-IP als AFP-Server mitbrachten
und damit jedem dahergelaufenen Linux-basiertem NAS haushoch
überlegen war, weil cross-platform File- und Record-Locking in
fehlerfrei mitbringend. Das konnte damals sonst nur noch OS X oder
Helios.
Yep, war ein Rack-Einschub, kam mit 1TB, lief hier einwandfrei über vier
Jahre lang. Super Teil. Hieß aber damals noch verschämt Netzwerkfestplatte.

addio
--
pm <mein vorname> bei <mein nachname> punkt at
www.albinschwarz.com http://weblog.igler.at
Marc Stibane
2014-11-27 14:47:11 UTC
Permalink
Post by Thomas Kaiser
Und die beste Variante hast Du auch noch vergessen: Ein NAS auf
OS X Basis.
Mit welchem Mac?
- Mini mit externen USB-Platten?
- iMer mit externem Thunderbolt-DiskArray?
- oder Käsereibe mit internen SATA-Platten?

Und welchem FS? HFS+?
--
In a world without walls and fences,
who needs windows and gates?
Thomas Kaiser
2014-11-27 15:22:41 UTC
Permalink
Post by Marc Stibane
Post by Thomas Kaiser
Und die beste Variante hast Du auch noch vergessen: Ein NAS auf OS X
Basis.
Mit welchem Mac?
Am Besten _keinem_. Ich hab mich da nur bzgl. der _logischen_
Problematik _oberhalb_ der Dateisysteme ausgelassen (also auf der Ebene
Dateiserver: Was bieten OS X intern smbx/AppleFileServer an, wie lösen
sie die cross-platform-Problematiken und was verbergen sie alles elegant
vorm User). Aber zum Glück ist das nach Deinem Parallelthread zu
schließen bei Dir eh völlig wurscht, weil Du weder cross-platform
zugreifen willst, noch die Mac-Spezialitäten eine Rolle spielen und Du
Dich einfach als Digital-Messie mit fetten Filmbrocken austoben willst?
Dann ist exakt jede NAS-Lösung gut genug. :-)

Zurück zu OS X: Datenintegrität ist leider auf bezahlbarer/sinnvoller
Apple-Hardware ziemlich mau (weil kein ECC-RAM und HFS+ aus der Hölle),
d.h. unterhalb der Serverebene ist OS X dann auf einmal die mieseste
Wahl.
Post by Marc Stibane
- Mini mit externen USB-Platten?
Wenn ein Mini schon rumsteht und man moderate Platzanforderungen hat (so
wie der OP in diesem Thread), dann spricht nicht viel dagegen, den auch
als NAS zu mißbrauchen. Ab den 2012er Minis braucht man sich Dank USB
3.0 auch null Gedanken mehr über Performance machen, denn Gbit-Ethernet
und die Datenraten von 3,5" HDDs regeln ab, so dass ein Mini als Neben-
berufs-NAS ausreichend performant einen ganzen Haushalt _nebenher_ noch
mit bedienen kann.

Analog zu Linux/LVM kann man auch in OS X eine "CoreStorage logical
volume group" über mehrere physische Platten SPANnen lassen. Wenn man
bisserl krank im Kopf ist, bspw. auch über externe (USB3-) Platten per
"diskutil cs adddisk" gefolgt von "diskutil cs resizevolume":

http://sysmagazine.com/posts/200362/

Da dann noch ein fragiles HFS+ als Sahnehäubchen oben drauf und man darf
sich die Frage stellen, ob es nicht gscheider ist, gleich nach /dev/null
zu speichern :-)

Gruss,

Thomas
Marc Stibane
2014-11-27 16:40:46 UTC
Permalink
Post by Thomas Kaiser
Post by Marc Stibane
Post by Thomas Kaiser
Und die beste Variante hast Du auch noch vergessen: Ein NAS auf
OS X Basis.
Mit welchem Mac?
Am Besten _keinem_. Ich hab mich da nur bzgl. der _logischen_
Problematik _oberhalb_ der Dateisysteme ausgelassen (also auf der Ebene
Dateiserver: Was bieten OS X intern smbx/AppleFileServer an, wie lösen
sie die cross-platform-Problematiken und was verbergen sie alles elegant
vorm User).
Dann ist das wohl doch nicht die "beste Variante"...
Post by Thomas Kaiser
Aber zum Glück ist das nach Deinem Parallelthread zu schließen bei Dir eh
völlig wurscht, weil Du weder cross-platform zugreifen willst, noch die
Mac-Spezialitäten eine Rolle spielen und Du Dich einfach als
Digital-Messie mit fetten Filmbrocken austoben willst?
Genau.
Post by Thomas Kaiser
Dann ist exakt jede NAS-Lösung gut genug. :-)
Nö. Da gibt es immer noch Nebenbedingungen wie Lautstärke und
Stromverbrauch...
Post by Thomas Kaiser
Zurück zu OS X: Datenintegrität ist leider auf bezahlbarer/sinnvoller
Apple-Hardware ziemlich mau (weil kein ECC-RAM und HFS+ aus der Hölle),
d.h. unterhalb der Serverebene ist OS X dann auf einmal die mieseste
Wahl.
Also MacOS X Server virtualisiert auf 'nem richtigen Eisen fahren...
Post by Thomas Kaiser
Post by Marc Stibane
- Mini mit externen USB-Platten?
Wenn ein Mini schon rumsteht und man moderate Platzanforderungen hat (so
wie der OP in diesem Thread), dann spricht nicht viel dagegen, den auch
als NAS zu mißbrauchen. Ab den 2012er Minis braucht man sich Dank USB
3.0 auch null Gedanken mehr über Performance machen, denn Gbit-Ethernet
und die Datenraten von 3,5" HDDs regeln ab, so dass ein Mini als Neben-
berufs-NAS ausreichend performant einen ganzen Haushalt _nebenher_ noch
mit bedienen kann.
Ich habe zwar einen rumstehen, aber der ist von 2009. Kein USB 3.0, nur
Firewire... Und er wird dank schwächlicher GPU auch verdammt lahm wenn
man was neueres als SnowLeo oder Lion fahren will.

Müsste also einen 2012er MacMini kaufen, und der ist dank des aktuellen
"Downgrades" ja gebraucht kaum billiger als ein 2014er neu...
Post by Thomas Kaiser
Analog zu Linux/LVM kann man auch in OS X eine "CoreStorage logical
volume group" über mehrere physische Platten SPANnen lassen. Wenn man
bisserl krank im Kopf ist, bspw. auch über externe (USB3-) Platten per
http://sysmagazine.com/posts/200362/
Da dann noch ein fragiles HFS+ als Sahnehäubchen oben drauf und man darf
sich die Frage stellen, ob es nicht gscheider ist, gleich nach /dev/null
zu speichern :-)
Eben... Also doch ein FreeNAS mit ECC und ZFS. Sollte auch nicht viel
teurer kommen als ein Mini, wenn überhaupt.
--
In a world without walls and fences,
who needs windows and gates?
Thomas Kaiser
2014-11-27 17:10:06 UTC
Permalink
Post by Marc Stibane
Post by Thomas Kaiser
Post by Marc Stibane
Post by Thomas Kaiser
Und die beste Variante hast Du auch noch vergessen: Ein NAS auf
OS X Basis.
Mit welchem Mac?
Am Besten _keinem_. Ich hab mich da nur bzgl. der _logischen_
Problematik _oberhalb_ der Dateisysteme ausgelassen (also auf der
Ebene Dateiserver: Was bieten OS X intern smbx/AppleFileServer an,
wie lösen sie die cross-platform-Problematiken und was verbergen sie
alles elegant vorm User).
Dann ist das wohl doch nicht die "beste Variante"...
War in erster Linie eine launige Replik auf die "3 Sorten NAS" des
Vorredners ;-)
Post by Marc Stibane
Also MacOS X Server virtualisiert auf 'nem richtigen Eisen fahren...
Hab ich vor 'zig Monaten mal durchgespielt. Eines der netten kleinen
passiv kühlbaren Avoton-Boards (IIRC nur mit 4-Core und nicht 8-Cores),
da drauf direkt ESXi, dann eine FreeNAS-VM, die die 8 Platten als
vmdisks reingereicht bekommen hat und per iSCSI als raidz2 wieder
rausgereicht hat (der Avoton kann leider kein VT-d, d.h. man kommt aus
einer dort laufenden VM nicht direkt an die Platten ran), diese dann in
ESXi importiert und an eine zweite OS X VM als Storage durchgereicht
(weil ich Probleme hatte, direkt iSCSI in der VM zu nutzen)

Funktioniert, ist performant, steht besser bzgl. Datenintegrität da,
weil man unterhalb des HFS+ ein raid2/ZFS hat und dort beliebig mit
Snapshots werkeln kann. Aber ist insgesamt auch einfach nur dämlich, das
so aufzusetzen, weil viel zu komplex und auf dem Weg auch die Platten
nicht sauber per SMART zu monitoren.
Post by Marc Stibane
Müsste also einen 2012er MacMini kaufen, und der ist dank des
aktuellen "Downgrades" ja gebraucht kaum billiger als ein 2014er
neu...
"Downgrade"? Auch nur, wenn man auf irrelevante Geekbench-Scores und
ähnlichen Quatsch schielt.
Post by Marc Stibane
Eben... Also doch ein FreeNAS mit ECC und ZFS. Sollte auch nicht viel
teurer kommen als ein Mini
Die Mini-Variante lohnt sich IMO eh nur, wenn der schon existent ist
bzw. noch für was anderes genutzt wird (was ja problemlos geht).
Ansonsten ist die FreeNAS-Variante bei Deinen Anforderungen mit max. 6
Platten immer automatisch günstiger, weil ein HP N54L mit 8 GByte
ECC-RAM (reicht Dir) auf keine 300,- Tacken kommt und dann nur noch die
Platten fehlen. Erst jenseits 6 Platten geht der ZFS-/FreeNAS-Ansatz
dann bisserl ins Geld, weil dann schon die Boards 350,-/450,- kosten:

http://geizhals.at/de/asrock-c2750d4i-a1040153.html
http://geizhals.at/de/supermicro-a1sa7-2750f-retail-mbd-a1sa7-2750f-o-a1162562.html

Beim Mini läppern sich ja alleine schon die Kosten für externe Platten-
gehäuse (ca. 30,- für taugliches USB3-Einzelgehäuse, die USB-JBODs und
Billig-RAIDs sind nach meiner Wahrnehmung durch die Bank Vollschrott).

Gruss,

Thomas
Marc Stibane
2014-11-27 17:22:28 UTC
Permalink
Post by Thomas Kaiser
Die Mini-Variante lohnt sich IMO eh nur, wenn der schon existent ist
bzw. noch für was anderes genutzt wird (was ja problemlos geht).
Ansonsten ist die FreeNAS-Variante bei Deinen Anforderungen mit max. 6
Platten immer automatisch günstiger, weil ein HP N54L mit 8 GByte
ECC-RAM (reicht Dir) auf keine 300,- Tacken kommt
Mal sehen was es am morgigen Black Friday so für Angebote geben wird...
Post by Thomas Kaiser
und dann nur noch die Platten fehlen.
Braucht man für raidz2 zwingend Server-Platten oder reichen da auch
Consumer-Platten? Die sind bei mir eh zu >90% idle, also hoffentlich
spin-down.
--
In a world without walls and fences,
who needs windows and gates?
Juergen P. Meier
2014-11-22 08:24:36 UTC
Permalink
Post by Wolfgang Kefurt
Hallo,
ich habe hier eine WD MyBook Live Duo mit 2Tb in Raid 1 am Netzwerk und
obwohl ich schon drauf gekommen bin, dass diese keine
Geschwindigkeitsrekorde bricht, kommt sie mir zeitweise echt LAHM vor.
Mal braucht die Finder-Darstellung gefühlte 10 Sekunden bis der Inhalt
dargestellt oder das Fenster überhaupt geöffnet wird, mal kopiert ein
"Ueber Netz"? WElcehs Dateisystem? Welches Netzwerkprotokoll?
Post by Wolfgang Kefurt
Ordner von 60Mb mit kleinen Textdateien 3-4Minuten lang während ein
dmg-Image mit 1 Gb in einigen Sekunden kopiert ist. Das Ganze unter Mac
WD verwendet in seinen NAS gerne ein Linux mit Ext3fs. Das ist bei
vielen kleinen Dateien besonders ineffizient.
Post by Wolfgang Kefurt
OS 10.9.5 mit Gigabit-LAN und auch mit WLAN 5Ghz über Fritzbox 7490. In
den WD-Foren habe ich nun auch schon ähnliches gelesen.
Ja, die WD teile sind nunmal nicht die schnellsten.
Post by Wolfgang Kefurt
Liegt das nun an der WD-NAS selbst, oder können andere Gründe Schuld
sein?
Ja. Beides.
Post by Wolfgang Kefurt
Habe ich falsche Vorstellungen bezüglich NAS? Ich will diese als
zentralen Datenspeicher für iMac/PC und MacBook benutzen und
gegebenenfalls von der NAS lesen und dort hinspeichern, nicht nur als
Archivspeicher der sporadisch zum wegsichern benutzt wird!
Lege auf dem NAS .DMG-Images an und nutze ausschliesslich diese auf
deinem Mac. Das ist zwar ein klein bisschen umstaendlicher (erst
Netzwerkmount, dann dmg mount und beim abklemmen in umgekehrter
Reihenfolge), aber es ist performanter und effizienter.
Post by Wolfgang Kefurt
Wäre eine Synology DS214 schneller?
Dazu kann ich dir leider nix sagen. ABer du hast ja schon antworten
bekommen dazu.
Post by Wolfgang Kefurt
Verbunden wird mit afp. Mit cifs und smb geht es auch nicht schneller.
Irgendwer hilfreiche Tipps für mich?
Nimm CIFS (ist weniger kaputt bei WD) und nutze ausschliesslich DMG
images mit HFS drin fuer alles, dass du ausschliesslich mit OSX
GEraeten nutzt.

Juergen
--
Juergen P. Meier - "This World is about to be Destroyed!"
end
If you think technology can solve your problems you don't understand
technology and you don't understand your problems. (Bruce Schneier)
Wolfgang Kefurt
2014-11-22 15:08:30 UTC
Permalink
Post by Juergen P. Meier
Post by Wolfgang Kefurt
Mal braucht die Finder-Darstellung gefühlte 10 Sekunden bis der Inhalt
dargestellt oder das Fenster überhaupt geöffnet wird, mal kopiert ein
"Ueber Netz"? WElcehs Dateisystem? Welches Netzwerkprotokoll?
Hat sich wahrscheinlich mit den anderen Postings überschnitten, trotzdem
nochmals: Das interne Dateisystem verrät die WD nicht, die Platten
werden beim Ersteinrichten "präpariert". Ich kopiere halt über den
Finder und Netzwerkprotokoll per afp verbunden. Mit rechte
Maustaste->Informationen stellt sich das gemountete Volume als
AppleShare dar.
Post by Juergen P. Meier
WD verwendet in seinen NAS gerne ein Linux mit Ext3fs. Das ist bei
vielen kleinen Dateien besonders ineffizient.
Ja, die WD teile sind nunmal nicht die schnellsten.
Post by Wolfgang Kefurt
Liegt das nun an der WD-NAS selbst, oder können andere Gründe Schuld
sein?
Ja. Beides.
OK
Post by Juergen P. Meier
Post by Wolfgang Kefurt
Habe ich falsche Vorstellungen bezüglich NAS? Ich will diese als
zentralen Datenspeicher für iMac/PC und MacBook benutzen und
gegebenenfalls von der NAS lesen und dort hinspeichern, nicht nur als
Archivspeicher der sporadisch zum wegsichern benutzt wird!
Lege auf dem NAS .DMG-Images an und nutze ausschliesslich diese auf
deinem Mac. Das ist zwar ein klein bisschen umstaendlicher (erst
Netzwerkmount, dann dmg mount und beim abklemmen in umgekehrter
Reihenfolge), aber es ist performanter und effizienter.
Interessanter Lösungsansatz, wenn auch ein wenig umständlich...
Wenn ich Zeit finde probiere ich das mal aus.
Post by Juergen P. Meier
Nimm CIFS (ist weniger kaputt bei WD) und nutze ausschliesslich DMG
images mit HFS drin fuer alles, dass du ausschliesslich mit OSX
GEraeten nutzt.
Hmm, die Betriebsanleitung beschreibt alles so einfach...und jetzt
entpuppt sich das langsam als ganz schön fies. Mounten der Shares
funktioniert über das WD-Tool in der Menüzeile. Vom Finderfenster aus
erscheinen die Shares im Gegensatz zum Manual nicht, dort steht zwar:

Öffentliche und private Freigaben
1. Öffnen Sie ein Finder-Fenster und suchen Sie unter der Überschrift
Freigaben in der Seitenleiste Ihr My Book Live Duo-Laufwerk.
2. Doppelklicken Sie auf das Laufwerk, um die Freigabe „Public“ und alle
privaten Freigaben anzuzeigen, auf die Sie Zugriff haben.

..beim klick auf Freigaben->Alle-> taucht zwar die WD-MyBook Duo als
Gerät auf, nicht jedoch die Freigaben die ich per WD QuickView in der
Menüzeile eben noch problemlos gemountet habe. Komisch, keine Ahnung ob
da Mac OS oder WD Schuld ist...
--
Grüße
Wolfgang
Heinz Bastenhorst
2014-11-22 15:33:06 UTC
Permalink
Post by Wolfgang Kefurt
Wäre eine Synology DS214 schneller?
Da würde ich meinen A***h drauf verwetten ;)

Gruß
h1
Thomas Kaiser
2014-11-22 18:26:03 UTC
Permalink
Post by Heinz Bastenhorst
Post by Wolfgang Kefurt
Wäre eine Synology DS214 schneller?
Da würde ich meinen A***h drauf verwetten ;)
Solange hinter DS214 nicht die Buchstaben "se" folgen, ist die Wette
risikofrei:

http://forum.synology.com/wiki/index.php/What_kind_of_CPU_does_my_NAS_have

Gruss,

Thomas
Markus Elsken
2014-11-22 17:00:23 UTC
Permalink
Moin!
Post by Wolfgang Kefurt
Wäre eine Synology DS214 schneller?
Hier rennt eine mit 2x 4TB WD RED als JBOD. Rattenfix, ich kann nicht
meckern, fast wie eine lokale Platte.

mfg Markus
Lesen Sie weiter auf narkive:
Loading...