Autor Thema: jährlich wachsendes Datenvolumen eines Mailservers  (Gelesen 7872 mal)

Offline Manni Ciao

  • Junior Mitglied
  • **
  • Beiträge: 82
Ich (in einer Bank als Admin mit 600 User) möchte in die Runde fragen, welche organisatorische Maßnahme ihr setzt oder ratet, um das jährlich wachsende Datenvolumen eines Mailservers zu begrenzen?

Bei uns:
> Mails ausgetretenes Personen werden nach jeder Jahressicherung gelöscht
> 4 Warnschwellenwerte (1G, 2G, 4G und 6G) und 1 Mailgrößenbeschränkung 7,8 G
> Größenbeschränkung eingehender Mails 25MB
> Mailarchivierung nach einem 1 Jahr, wobei die Archive bei uns am selben teuren SAN landen
> Hereinkommende "Spassdateien" (mp3, pps, wmf ..) werden gesperrt und kann sich der > Empfänger im Falle dass diese dienstl. sind, selbst zustellen
> Kundenmails sind im CRM abzulegen (freiwillig und nicht von einem CRM System gezwungen)

Was wir uns nicht trauen oder mögen:
> ältere Mails automatisch löschen z.B > 5 Jahre
> in die Mail-DB reinschauen und den Besitzer belehren, was er zu löschen hat
> ein teures CRM System
> die Top Mailhamster öffentlich an den Pranger stellen

Danke für euer Feedback


Offline m3

  • Freund des Hauses!
  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 8.102
  • Geschlecht: Männlich
  • Non ex transverso sed deorsum!
    • leyrers online pamphlet
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #1 am: 24.10.14 - 16:33:46 »
DAOS einsetzen
Mehr Festplatten kaufen
HTH
m³ aka. Martin -- leyrers online pamphlet | LEYON - All things Lotus (IBM Collaborations Solutions)

All programs evolve until they can send email.
Except Microsoft Exchange.
    - Memorable Quotes from Alt.Sysadmin.Recovery

"Lotus Notes ist wie ein Badezimmer, geht ohne Kacheln, aber nicht so gut." -- Peter Klett

"If there isn't at least a handful of solutions for any given problem, it isn't IBM"™ - @notessensai

Offline RRO

  • Frischling
  • *
  • Beiträge: 15
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #2 am: 28.10.14 - 19:07:03 »
oder Archivieren

Offline schroederk

  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 1.924
  • Geschlecht: Männlich
  • Ich liebe dieses Forum!
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #3 am: 29.10.14 - 09:38:20 »
Die bisherigen Antworten ware sicherlich keine allzu große Hilfe...

Wie Manni in seinem Ausgangspost mitgeteilt hat, setzt er bereits Archivierung ein, allerdings auf dem selben teuren SAN.
Die Antwort "oder Archivieren" ist also ziemlich nutzlos.
"Mehr Festplatten kaufen" ist auch nicht so der Bringer, denn es geht Manni ja um das Begrenzen des Datenvolumens des Mailervers und nicht dass er mehr teuren SAN-Platz kaufen soll. Genau das möchte er ja vermeiden.

DAOS ist sicherlich eine Option, wenn noch nicht eingesetzt, allerdings verwenden die meisten SANs mittlerweile auch Deduplication und damit wird (wenn auch nicht unmittelbar) der Platz auch von den doppelten Anhängen reduziert.

Es bleibt nur die Schulung und Sensibilisierung der Mitarbeiter, das Mailsystem nicht als Ablagesystem zu nutzen.
Mehrere Warnschwellenwerte bringen da imho nicht viel. Wer den ersten ignoriert, ignoriert auch alle anderen.
Wir haben mal vorgerechnet, was das SAN-System gekostet hat und was damit jedes GB Platz für Mails kostet.

Wir sind bei uns zum Teil restriktiver zum Teil viel offener:
Alle Mail-DBs fangen mit einer Größenbeschränkung von 500MB an und wird bei Bedarf erweitert, mit einem individuellen Sensibilisierungsgespräch.
Mail ausgetretener Personen werden in einem ausgelagerten System recht zeitnah wegarchiviert und gelöscht.
Wir haben keine Beschränkung bei eingehenden oder ausgehenden Mails (was auch mal zu Mailanhängen von 160MB geführt und zu einer mündlichen Standpauke des Mitarbeiters geführt hat)


Ich wäre ja gerne weniger egoistisch, aber was hab ich davon?

Offline umi

  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 2.062
  • Geschlecht: Männlich
  • one notes to rule'em all, one notes to find'em....
    • Belsoft AG
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #4 am: 29.10.14 - 10:39:00 »
Moin
Eine Möglichkeit wäre die Archive auf "billigeres" Storage auszulagern oder gleich einen eigenen Archiv server verwenden.
Gruss

Urs

<:~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Jegliche Schreibfehler sind unpeabischigt
http://www.belsoft.ch
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~:>

Offline Thomas Schulte

  • @Notes Preisträger
  • Moderator
  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 4.388
  • Geschlecht: Männlich
  • Ich glaub mich tritt ein Pferd
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #5 am: 29.10.14 - 11:00:19 »
Wie Manni in seinem Ausgangspost mitgeteilt hat, setzt er bereits Archivierung ein, allerdings auf dem selben teuren SAN.
Die Antwort "oder Archivieren" ist also ziemlich nutzlos.
Dieser Aussage muss ich jetzt mal wiedersprechen.

Archivieren ist, wenn man es nicht mit den Bordmitteln von Domino betreibt eben nicht "Nutzlos". Zum einen muss man ein Archiv nicht zwangsweise auf einem teueren SAN betreiben. Das geht auch, und dafür ist unser Archivierungs System zum Beispiel vorbereitet, mit deutlich billigeren Systemen zur Datenhaltung. Wenn ich es unbedingt sehr sicher und schnell haben will dann zum Beispiel mit einer FAST Silent Cube. Bei dem was da 4, 8, 16 oder 24 Terabyte netto Speichervolumen kosten kann dieser Kostenfaktor vernachlässigt werden. Unter Umständen, auch darauf sind wir vorbereitet, abhängig von der benötigten Zugriffs Schnelligkeit und der gewünschten Sicherheit mit immer billigeren, weil langsameren Systemen. Und wir können dem Benutzer, solange der einen direkten Zugriff auf den Archiv Server hat (im LAN oder über VPN), auch ohne große Geschwindigkeits einbußen seine Dokumente bei Doppelklick auch wieder anzeigen. Oder weiterleiten oder drucken oder was weis denn ich. Und das Ganze mit minmaler Verzögerung. Damit kann man dann zum Beispiel bei einer Mehrstufigen Archivierung sehr frühzeitig die großen Brocken verkleinern und dem Benutzer trotzdem noch alle seine Dokumente lange Zeit in seiner Mail Box zur Verfügung stellen.
Und irgendwann dann die Dokument endgültig ins Archiv verschieben so das sie da noch auffindbar sind.

Mit dieser Form der Archivierung entlaste ich nicht nur einen Server sondern alle auf der die Anwendung zu finden ist.


Was tatsächlich nicht sinnvoll ist, ist die Domino eigene Archivierung, die ja nur eine Auslagerung in andere NSF Datenbanken ist. Hier spart man sich nichts ein. Außer Datensicherheit, wenn man das nur auf einem einzigen Server ablegt.

Was die Schulung und Sensibilisierung der Mitarbeiter angeht stimme ich grundsätzlich zu. ABER diese Form das einzuschränken funktioniert nur dann, wenn man möglichst keine Unterschiede zwischen den einzelnen Mitarbeitern macht. UND es führt dazu, das man sich immer wieder mit diesem Thema auseinander setzen muss.

Dasselbe gilt auch für die ausgetretenen Personen.
Auf ausgelagerte Systeme archivieren und dann vom Server löschen ist grundsätzlich ja eine gute Idee. Was macht man aber, wenn ausgerechnet dieser Mitarbeiter regen Kontakt zu Kunden/Lieferanten hatte und nach 3/6/20 Monaten taucht zu einem Projekt des Mitarbeiters eine Frage auf? Und der Kunde/Lieferant/Staatsanwalt  >:D will wissen ob X dieses Mail nicht erhalten hat und was denn seine Antwort darauf gewesen ist?

Und mittlerweile kommt aus meiner Erfahrung heraus noch ein weiterer Punkt dazu. Gerade bei Banken hören wir immer mehr, das die interne Revision anfängt anzumerken, das die externen Wirtschaftsprüfer auf funktionierende Archivierungs Systeme die Geschäftsrelevante Daten sicher archivieren in Zukunft mehr Wert legen werden. Das scheint in den nächsten Jahren ein für ein Testat kritischer Punkt zu werden. Und wenn das bei den Banken angekommen ist, wie lange werden die dann wohl brauchen um das bei Ihren Kunden genauso zu prüfen?Und wie lange wird es dauern, bis man dann doch Journal Archivierung betreiben werden muss?

Ich weiß das Archivierung kein Thema ist das "Sexy" ist. Es kostet Geld. Es bringt, außer im Schadensfall keine großen Vorteile. Es kann, solange die vorgelagerten Systeme es mitmachen, immer wieder auf die lange Bank geschoben werden. Irgendwann wird man es aber angehen müssen. Oder sich für die Prüfer Wege überlegen müssen wie das mit den bereits vorhandenen Mitteln testierbar gemacht werden kann.
Bevor man sich aber die Mühe macht, mit "Bordmitteln" ein testierfähiges System hinzustellen und dabei vom Scheit zum Klötzchen, vom Klötzchen zum Stöckchen, vom Stöckchen zum Spreisel kommt und immer neue Teile findet, sollte man sich die Kosten (und ja Archivsysteme kosten Geld) im Vergleich zur Streßfreiheit für die Benutzer und die Admins anschauen und dann überlegen ob man sich das wirklich antun möchte. Oder ob es nicht sinnvoller ist einfach ein Archivsystem einzukaufen das das tut was es soll. Dokumente aus Domino heraus archivieren.
Thomas Schulte

Collaborative Project Portfolio and Project Management Software

"Aber wo wir jetzt einmal soweit gekommen sind, möchte ich noch nicht aufgeben. Versteh mich recht, aufgeben liegt mir irgendwie nicht."

J.R.R.Tolkien Herr der Ringe, Der Schicksalsberg

OpenNTF Project: !!HELP!! !!SYSTEM!!  !!DRIVER!!

Skype: thomasschulte-kulmbach

Driri

  • Gast
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #6 am: 29.10.14 - 11:26:08 »
Ich skizziere mal kurz, wie wir das Thema vor ein paar Jahren umgesetzt haben:

- zentrales Archivsystem (IBM Content Collector / Manager)
- Archivdaten landen auf einem dedizierten, revisionssicheren System
- DAOS wird nicht genutzt

- direkte automatische Archivierung jeder ein-/ausgehenden Mail in ein Company-Archiv

- zusätzliche automatische Archivierung nach Zeit in ein User-Archiv:
   - direkte Archivierung in User-Archiv
   - Anhänge werden nach 3 Monaten automatisch aus Mails entfernt
   - restlicher Body wird nach 6 Monaten automatisch aus Mails entfernt

- + manuelle Archivierungsmöglichkeit durch den User in das User-Archiv (d.h. das Stubbing der Inhalte aus den Mails passiert dann ggf. früher als durch die automatische Lösung)

- interne Bepreisung der Maildatenbankvolumen
- bis 500 MB kostenlos
- über 500 MB gestaffelte Bepreisung (monatlich)
- über 2 GB (halbautomatische) Deaktivierung des Mailversands, d.h. dann ist nur noch Mailempfang möglich

- keine Quotas auf den Maildatenbank


Das Company-Archiv ist genau für die von Thomas angesprochenen Themen aufgesetzt worden. Das User-Archiv ist dagegen für die Minimierung des Datenvolumens gedacht.

Funktioniert bei uns gut. Wir haben kein Theater mit Quotas, die Kosten sind für die Anwender transparent und soweit ich weiß, wurde dadurch das massive Datenwachstum zumindest verlangsamt und hält sich im Rahmen. Der größte Effekt wurde natürlich erzielt, als zum ersten Mal "Altdaten" aus den Maildatenbanken gestubbt wurden.

Offline J Parlin

  • Senior Mitglied
  • ****
  • Beiträge: 390
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #7 am: 29.10.14 - 11:32:48 »
... bei uns immer noch Diskussionsthema: Deduplizierung vs. DAOS, hat da jemand noch Zusatzinfos, ob die Deduplizierung überhaupt Sinn macht !?

Offline Thomas Schulte

  • @Notes Preisträger
  • Moderator
  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 4.388
  • Geschlecht: Männlich
  • Ich glaub mich tritt ein Pferd
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #8 am: 29.10.14 - 11:38:55 »
Ich skizziere mal kurz, wie wir das Thema vor ein paar Jahren umgesetzt haben:
....
Das Company-Archiv ist genau für die von Thomas angesprochenen Themen aufgesetzt worden. Das User-Archiv ist dagegen für die Minimierung des Datenvolumens gedacht.

Funktioniert bei uns gut. Wir haben kein Theater mit Quotas, die Kosten sind für die Anwender transparent und soweit ich weiß, wurde dadurch das massive Datenwachstum zumindest verlangsamt und hält sich im Rahmen. Der größte Effekt wurde natürlich erzielt, als zum ersten Mal "Altdaten" aus den Maildatenbanken gestubbt wurden.
Jepp. Nur das unser System noch nicht mal halb soviel kostet wie der Content Collector.  ;D
Thomas Schulte

Collaborative Project Portfolio and Project Management Software

"Aber wo wir jetzt einmal soweit gekommen sind, möchte ich noch nicht aufgeben. Versteh mich recht, aufgeben liegt mir irgendwie nicht."

J.R.R.Tolkien Herr der Ringe, Der Schicksalsberg

OpenNTF Project: !!HELP!! !!SYSTEM!!  !!DRIVER!!

Skype: thomasschulte-kulmbach

Offline smokyly

  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 1.169
  • Geschlecht: Männlich
  • Nicht jeder ist ersetzbar.
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #9 am: 29.10.14 - 11:39:36 »
... bei uns immer noch Diskussionsthema: Deduplizierung vs. DAOS, hat da jemand noch Zusatzinfos, ob die Deduplizierung überhaupt Sinn macht !?

Stichwort DAOS Estimator

Ah, sorry, da ging es bei Deiner Frage um das SAN.
« Letzte Änderung: 29.10.14 - 11:44:14 von smokyly »
Geri

Offline Pfefferminz-T

  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 1.204
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #10 am: 29.10.14 - 12:15:56 »
Hallo,

Deduplication im SAN? Falls DAOS nicht aktiv ist, werden dann Inhalte von Datenbanken verglichen? Kann ich mir nicht vorstellen dass hier auch nur annähernd die Quote von DAOS erreicht wird.

Wie schon mehrmals geschrieben ist DAOS ein sehr gutes Mittel, um Datenbankgrössen und den benötigten Speicherplatz zu reduzieren. Dazu kommen dann auch noch grosse zeitliche Einsparungen beim Backup, weniger Datenvolumen bei der Replikation. DAOS ist mittlerweile bei vielen meiner Kunden erfolgreich im Einsatz, die Statistiken beeindrucken mich immer wieder.

Wenn Notes nicht als Dateiablage genutzt werden soll, dann muss ich Alternativen anbieten. Wenn ich das nicht anbiete, dann sind die Nutzer oft sehr findig und "bauen" ihre eigenen Lösungen...

Grüsse,
Thorsten
Grüsse,
Thorsten

Driri

  • Gast
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #11 am: 29.10.14 - 12:33:37 »
@Thomas : Ist keine Kunst  ;)

Ich wage auch mal die These, daß wir uns in einer erneuten Entscheidungsphase nicht noch einmal für das IBM-Produkt entscheiden würden. Aber das ist ein anderes Thema.

Driri

  • Gast
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #12 am: 29.10.14 - 12:40:23 »
Ergänzung zur Diskussion Deduplizierung / DAOS:

Wir haben uns nach Einführung der Archivierung gegen die Aktivierung von DAOS entschieden.

Es war ursprünglich geplant, DAOS zu aktivieren, um dem steten Wuchs des Datenvolumens auf den Dominoservern etwas entgegen zu setzen.

Nachdem wir dann die Archivierung und die damit verbundene Entfernung von Attachments aus den archivierten Mails eingeführt haben, würden wir in unserer Konstellation mit DAOS keinen deutlich spürbaren Effekt erzielen.

Das soll keine Empfehlung gegen DAOS sein, sondern nur der Hinweis, daß man sich gerade vor dem Hintergrund der Archivierung auch über solche Themen noch einmal Gedanken machen sollte.
Ohne die Archivierung und das Stubbing würden wir DAOS nutzen.

Offline stoeps

  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 831
  • Geschlecht: Männlich
  • It's your life, so live it your way.
    • Stoeps.de
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #13 am: 29.10.14 - 21:17:08 »
Deduplizierung auf der SAN ist mit NSF nicht möglich. Das ist für die SAN ein großer Container, was da drinsteckt ist der SAN egal. Also wenn sowas gewünscht ist, dann muss man halt DAOS aktivieren.

Mir wurde vor Jahren mal ein interessanter Satz gesagt: "Sie verbieten Google Mail und haben Quotas aktiv? Dann sind ihre Mails schon bei Google."

Der Mitarbeiter fühlt sich durch Quotas gegängelt und in seinem Arbeitsstil gehemmt. Er braucht brauchbare Alternativen zur Aufbewahrung in seinem Mailfile. Zentrale Archive sind da ein guter Weg, da er sich darauf verlassen kann, daß Mails auch nach Jahren noch gefunden werden können und er u.U. den Beleg für eine Entscheidung, Tätigkeit oder was auch immer zur Hand hat.

Ich denke das kann man nicht rein technisch lösen, man muss mit den Usern oder Vorgesetzten sprechen und auf dieser Basis entsprechende technische Voraussetzungen schaffen, um den/unseren Benutzern ein (nahezu) perfektes Arbeitsumfeld zu bieten. Technische Gängelung ist kontraproduktiv und eigentlich nur verantwortbar, wenn rechtliche keine andere Möglichkeit vorhanden ist. Nach meiner Erfahrung ist so etwas nicht aus der IT heraus lösbar.

Da wären wir auch wieder bei dem Thema, daß wir oft selbst Schuld sind, wenn unsere User sich über Notes beschweren und alles Sch... ist. Wir sollten anfangen zu begreifen, daß Benutzer primär mit ihrer Software arbeiten wollen um ihr Tagesgeschäft zu erledigen oder ihre Ziele zu erreichen. Die beste Technik nützt nichts, wenn der User nicht begreift wie oder warum er sie nutzen soll. Der Preis einer Festplatte ist dem Benutzer egal, wenn er 3 GB E-Mails braucht um schnell Informationen zu finden, braucht er die und wird durch Quotas behindert. Deshalb halte ich nichts von fixen Regeln wie Quotas, Archivierungsregeln u.ä. Das ist User, Stellen oder Abteilungsabhängig und ich glaube nicht, daß wir als Techniker das immer beurteilen können.

Ich würde auf jeden Fall DAOS aktivieren, da die Ersparnisse durch den Wegfall der doppelten Attachments auf jeden Fall vorhanden ist. Selbst wenn jeder Anhang immer nur einmal vorhanden wäre, habe ich nicht mehr Platz verbraucht. Sobald ein Attachment öfter vorkommt spare ich Platz.

Da die Anhänge nicht mehr in den Datenbanken gespeichert sind, laufen Fixup und Compact um einiges schneller. Die Zeiten für inkrementelle Backups verkürzen sich nach meiner Erfahrung um bis zu 70%, da NLOs ja unverändert sind und daher nur einmal in der Wochensicherung benötigt werden. Die inkrementelle Sicherung der NSFs (sehr viel kleiner ohne Attachment) ist um etwa den gleichen Faktor verbessert. Das wiegt den evtl höheren Aufwand beim Restore aber immer noch auf.

Die Ersparnis beim Backup sollte also nicht ausser acht gelassen werden.
--
Grüsse
Christoph

Offline m3

  • Freund des Hauses!
  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 8.102
  • Geschlecht: Männlich
  • Non ex transverso sed deorsum!
    • leyrers online pamphlet
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #14 am: 29.10.14 - 22:13:30 »
Ich hab das mit dem "kauft mehr Festplatten" durchaus ernst gemeint.  ;)

In Zeiten von Google Mail und Co. kann man seinen Kunden nicht mehr 100 MB Quotas zumuten. Und schon gar nicht kann/sollte man einem User dann auch noch das Management (Archvieren, Auslagern, ...) machen lassen. Das ist nicht deren Job, das ist unserer.

Daher gefällt mir Diri's Ansatz mit den automatismen schon sehr.

Dass das alles keine leichte/einfache Aufgabe ist, ist mir durchaus klar. ;)
HTH
m³ aka. Martin -- leyrers online pamphlet | LEYON - All things Lotus (IBM Collaborations Solutions)

All programs evolve until they can send email.
Except Microsoft Exchange.
    - Memorable Quotes from Alt.Sysadmin.Recovery

"Lotus Notes ist wie ein Badezimmer, geht ohne Kacheln, aber nicht so gut." -- Peter Klett

"If there isn't at least a handful of solutions for any given problem, it isn't IBM"™ - @notessensai

Offline schroederk

  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 1.924
  • Geschlecht: Männlich
  • Ich liebe dieses Forum!
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #15 am: 30.10.14 - 08:26:58 »
Stellt sich mir die Frage, wie ihr es mit der Datensicherheit und dem Archiv-Server/System/Platten/SAN haltet.
Für uns ist die Archivierung ein wichtiges Thema und es kommt regelmäßig vor, dass Mails u.a. für Rechtsstreitigkeiten zurückgeholt werden müssen, die Jahre alt sind und oft auch in DBs ausgeschiedener Personen.
Ich kenne jetzt Fast Cube nicht, aber ich kann mir keine Lösung vorstellen, als Metro-Cluster, über unterschiedlichen Standorten verteilt, also 4fach ausfallsicher, mit Vor-Ort-Maintenance, wenn eine Platte hustet, die nicht teuer ist.

Was Deduplizierung betrifft, kann ich nur von unserem System sprechen. Dem System ist egal, in welchem Format oder Form die Daten vorliegen. Es kennt kein NSF, PPT oder DBF. Das System prüft Blöcke auf der Platte, bildet Prüfsummen (sogenannte Fingerprints) und vergleicht diese. Sind diese gleich, wird dedupliziert. Das kann also auch sein, dass bei zwei Dateianhängen mit Powerpoint-Präsentationen, bei der 5 Seiten identisch sind, dieser Teil dedupliziert wird.
DAOS würde hier nichts einsparen, weil es für DAOS schlicht zwei unterschiedliche Dateianhänge sind.

Ich wäre ja gerne weniger egoistisch, aber was hab ich davon?

Offline stoeps

  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 831
  • Geschlecht: Männlich
  • It's your life, so live it your way.
    • Stoeps.de
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #16 am: 30.10.14 - 08:53:44 »
Naja aber du verbaust dir doch mit der Aktivierung von DAOS auch nichts. Ohne Verschlüsselung der NLOs würde die SAN die 5 Seiten ja trotzdem deduplizieren.

Deduplizierung von Speicherbereichen bedeutet aber auch, dass alle NSF die gleiche ODS haben müssen und die Anhänge gleich behandeln, also auch die erweiterten DB Optionen gleich sind. Da sehe ich mit DAOS auch noch Möglichkeiten das zu verbessern.

Du hast immer noch die Vorteile der schnelleren Compacts, geringere IOs etc. DAOS hilft nicht nur Platz sparen.
« Letzte Änderung: 30.10.14 - 09:02:10 von stoeps »
--
Grüsse
Christoph

Offline schroederk

  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 1.924
  • Geschlecht: Männlich
  • Ich liebe dieses Forum!
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #17 am: 30.10.14 - 09:16:22 »
Es sollte ja auch nicht heissen, dass ich ein Gegner von DAOS wäre.
DAOS ist eine sinnvolle Funktion die zusätzlich Platz spart und sich sofort auswirkt.

Ich wäre ja gerne weniger egoistisch, aber was hab ich davon?

Offline Manni Ciao

  • Junior Mitglied
  • **
  • Beiträge: 82
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #18 am: 30.10.14 - 09:50:23 »
Herzlichen Dank für alle eure Beiträge!

Mir ging es vor allem um die Frage, welche ORGANISATORISCHEN Maßnahmen bei anderen Unternehmen gesetzt werden.
In der Hoffnung, dass ich eine naheliegende simple Maßnahme übersehen hätte.

DAOS habe wir im Einsatz.
Die Bepreisung von Quotas ist den Kostenstellenverantwortlichen ziemlich egal, da diese Kosten nicht schmerzhaft genug sind.
Warum wir teuren SAN zur Archivierung einsetzen? Das liegt daran, dass wir einerseits Standards von einem externen Rechenzentrum vorgeschrieben bekommen und andererseits an unserem stets problemorientierten "Geht nicht weil" Team Basissysteme - unter ihrer VMWARE geht das nicht. Sie sehen auch Probleme wenn ich eine eigenen Notes-Archivserver (ohne DAOS) einführen würde und der weniger häufig kostenerzeugende Sicherungen benötigen würde.

Den Einsatz einer professionellen Archiv-Lösung werde ich wieder in Erwägung ziehen müssen und werde mich dann bei den Leuten melden, die mich hier direkt kontaktiert haben.


Offline J Parlin

  • Senior Mitglied
  • ****
  • Beiträge: 390
Re: jährlich wachsendes Datenvolumen eines Mailservers
« Antwort #19 am: 30.10.14 - 11:15:19 »
... für mich interessant zu sehen, wie hier die Meinungen zur Deduplizierung etwas auseinandergehen. Das muß ich bei Gelegenheit mal mit einem Spezi von NetApp abschnacken.

 

Impressum Atnotes.de  -  Powered by Syslords Solutions  -  Datenschutz