Zum Hauptinhalt springen


Daten­ver­lust in der Cloud? War­um Micro­soft 365 und Azu­re kein „ein­ge­bau­tes“ Back­up sind.

28.12.2025
Team Com­pu­ter­BUT­LER
computerbutler cloud backup disaster recovery microsoft 365 azure

Stel­len Sie sich vor, Sie mie­ten einen Tre­sor in einer der sichers­ten Ban­ken der Welt. Die Bank garan­tiert Ihnen, dass das Gebäu­de erd­be­ben­si­cher ist, die Wän­de meter­dick sind und bewaff­ne­te Sicher­heits­kräf­te rund um die Uhr patrouil­lie­ren. Sie legen Ihre wert­volls­ten Doku­men­te in den Tre­sor, schlie­ßen ab und gehen mit dem Gefühl abso­lu­ter Sicher­heit nach Hau­se.

Eines Tages kom­men Sie zurück und stel­len fest: Die Doku­men­te sind weg. Nicht, weil jemand die Bank aus­ge­raubt hat, son­dern weil Sie ver­se­hent­lich den fal­schen Ord­ner geschred­dert haben, bevor Sie ihn in den Tre­sor leg­ten – oder weil ein fin­di­ger Betrü­ger Ihren Schlüs­sel kopiert hat. Die Bank zuckt mit den Schul­tern und sagt: „Wir garan­tie­ren, dass der Tre­sor sta­bil ist und die Tür schließt. Was Sie dar­in tun oder wen Sie mit Ihrem Schlüs­sel rein­las­sen, liegt in Ihrer Ver­ant­wor­tung. Wir haben kei­ne Kopie Ihrer Doku­men­te.“

Genau das ist die Rea­li­tät der Cloud im Jahr 2026.

Unter­neh­men im Mit­tel­stand migrie­ren mas­sen­haft nach Micro­soft 365, Azu­re oder AWS. Sie tun dies oft mit der impli­zi­ten Annah­me: „Wenn mei­ne Daten erst ein­mal in der Cloud sind, ist das The­ma Back­up erle­digt. Micro­soft küm­mert sich schon dar­um.“

Das ist der teu­ers­te Irr­tum der moder­nen IT-Geschich­te.

In die­sem Deep Dive demas­kie­ren wir den Mythos der „ein­ge­bau­ten Sicher­heit“. Wir erklä­ren das Klein­ge­druck­te der Cloud-Anbie­ter – das soge­nann­te Shared Respon­si­bi­li­ty Model – und zei­gen auf, war­um Cloud-Ver­füg­bar­keit nicht mit Daten­si­che­rung gleich­zu­set­zen ist. Wir füh­ren Sie durch den Maschi­nen­raum des Dis­as­ter Reco­very und erklä­ren, war­um ein ech­tes Back­up Ihrer Cloud-Daten die letz­te und wich­tigs­te Ver­tei­di­gungs­li­nie für die Exis­tenz Ihres Unter­neh­mens ist.

Kapi­tel 1: Das Shared Respon­si­bi­li­ty Model – Wer haf­tet, wenn es knallt?

Der wich­tigs­te Grund für das Back­up-Miss­ver­ständ­nis ist die man­geln­de Kennt­nis der Ver­trä­ge. Micro­soft, Ama­zon und Goog­le sind extrem trans­pa­rent dar­in, wofür sie ver­ant­wort­lich sind – und wofür nicht. Man muss nur das Klein­ge­druck­te lesen. Die­ses Kon­zept nennt sich „Shared Respon­si­bi­li­ty Model“ (Modell der geteil­ten Ver­ant­wor­tung).

Ein­fach aus­ge­drückt: Der Cloud-Anbie­ter ist ver­ant­wort­lich für die Sicher­heit DER Cloud. Sie als Kun­de sind ver­ant­wort­lich für die Sicher­heit IN DER Cloud.

  • Ver­ant­wor­tung des Anbie­ters: Micro­soft garan­tiert, dass die Rechen­zen­tren lau­fen, dass die Hard­ware nicht aus­fällt, dass der Strom fließt und dass die phy­si­sche Infra­struk­tur vor Angrif­fen geschützt ist. Das ist die „Ver­füg­bar­keit“.
  • Ver­ant­wor­tung des Kun­den: Sie sind ver­ant­wort­lich für Ihre Iden­ti­tä­ten (wer darf rein?), Ihre Gerä­te (wie grei­fen sie zu?) und vor allem – für Ihre DATEN.

Wenn Micro­soft ein loka­les Ser­ver-Pro­blem hat, mer­ken Sie das meist gar nicht, weil die Infra­struk­tur red­un­dant aus­ge­legt ist. Wenn Sie aber eine wich­ti­ge E‑Mail-Kor­re­spon­denz oder einen gan­zen Share­Point-Ord­ner löschen, ist das für Micro­soft ein legi­ti­mer Benut­zer­be­fehl. Das Sys­tem tut genau das, was Sie (oder ein Hacker mit Ihren Zugangs­da­ten) ver­langt haben.

Die Cloud ist ein Hoch­leis­tungs­mo­tor. Sie sorgt dafür, dass das Auto fährt. Aber wenn Sie gegen die Wand steu­ern oder den Tank mit dem fal­schen Treib­stoff fül­len, ist der Moto­ren­her­stel­ler nicht schuld. Wer die­se Gren­ze der Ver­ant­wor­tung in sei­nem eige­nen Unter­neh­men prü­fen möch­te, fin­det in einem unver­bind­li­chen „Stra­te­gie­ge­spräch zur Cloud-Resi­li­enz“ oft die not­wen­di­ge Klar­heit.

Kapi­tel 2: Ver­füg­bar­keit ist kein Back­up – Der fei­ne Unter­schied

„Aber mei­ne Daten wer­den doch in drei ver­schie­de­ne Rechen­zen­tren gespie­gelt!“, hören wir oft von IT-Lei­tern. Das stimmt. Diens­te wie Azu­re oder Micro­soft 365 nut­zen Geo-Red­un­danz. Ihre Daten lie­gen phy­sisch an meh­re­ren Orten gleich­zei­tig. Fällt ein Rechen­zen­trum in Dub­lin aus, über­nimmt Ams­ter­dam in Mil­li­se­kun­den.

Das ist Hoch­ver­füg­bar­keit. Aber es ist kein Back­up.

Der Unter­schied ist fun­da­men­tal:

  • Hoch­ver­füg­bar­keit schützt vor Hard­ware-Aus­fäl­len. Wenn die Fest­plat­te in Dub­lin stirbt, sind die Daten in Ams­ter­dam noch da.
  • Back­up schützt vor Daten­ver­lust durch Kor­rup­ti­on, mensch­li­ches Ver­sa­gen oder bös­ar­ti­ge Absicht.

Das Pro­blem der Spie­ge­lung: Wenn eine Datei durch einen Virus ver­schlüs­selt oder durch einen Anwen­der gelöscht wird, wird die­ser Feh­ler sofort in alle ande­ren Rechen­zen­tren gespie­gelt. Die Cloud löscht oder ver­schlüs­selt die Daten in Ams­ter­dam genau­so schnell und effi­zi­ent wie in Dub­lin. Syn­chro­ni­sa­ti­on ist der Feind des Back­ups. Ein ech­tes Back­up muss getrennt von der Live-Umge­bung exis­tie­ren – zeit­lich und logisch.

Kapi­tel 3: Die vier apo­ka­lyp­ti­schen Rei­ter des Cloud-Daten­ver­lusts

War­um ver­schwin­den Daten in der Cloud? Es sind sel­ten die gro­ßen Kata­stro­phen, vor denen uns die Cloud-Anbie­ter schüt­zen. Es sind die all­täg­li­chen Sze­na­ri­en, gegen die Micro­soft 365 und Co. von Haus aus kei­nen Schutz bie­ten.

  1. Mensch­li­ches Ver­sa­gen (Der Klas­si­ker): Der Mit­ar­bei­ter, der „mal eben schnell“ Platz schaf­fen will und den fal­schen Share­Point-Ord­ner löscht. Bis das bemerkt wird, sind oft Wochen ver­gan­gen – und die stan­dard­mä­ßi­gen Auf­be­wah­rungs­fris­ten von Micro­soft (oft nur 14 bis 30 Tage) sind längst abge­lau­fen.
  2. Ran­som­wa­re & Mal­wa­re: Moder­ne Ran­som­wa­re syn­chro­ni­siert sich heu­te mit Vor­lie­be in die Cloud. Sie ver­schlüs­selt die loka­len Daten auf dem Lap­top, und One­Dri­ve schiebt die ver­schlüs­sel­ten Ver­sio­nen brav in die Cloud, wobei die sau­be­ren Ori­gi­na­le über­schrie­ben wer­den. Ohne ein exter­nes Back­up, das „unver­än­der­lich“ (immu­ta­ble) ist, haben Sie kei­ne Chan­ce auf Wie­der­her­stel­lung.
  3. Bös­ar­ti­ge Insi­der: Der frus­trier­te Mit­ar­bei­ter, der nach sei­ner Kün­di­gung noch schnell wich­ti­ge Kun­den­da­ten löscht oder Kor­re­spon­den­zen ver­nich­tet, bevor sein Zugang gesperrt wird. Wenn die IT den Account löscht, wer­den nach einer kur­zen Frist auch alle damit ver­bun­de­nen Daten unwie­der­bring­lich gelöscht.
  4. Appli­ka­ti­ons-Feh­ler: Feh­ler­haf­te Skrip­te oder Dritt­an­bie­ter-Apps, die über APIs auf Ihre Cloud-Daten zugrei­fen, kön­nen durch Fehl­kon­fi­gu­ra­tio­nen mas­sen­haft Daten kor­rum­pie­ren oder löschen.

In all die­sen Fäl­len ist der Cloud-Anbie­ter macht­los. Er hat gelie­fert, was bestellt wur­de: Eine lau­fen­de Infra­struk­tur. Dass die Daten dar­auf nun Schrott sind, ist Ihr Pro­blem – es sei denn, Sie haben als prag­ma­ti­sche Archi­tek­ten eine zwei­te, unab­hän­gi­ge Siche­rungs­ebe­ne ein­ge­zo­gen.

Kapi­tel 4: Die 30-Tage-Fal­le – War­um Micro­softs Stan­dard-Fris­ten trü­ge­risch sind

Wenn wir mit IT-Lei­tern über das Back­up von Micro­soft 365 spre­chen, hören wir oft: „Wir haben doch den Papier­korb und die Auf­be­wah­rungs­richt­li­ni­en (Reten­ti­on Poli­ci­es) direkt in Office 365 kon­fi­gu­riert.“

Das klingt auf dem Papier gut, ist aber in der Pra­xis eine gefähr­li­che Sicher­heits-Illu­si­on. Es ist, als wür­de man glau­ben, ein Akten­ver­nich­ter mit einer „Rück­hol-Tas­te“ sei ein voll­wer­ti­ges Archiv.

Die har­ten Fak­ten der Stan­dard-Auf­be­wah­rung:
In der Stan­dard­kon­fi­gu­ra­ti­on lan­den gelösch­te E‑Mails oder Doku­men­te im „Gelösch­te Elemente“-Ordner oder im Papier­korb. Dort blei­ben sie in der Regel 14 bis 30 Tage. Nach die­ser Frist wan­dern sie in einen „end­gül­tig gelösch­ten“ Bereich, der nach wei­te­ren 14 Tagen unwie­der­bring­lich geleert wird.

Das Pro­blem der Ent­de­ckungs­zeit:
Stu­di­en zei­gen, dass Daten­ver­lus­te oder bös­ar­ti­ge Mani­pu­la­tio­nen im Durch­schnitt erst nach 140 bis 200 Tagen ent­deckt wer­den. Wenn ein Mit­ar­bei­ter im Janu­ar ein kri­ti­sches Pro­jekt-Doku­ment löscht und Sie es im Juni für eine Betriebs­prü­fung benö­ti­gen, ist die Cloud-eige­ne Auf­be­wah­rung längst abge­lau­fen. Die Daten sind phy­sisch gelöscht. Micro­soft hat sie bereits über­schrie­ben. Ohne ein exter­nes Back­up, das die­se Daten über Jah­re hin­weg vor­hält, ist die­ser Ver­lust final.

Zudem sind Auf­be­wah­rungs­richt­li­ni­en inner­halb der­sel­ben Platt­form kon­fi­gu­riert. Wenn ein Angrei­fer Admi­nis­tra­tor-Rech­te erlangt (durch Phis­hing oder Ses­si­on-Hijack­ing), ist sei­ne ers­te Amts­hand­lung nicht die Ver­schlüs­se­lung, son­dern das Deak­ti­vie­ren die­ser Richt­li­ni­en und das Lee­ren der Papier­kör­be. Ein Back­up, das im sel­ben „Haus“ (Ten­ant) liegt wie die Live-Daten, ist kein Back­up – es ist ein Mit­ge­fan­ge­ner.

Kapi­tel 5: Die öko­no­mi­sche Dimen­si­on – Was kos­tet ein „Cloud-Total­scha­den“?

An die­ser Stel­le kommt Frank, unser Wäch­ter des Gel­des, ins Spiel. Er sieht die Kos­ten für eine zusätz­li­che Back­up-Lösung und fragt: „War­um müs­sen wir extra bezah­len für etwas, das wir eigent­lich schon gemie­tet haben?“

Die Ant­wort liegt in der Risi­ko-Kal­ku­la­ti­on. Wir müs­sen den „Pri­ce of Fail­ure“ (Kos­ten des Schei­terns) berech­nen.

Die Rech­nung des Daten­ver­lusts:

  1. Pro­duk­ti­vi­täts­ver­lust: Rech­nen Sie die Anzahl Ihrer Mit­ar­bei­ter mal deren Stun­den­satz mal die Zeit, die sie ohne Zugriff auf E‑Mails und Datei­en ver­brin­gen. Bei einem Cloud-Aus­fall oder einer mas­si­ven Ran­som­wa­re-Ver­schlüs­se­lung steht der Betrieb oft für Tage still.
  2. Wie­der­her­stel­lungs­kos­ten: Ohne ein sau­be­res, exter­nes Back­up müs­sen Daten müh­sam manu­ell rekon­stru­iert wer­den – falls das über­haupt mög­lich ist. Foren­si­ker und Kri­sen-Teams kos­ten tau­sen­de Euro pro Tag.
  3. Recht­li­che Kon­se­quen­zen (Com­pli­ance): In Deutsch­land unter­liegt jedes Unter­neh­men den GoBD (Grund­sät­ze zur ord­nungs­mä­ßi­gen Füh­rung und Auf­be­wah­rung von Büchern…). Wenn steu­er­re­le­van­te E‑Mails oder Doku­men­te in der Cloud ver­lo­ren gehen und nicht wie­der­her­ge­stellt wer­den kön­nen, dro­hen emp­find­li­che Stra­fen bei der nächs­ten Prü­fung. Die DSGVO ver­langt zudem die „Fähig­keit, die Ver­füg­bar­keit und den Zugang zu per­so­nen­be­zo­ge­nen Daten bei einem phy­si­schen oder tech­ni­schen Zwi­schen­fall rasch wie­der­her­zu­stel­len“ (Art. 32 DSGVO). Ohne Back­up ver­sto­ßen Sie schlicht gegen das Gesetz.

Ein exter­nes Cloud-Back­up ist somit kei­ne zusätz­li­che IT-Aus­ga­be, son­dern eine Ver­si­che­rung für die Bilanz. Es ver­wan­delt das exis­tenz­be­dro­hen­de Risi­ko eines per­ma­nen­ten Daten­ver­lusts in eine kal­ku­lier­ba­re, gerin­ge Betriebs­aus­ga­be. Wer hier spart, spart an der Sta­bi­li­tät sei­nes Fun­da­ments. Eine fun­dier­te Stra­te­gie­be­ra­tung zur Busi­ness Con­ti­nui­ty zeigt schnell auf, dass die Kos­ten für Prä­ven­ti­on nur einen Bruch­teil der Kos­ten für eine ver­spä­te­te Hei­lung aus­ma­chen.

Kapi­tel 6: Die Archi­tek­tur der Moder­ne – Cloud-to-Cloud Back­up

Wie sieht nun die Lösung der prag­ma­ti­schen Archi­tek­ten aus? Wenn die Daten in der Cloud woh­nen, gehört auch das Back­up in die Cloud – aber in eine ande­re.

Wir spre­chen von Cloud-to-Cloud Back­up (C2C). Das Prin­zip ist ein­fach, aber geni­al: Ein spe­zia­li­sier­ter Back­up-Dienst ver­bin­det sich über gesi­cher­te Schnitt­stel­len (APIs) mit Ihrem Micro­soft 365 oder Goog­le Workspace Ten­ant. Er kopiert die Daten (E‑Mails, Share­Point, Teams, One­Dri­ve) mehr­mals täg­lich in ein völ­lig unab­hän­gi­ges, hoch­si­che­res Rechen­zen­trum.

Die Vor­tei­le die­ser Archi­tek­tur:

  • Logi­sche Tren­nung (Air Gap): Das Back­up exis­tiert außer­halb Ihrer Micro­soft-Umge­bung. Selbst wenn Ihr kom­plet­ter Micro­soft-Ten­ant kom­pro­mit­tiert oder durch einen glo­ba­len Feh­ler gelöscht wird, lie­gen Ihre Daten sicher beim Back­up-Anbie­ter.
  • Unver­än­der­lich­keit (Immu­ta­bi­li­ty): Ein pro­fes­sio­nel­les Cloud-Back­up sorgt dafür, dass ein­mal gesi­cher­te Daten für einen defi­nier­ten Zeit­raum nicht mehr gelöscht oder ver­än­dert wer­den kön­nen – auch nicht von einem Admi­nis­tra­tor. Das ist der ulti­ma­ti­ve Schutz gegen Ran­som­wa­re.
  • Gra­nu­la­re Wie­der­her­stel­lung: Wäh­rend Micro­soft oft nur „gan­ze Ord­ner“ oder „gan­ze Post­fä­cher“ zurück­rol­len kann, erlaubt ein C2C-Back­up die Suche nach einer ein­zel­nen E‑Mail oder einer spe­zi­fi­schen Datei-Ver­si­on von vor drei Jah­ren. Sie fin­den die Nadel im Heu­hau­fen in Sekun­den.
  • Ent­las­tung der IT-Lei­tung: Da das Back­up auto­ma­ti­siert im Hin­ter­grund läuft und pro­ak­tiv über erfolg­rei­che Siche­run­gen berich­tet, gewinnt die IT-Lei­tung wert­vol­le Zeit zurück. Das täg­li­che „Hof­fen, dass alles gesi­chert ist“ wird durch ein Dash­board mit grü­nen Haken ersetzt.

Kapi­tel 7: Dis­as­ter Reco­very in der Cloud – Wenn es mehr als nur ein Datei-Back­up braucht

Bis­her haben wir über das Sichern von Datei­en und E‑Mails (SaaS) gespro­chen. Aber was ist mit Ihrer Infra­struk­tur in Azu­re oder AWS (IaaS/PaaS)? Wenn Sie dort vir­tu­el­le Ser­ver, Daten­ban­ken oder gan­ze Web-Appli­ka­tio­nen betrei­ben, reicht ein ein­fa­ches Datei-Back­up nicht aus.

In der Cloud-Infra­struk­tur benö­ti­gen wir ein ech­tes Dis­as­ter Reco­very (DR) Kon­zept.

Es geht um die Fra­ge: Wie schnell kön­nen wir unse­re gesam­te IT-Infra­struk­tur an einem ande­ren Ort wie­der hoch­fah­ren, wenn eine kom­plet­te Cloud-Regi­on (z.B. Frank­furt) aus­fällt?
Dazu nut­zen wir Tools wie den Azu­re Site Reco­very oder spe­zia­li­sier­te Dritt­an­bie­ter-Lösun­gen, die Ihre vir­tu­el­len Maschi­nen per­ma­nent in eine ande­re Regi­on spie­geln.

Die zwei ent­schei­den­den Kenn­zah­len:

  1. RPO (Reco­very Point Objec­ti­ve): Wie viel Daten­ver­lust kön­nen wir ver­kraf­ten? (z.B. die letz­ten 15 Minu­ten).
  2. RTO (Reco­very Time Objec­ti­ve): Wie schnell müs­sen wir wie­der online sein? (z.B. inner­halb von 4 Stun­den).

Die­se Kenn­zah­len sind kei­ne IT-Ent­schei­dun­gen, son­dern Geschäfts­ent­schei­dun­gen. Die Geschäfts­füh­rung muss defi­nie­ren, was der Still­stand kos­tet, und die IT-Archi­tek­ten bau­en dar­auf­hin das pas­sen­de Ret­tungs­boot. Das Ziel ist „Resi­li­enz durch Design“. Wer sei­ne RPO- und RTO-Wer­te noch nicht kennt, soll­te drin­gend einen Work­shop zur Not­fall­pla­nung anset­zen, bevor der Ernst­fall die Ent­schei­dung dik­tiert.

Kapi­tel 8: Daten-Sou­ve­rä­ni­tät – Wo woh­nen eigent­lich Ihre Kopien?

Wenn wir uns für ein Cloud-to-Cloud Back­up ent­schei­den, stellt sich für die Geschäfts­füh­rung und die Com­pli­ance-Abtei­lung sofort eine kri­ti­sche Fra­ge: „Wenn unse­re Live-Daten in der Micro­soft-Cloud lie­gen, ist es dann klug, das Back­up eben­falls bei einem US-Anbie­ter zu spei­chern?“

Als prag­ma­ti­sche Archi­tek­ten raten wir hier zur stra­te­gi­schen Diver­si­fi­zie­rung. In der Finanz­welt wür­de nie­mand sein gesam­tes Ver­mö­gen in eine ein­zi­ge Aktie inves­tie­ren. In der IT nen­nen wir das die Ver­mei­dung eines „Sin­gle Point of Fail­ure“.

Die Wahl des Back­up-Stand­orts:

  • Platt­form-Agnos­tik: Idea­ler­wei­se liegt Ihr Back­up nicht nur in einem ande­ren Rechen­zen­trum, son­dern auf einer völ­lig ande­ren Tech­no­lo­gie-Platt­form. Wenn Sie Micro­soft 365 nut­zen, könn­te Ihr Back­up in einem spe­zia­li­sier­ten euro­päi­schen Rechen­zen­trum oder in einem sepa­ra­ten AWS-Bucket (Ama­zon) lie­gen. Dies schützt Sie vor glo­ba­len Soft­ware-Feh­lern, die eine gesam­te Platt­form betref­fen könn­ten.
  • Recht­li­che Sicher­heit (DSGVO): Das Back­up muss den glei­chen stren­gen Daten­schutz­re­geln unter­lie­gen wie die Live-Daten. Für deut­sche mit­tel­stän­di­sche Unter­neh­men ist ein Back­up-Stand­ort inner­halb der EU (idea­ler­wei­se in Deutsch­land) oft die sichers­te Wahl, um recht­li­che Grau­zo­nen beim Daten­trans­fer in Dritt­staa­ten zu ver­mei­den.
  • Der phy­si­sche Air Gap: In extrem sicher­heits­kri­ti­schen Umge­bun­gen kann es sogar sinn­voll sein, eine Kopie der wich­tigs­ten Cloud-Daten wie­der zurück „auf den Boden“ (On-Pre­mi­se) zu holen. So haben Sie im Fal­le eines tota­len Inter­net-Black­outs oder eines glo­ba­len Cloud-GAUs immer noch phy­si­schen Zugriff auf Ihre Kron­ju­we­len.

Die Ent­schei­dung über den Back­up-Stand­ort ist somit ein Balan­ce­akt zwi­schen tech­ni­scher Effi­zi­enz und stra­te­gi­scher Unab­hän­gig­keit. Wer hier die rich­ti­ge Balan­ce für sein Geschäfts­mo­dell sucht, fin­det in einer Poten­zi­al-Ana­ly­se zur Cloud-Sou­ve­rä­ni­tät die fun­dier­te Ent­schei­dungs­grund­la­ge.

Kapi­tel 9: Der 5‑Stu­fen-Fahr­plan zur Cloud-Back­up-Exzel­lenz

Wie ver­wan­deln wir nun die Erkennt­nis der Ver­wund­bar­keit in einen sta­bi­len Schutz­wall? Wir fol­gen einem pra­xis­er­prob­ten Pro­zess, der die IT-Lei­tung ent­las­tet und die Geschäfts­füh­rung absi­chert.

Stu­fe 1: Die Daten-Inven­tur (Was haben wir wo?)
Wir iden­ti­fi­zie­ren alle Orte, an denen Ihr Unter­neh­men Daten in der Cloud spei­chert. Es geht nicht nur um E‑Mails. Wo lie­gen die Share­Point-Team­si­tes? Wer nutzt One­Dri­ve inten­siv? Wel­che Busi­ness-Apps (SaaS) sind im Ein­satz? Wir erstel­len eine Land­kar­te Ihrer digi­ta­len Wer­te.

Stu­fe 2: Defi­ni­ti­on der Schutz­klas­sen (RPO & RTO)
Wir kate­go­ri­sie­ren Ihre Daten. Die Buch­hal­tung und die akti­ven Kun­den­pro­jek­te benö­ti­gen eine höhe­re Siche­rungs­fre­quenz als das Mar­ke­ting-Archiv von 2019. Wir defi­nie­ren gemein­sam die maxi­mal akzep­ta­ble Aus­fall­zeit (RTO) und den maxi­ma­len Daten­ver­lust (RPO) pro Abtei­lung.

Stu­fe 3: Aus­wahl und Inte­gra­ti­on der C2C-Lösung
Wir wäh­len das pas­sen­de Cloud-to-Cloud Back­up-Tool aus, das zu Ihrer Infra­struk­tur passt. Wir ach­ten auf Ver­schlüs­se­lung (End-to-End), Unver­än­der­lich­keit der Daten (WORM-Spei­cher) und die Benut­zer­freund­lich­keit für die IT-Lei­tung. Die tech­ni­sche Anbin­dung erfolgt in der Regel inner­halb weni­ger Stun­den über gesi­cher­te API-Ver­bin­dun­gen.

Stu­fe 4: Auto­ma­ti­sie­rung und Moni­to­ring
Wir kon­fi­gu­rie­ren die Siche­rungs-Zyklen (z.B. alle 4 bis 8 Stun­den). Das Sys­tem mel­det pro­ak­tiv jeden Erfolg und jeden Feh­ler. Die IT-Lei­tung erhält ein zen­tra­les Dash­board, das den Sta­tus der gesam­ten Unter­neh­mens-Resi­li­enz auf einen Blick zeigt. Das täg­li­che „Manu­el­le-Che­cken“ ent­fällt voll­stän­dig.

Stu­fe 5: Der „Fire Drill“ (Regel­mä­ßi­ge Wie­der­her­stel­lungs­tests)
Ein Back­up, das nie getes­tet wur­de, exis­tiert nicht. Ein­mal im Quar­tal füh­ren wir eine simu­lier­te Wie­der­her­stel­lung durch. Wir prü­fen: Wie lan­ge dau­ert es wirk­lich, ein gelösch­tes Post­fach oder ein ver­schlüs­sel­tes Share­Point-Ver­zeich­nis zurück­zu­ho­len? Nur ein erfolg­reich getes­te­ter Pro­zess gibt der Geschäfts­füh­rung die Sicher­heit, im Ernst­fall hand­lungs­fä­hig zu blei­ben.

Kapi­tel 10: Back­up als Teil der Cyber-Resi­li­enz-Stra­te­gie

Wir müs­sen Back­up als das ver­ste­hen, was es ist: Ein inte­gra­ler Bestand­teil Ihrer Sicher­heits­ar­chi­tek­tur, kei­ne iso­lier­te Pflicht­auf­ga­be. In einer Welt von Ran­som­wa­re-as-a-Ser­vice ist das Back­up nicht mehr „Plan B“, son­dern die ein­zi­ge ver­läss­li­che Rück­fall­op­ti­on.

Moder­ne Angrei­fer wis­sen das. Sie suchen gezielt nach den Siche­rungs­sys­te­men. Daher ist die logi­sche und phy­si­sche Tren­nung des Cloud-Back­ups von der Haupt-Infra­struk­tur heu­te der wich­tigs­te archi­tek­to­ni­sche Hebel. Wer sein Back­up im sel­ben Raum wie den Tre­sor auf­be­wahrt, darf sich nicht wun­dern, wenn der Ein­bre­cher bei­de mit­nimmt.

Die Inves­ti­ti­on in eine pro­fes­sio­nel­le Back­up-Archi­tek­tur ist somit das deut­lichs­te Signal einer rei­fen Unter­neh­mens­füh­rung. Es zeigt, dass man die tech­no­lo­gi­schen Risi­ken nicht nur ver­steht, son­dern sie pro­ak­tiv managt. Es schützt nicht nur Daten, son­dern die Hand­lungs­frei­heit der Geschäfts­füh­rung und das Ver­trau­en der Kun­den und Part­ner.

Fazit: Der Archi­tekt plant für den Ernst­fall, nicht für die Hoff­nung

Die Cloud ist ein Segen für die Effi­zi­enz und Ska­lier­bar­keit des Mit­tel­stands. Aber sie ist kein Frei­brief für die Ver­nach­läs­si­gung der Daten­si­che­rung. Das Shared Respon­si­bi­li­ty Model ist real – und es nimmt Sie als Unter­neh­mer in die Pflicht.

Hören Sie auf zu hof­fen, dass Micro­soft oder Ama­zon „schon eine Kopie haben wer­den“. Sie haben sie nicht. Ein Cloud-Back­up ist die Lebens­ver­si­che­rung für Ihre digi­ta­len Pro­zes­se. Es ist der Unter­schied zwi­schen einem schmerz­haf­ten, aber beherrsch­ba­ren IT-Vor­fall und einem exis­tenz­be­dro­hen­den Total­scha­den.

Als prag­ma­ti­sche Archi­tek­ten bau­en wir mit Ihnen die­ses Ret­tungs­boot. Wir sor­gen dafür, dass Ihre Cloud-Stra­te­gie nicht auf Sand gebaut ist, son­dern auf einem Fun­da­ment, das auch im schwers­ten Sturm der Cyber-Kri­mi­na­li­tät stand­hält. Sicher, auto­ma­ti­siert und abso­lut sou­ve­rän.

Prü­fen Sie Ihre Ret­tungs­boo­te.
Wann haben Sie das letz­te Mal eine Datei aus der Cloud wie­der­her­ge­stellt, die älter als 30 Tage war? Wis­sen Sie sicher, ob Ihre Back­ups immun gegen Ran­som­wa­re sind?

Ver­ein­ba­ren Sie ein unver­bind­li­ches “Stra­te­gie­ge­spräch zur Cloud-Resi­li­enz” mit unse­ren Archi­tek­ten. In die­sem 60-minü­ti­gen Audit bewer­ten wir Ihre aktu­el­le Cloud-Infra­struk­tur, iden­ti­fi­zie­ren die Lücken in Ihren Auf­be­wah­rungs­richt­li­ni­en und skiz­zie­ren eine Road­map, wie Sie Ihre Daten in Micro­soft 365, Azu­re und Co. unzer­stör­bar machen. Sichern Sie Ihr Unter­neh­men ab, bevor der Ernst­fall ein­tritt.

Daten-Stra­­te­­gie
Daten sind das wert­volls­te Gut Ihres Unter­neh­mens – doch in den meis­ten KMU lie­gen sie unge­nutzt in iso­lier­ten Silos. Erfah­ren Sie in die­sem Deep Dive, wie Sie eine prag­ma­ti­sche Daten­stra­te­gie ent­wi­ckeln, Daten­si­los ein­rei­ßen und Infor­ma­tio­nen in ech­te Wett­be­werbs­vor­tei­le ver­wan­deln.
KI & Busi­ness
Künst­li­che Intel­li­genz ist das meist­dis­ku­tier­te The­ma unse­rer Zeit – doch wo hört das Mar­ke­ting-Ver­spre­chen auf und wo beginnt die rea­le Wert­schöp­fung? Erfah­ren Sie in die­sem Deep Dive, wie Sie den KI-Hype-Cycle navi­gie­ren, teu­re Fehl-Inves­ti­tio­nen ver­mei­den und eine prag­ma­ti­sche KI-Stra­te­gie ent­wi­ckeln, die Ihr Unter­neh­men wirk­lich vor­an­bringt.
0

Subtotal