[English]Folgt nach dem Cloud-Hype der Katzenjammer und die Ernüchterung? Es deutet sich an, dass die Versprechen der Cloud-Anbieter bzgl. Kosten, Einfachheit, Sicherheit etc. nicht eintreffen. Und so gibt es den Trend, dass viele Unternehmen das Ruder herum reißen und wieder zu On-Premises-Ansätzen zurück kehren.
Noch hat es den Anschein, also ob ein Großteil der Firmen und vor allem die Behörden auf dem Zug hin zur Cloud sind. Die Woche hatte ich im Blog-Beitrag Cloud-Splitter 1: Deutschland auf dem Weg in den „goldenen Microsoft-Käfig“? vor einer Abhängigkeit der deutschen Verwaltung vor einem Cloud-Anbieter gewarnt.
Nun ist mir Ende Oktober 2024 ein interessanter Bericht Storm Clouds Ahead: Missed Expectations in Cloud Computing von International Data Corporation (IDC) untergekommen, der ein neues Licht auf das Thema wirft. Die Kernaussage: Wegen enttäuschter Erwartungen beim Cloud Computing kehren Unternehmen der Cloud bereits wieder den Rücken und kehren zu On-Premises-Lösungen zurück. IDC hat das genauer analysiert.
Versprechen versus Wirklichkeit
Es ist bekannt, die Verkäufer von Cloud-Lösungen preisen dies als Allheilmittel für moderne IT-Herausforderungen an und werben mit Skalierbarkeit, Flexibilität und Kosteneinsparungen. Unternehmen, die diesen Werbeversprechen gefolgt sind, dass die Realität der Cloud-Nutzung nicht immer mit ihren Erwartungen übereinstimmt.
Es gibt wohl einen wachsenden Trend „raus aus der Public Cloud“ und Rückführung der Workloads in in lokale oder private Cloud-Umgebungen (On-Premises). IDC hat dafür verschiedene Gründe ausgemacht.
Kostenüberschreitung und nicht erfüllte Versprechen
Unternehmen stürmten in die Cloud, weil ihnen Kosteneinsparungen versprochen wurden – nur bezahlen, was man braucht und auch noch skalieren können. Viele Unternehmen stellen laut IDC jedoch fest, dass ihre Cloud-Ausgaben die ursprünglichen Schätzungen übersteigen.
In der IDC-Umfrage Cloud Pulse 4Q 2023 gab fast die Hälfte der Cloud-Nutzer im Jahr 2023 mehr als erwartet für Cloud-Leistungen aus. Und 59 % dieser Unternehmen erwarten 2024 ähnliche Überschreitungen.
Die Komplexität der Cloud-Umgebungen in Verbindung mit unvorhersehbaren externen Einflüssen, macht eine Kostenvorhersage schwierig. Faktoren wie die steigenden Kosten für Drittanbieterdienste, Energiekosten und die finanziellen Auswirkungen neuer Technologien wie GenAI tragen zu diesen Budgetüberschreitungen bei, hat IDC festgestellt.
Probleme mit Leistung und Latenzzeiten
Ein Thema ist wohl auch das Thema Leistung und Latenz. Ist die Cloud zäh, leidet das Unternehmen. Der Vorteil der Cloud-Anbieter ist zwar, dass sie meiste eine robuste Infrastruktur anbieten können. Aber nicht alle Workloads sind für die Cloud geeignet.
Leistungs- und Latenzprobleme sind laut IDC häufig zu beklagen. Das betreffe insbesondere Anwendungen, die Echtzeitverarbeitung erfordern oder strenge Leistungsanforderungen haben, zu. So kommt es beispielsweise bei technischen und KI-bezogenen Workloads in öffentlichen Cloud-Umgebungen häufig zu Leistungsengpässen, was Unternehmen dazu veranlasst, eine Rückverlagerung zu On-Premises-Lösungen in Betracht zu ziehen, heißt es.
Sicherheits- und Compliance-Bedenken
Von meiner Seite war einer der genannten Punkte für die Rückbesinnung die Sicherheits- und Compliance-Problematik. Auf Hochglanzprospekten versichern Unternehmen zwar, dass Datensicherheit und die Einhaltung von Vorschriften von entscheidender Bedeutung seien. Aber das wird oft nicht wirklich gelebt.
Aber die Bedenken, dass das mit der Cloud alles so sicher sei, haben nicht abgenommen. IDC schreibt, dass trotz der fortschrittlicher Sicherheitsmaßnahmen, die von Cloud-Anbietern angeboten werden, viele Unternehmen weiterhin besorgt über Datenschutzverletzungen und die Einhaltung von Branchenvorschriften sind. Dies gelte insbesondere für Branchen wie das Finanz- und Gesundheitswesen, in denen der Datenschutz von größter Bedeutung ist. Infolgedessen gehören Produktionsdaten und Backup-/Disaster-Recovery-Prozesse zu den am häufigsten repatriierten Elementen von Workloads.
Komplexität der Verwaltung unterschätzt
Ein Punkt, der auch angesprochen wurde, ist die Komplexität der Verwaltung. Geworben wurde von Cloud-Anbietern ja damit, dass man die Infrastruktur betreibe und der Kunde nur die Leistungen buche. Nun stellen die Firmen aber fest, dass sie Fachwissen zur Verwaltung der Cloud-Abonnements benötigen. Das ist oft ein komplexer Sachverhalt, der vom Aufwand drastisch unterschätzt wurde.
IDC schreibt, dass die Verwaltung einer Multi-Cloud- oder Hybrid-Cloud-Umgebung unglaublich komplex sein kann. Unternehmen hätten oft Probleme mit der Integration verschiedener Cloud-Dienste, der Verwaltung von Daten über mehrere Plattformen hinweg und der Gewährleistung einheitlicher Sicherheitsrichtlinien. Diese Komplexität kann die vermeintlichen Vorteile der Cloud-Einführung zunichte machen und einige Unternehmen dazu veranlassen, ihre Cloud-Strategie zu überdenken.
Zahlen sind aber noch überschaubar
Laut IDC gibt es zwar einen wachsenden Trend „weg von der Cloud, zurück zu On-Premises-Lösungen“. Aber es handelt sich dabei nicht um eine Migration im großen Stil. Laut einer IDC Umfrage „Server and Storage Workloads Survey“ planen nur 8-9% der Unternehmen eine vollständige Repatriierung von Workloads.
Die meisten Unternehmen verlagern bestimmte Elemente ihrer Workloads, z. B. Produktionsdaten, Sicherungsprozesse und Rechenressourcen, aus der Cloud zurück auf lokale Rechner.
Größere Unternehmen sind laut IDC bei der Rückführung von Workloads aktiver als kleinere Unternehmen. Dies liege an ihren größeren Ressourcen, größeren Workloads und komplexeren IT-Umgebungen, heißt es. Wirtschaftliche Faktoren und umfassende Workload-Strategien spielen ebenfalls eine Rolle bei den Repatriierungsaktivitäten von Großunternehmen.
Das Fazit: Die anfänglichen Versprechen des Cloud Computing haben sich für viele Unternehmen nicht vollständig erfüllt. Daher ziehen manche Anbieter die Reißleine und kehren zu lokalen Lösungen zurück. Die Kernaussage: Man muss sich genauer anschauen, was Sinn macht und wie man die Anforderungen/Erwartungen erfüllen kann. (via)
Artikelreihe
Cloud-Splitter 1: Deutschland auf dem Weg in den „goldenen Microsoft-Käfig“?
Cloud-Splitter 2: Warum Unternehmen zu On-Premises zurückkehren
Ich sehe den großen Trend nach wie vor in Richtung Cloud.
Das wird noch 5 – 10 Jahre vor sich hinschwelen, bevor es explodiert.
Viele Entscheider sind auch außerordentlich naiv und lassen sich von Versprechungen und bunten Bildchen absolut blenden, ohne Dinge zu hinterfragen.
Ich hatte da mal diesen Film gesehen: „Sliding Doors“. Da sieht eine Frau im Restaurant am Tisch nebenan, wie der Mann seiner Frau Blumen mitbringt. Die sagt daraufhin: „Warum bringst du die denn mit, bist du wieder fremdgegangen?“ Und schleudert ihm die Blumen um die Ohren.
Zuhause angekommen, steht ihr Freund unerwartet mit Blumen in der Hand vor ihr und sie zählt 1 und 1 zusammen.
Jeder Manager in einem großen Unternehmen versucht mit möglichst wenig Invest möglichst viel Kapital herauszuschlagen. Produkte noch kostengünstiger herstellen, zulasten der Qualität und die Preise bei jeder Gelegenheit anheben („Aufgrund der allgemeinen Kostensteigerungen müssen auch wir…“).
Aber wenn dann der geschniegelte, technisch völlig unversierte Vertriebler der Cloudprodukte um die Ecke kommt, der offenbar genauso wenig vom Produkt versteht wie die Vertriebskollegen im eigenen Haus über technischen Background verfügen, das blaue vom Himmel versprechend, da wird nichts hinterfragt. Nicht mal in der eigenen IT nachgefragt.
Vorzufinden in Unternehmen aller Größen ab Mittelstand. Nicht nachzuvollziehen.
Ich arbeite für ein kleines Unternehmen, die von einem deutschen Werkzeughersteller aufgekauft wurden. Da sollte dann die IT des kleinen, aufgekauften Laden analysiert werden.
Ich dachte, da kommen jetzt Vollprofis vom Fach, da kann ich mal schön zeigen, was wir hier so läuft.
Hatte mich sogar darauf eingestellt, dass Sie ihren neuen „Standort“ rügen, der den einen oder anderen Euro mehr hätte investieren können, da er immer eher am unteren Ende der Preisskala eingekauft hat, aber nie gescheut hat, Tipps und und Hinweise mitzunehmen und alsbald umzusetzen.
Ende vom Lied? Am besten macht ihr alles in der Cloud. E-Mails zu MS 365. „Die machen ihren Job gut, und wenn einer das kann, dann Microsoft als großer Spieler.“
Backup sollte auch in der Cloud. Nicht überdrüssig zu erwähnen, dass das nicht zusätzlich soll, sondern dass man das lokale Backup auf externe Festplatten dann ja definitiv abschalten kann, weil es _nicht mehr benötigt wird_.
Im Ernst?
Bei einem Backup in der Cloud wäre ich im Fall der Fälle als zuständiger Dienstleister vermutlich der einzige, der nicht mehr an ein Backup kommt. Klar, kann mich ja am folgenden Werktag durch die Hotline eines Mittelständlers fuchsen, bis mir jemand zwei Tage später den Zugriff verschafft.
Ich hab die Rückfrage gestellt, ob das Backup-Zeugs auch mit OpenSource Software wie Proxmox kompatibel ist, wir setzen aus Kostengründen und Überzeugung nicht auf VMware und werden das auch in Zukunft nicht tun.
Da war erst einmal Ruhe.
Wieso kommst an ein Backup in der Cloud nicht mehr dran und wieso via Hotline? Das jetzt sehr weired :) Ich kann jetzt nur zu Keepit was sagen, das jeder zeit an alle Backups dran kommst ohne Hotline und auch theoretisch eine „Jahres Band Sicherung“ machen könntest, wenn genug OnPrem Storage vorhanden wäre :D
Cloud Konto wird aus abstrusen Gründen gesperrt, Hotline weist Dich ab. Und dann?
Was mich persönlich schon a bisserl frustriert – obwohl ich da seit 31 Jahren draußen bin: Vor 35-40 Jahren habe ich inhouse-Lösungen im SCADA-Bereich für die chemische Industrie entwickelt. Damals gab es die klassische ITK im Rechenzentrum mit IBM Mainframes. Immer wenn die Mainframes standen, drehten Tausende Mitarbeiter im Unternehmen Däumchen.
Damals wollten die meisten Anwender in den Betrieben weg vom Mainframe, und lokale, PC-basierende Lösungen einsetzen. Gründe: Verfügbarkeit und Kosten, Kosten, Kosten. Nur die Sachen, die unbedingt zentral erledigt werden mussten, sollten über Client-Server-Lösungen mit dem Rechenzentrum abgewickelt werden.
Sah für mich 1993, als ich den Abflug machte, so aus, als sei man auf einem guten Weg, die Vorteile beider Welten geschickt zu kombinieren. Seit ca. 10 Jahren beobachte ich, wie die IT-Entscheider ihre Anwender wieder in die alte Fallen (die Ende der 60er bis Anfang der 80er Jahre mangels Personal Computer nicht anders als mit Mainframes lösbar waren) bugsieren. Aber was verstehe ich schon von der Welt.
Naja, der IBM Mainframe hatte keine Redundanz und war Single Point of Failure. Die heutigen Cloudbetreiber erzählen einem ja da doch was anderes, was allerdings in der Realität auch mal schief geht.
Dafür hatten/haben die Mainframes (eigentlich) eine Ausfallrate von 0 (daher auch IBM z-System (zero downtime) ;-) )
Einspruch.
Die IBM Mainframes haben eine Verfügbarkeit von über 99,9%.
Ich meine mich sogar zu erinnern, daß IBM eine Verfügbarkeit von 99,99% angegeben hatte.
Und wenn ein Mainframe einen Fehler meldet, wird dieser sofort an die IBM gemeldet. Weil dies im Mietvertrag eingeschlossen ist.
Und wenn ein Mainframe komplett steht, dann ist es etwas größeres, was nicht im laufenden Betrieb getauscht werden kann.
Ich habe selber jahrelang im Mainframebereich gearbeitet. Wir hatten 3 Mainframes (damals 3090 Series) verbunden mit einer Coupling Facility.
In der Cloud hast du mehrere Points of Failure, wie z.B.:
– Zugangsprovider
– Internetinfrastruktur
– Cloudanbieter
etc.
Wenn z.B. mal ein Bagger die Internetleitung aus der Erde reißt, weil die PLäne nicht stimmen oder der Baggerfahrer unvorsichtig war, dann steht in einem Cloud-abhängigen Unternehmen alles.
Und dann kommen die hohen Latenzen der Internetverbindung hinzu.
Das ist alles lahmer als wenn man es lokal hostet.
Zur seriösen Cloudinfrastruktur gehört natürlich ebenso Redundanz/Failover, wie zur seriösen onPrem-IS.
Ja, weil das in der Realität gemacht wird. Siehe Zweifaktor-Auth alles auf einem Handy usw.
Es ist grob fahrlässig, anders zu arbeiten.
Und es ist Augenwischerei, denn ohne Redundanz muss man die versicherungsmathematischen Kosten des Ausfallsrisikos in die Rechnung einbeziehen (so oder so mindert es den vermeintlichen Kostenvorteil der Cloud).
Willkommen in der Realität.
Wir haben zwei voneinander unterschiedliche Internetzugänge von zwei unterschiedlichen ISPs, und die Leitungen erreichen das Grundstück bzw. die Gebäude einmal von vorne und einmal von hinten. Es geht, wenn man will. Normalerweise nutzen wir die im Loadbalancing gleichzeitig, aber wenn einer mal ausfällt merken wir das nur an der Geschwindigkeit. Unsere Server sind über mindestens 2 Standorte geclustert und werden auch nicht gleichzeitig gepatcht.
Kann man machen, wenn man weiß, was man tut.
Das kann man aber nicht an allen Punkten selbst beeinflussen.
Wenn z.B. mal wieder die Cloud bei Microsoft Husten hat, dann ist man selbst auch arbeitsunfähig, weil man da alles hinverlagert hat.
Korrekt, ein spontenes Failover zu einer komplett „anderen“ Cloudinfrastruktur ist technisch meist gar nicht möglich. Hübsches Theoriegerede an der Realität vorbei.
Man kann seine Cloud-Ressourcen, übrigens auch bei MS, AWS und co auch auf verschiedene Standorte verteilen. Und mit „eigenen Loadbalancern“ kann man auch über mehrere Provider verteilen, man muss es nur wollen und bezahlen. Aber gut, irgendwelche Single-point-of-Failures gibts immer, und wenn es letztlich derjenige vorm Rechner ist, der was falsch konfiguriert.
Hallo Günter,
dann dürfte Dir auch noch der Zyklus (Biorhythmus) der Zentralisierung / Dezentralisierung bekannt sein. Das ist doch schon immer in der EDV (Neudeutsch IT) so.
Man zentralisiert alles um zum Beispiel Hardwarekosten zu sparen. Dann fällt es auf, wenn das Gebäude wo die EDV steht zerstört wird, ist das Unternehmen nicht arbeitsfähig. – Also dezentralisiert man das Ganze.
Dadurch wächst die Komplexität und wachsen die Kosten. Also kommt dann nach einiger Zeit wieder der Gedanke Kosten sparen. – Also zentralisieren.
Schön beschrieben. Dieses Hin-und-her-Schwingen ist ein Phänomen, das man auch an vielen anderen Stellen eines Unternehmens sieht.
Dabei ist die Geschichte eigentlich seit Jahrzehnten (mir persönlich seit Ende der 90er Jahre) bekannt. Stichwort „Polarity Management“. Aber es widerspricht anscheinend der menschlichen Denkweise, dass es Dinge gibt, die man nicht einfach „lösen“ kann, und dann ist die Sache erledigt.
Das hätte ich denen auch schon vor 20 Jahren sagen können. Dazu reichen die 4 Grundrechenarten aus – ggf noch die Exponentialfunktion für die Cloud-Kosten. Aber mit den 4 Grundrechenarten taten sich BWLer und IT-Entscheider schon immer schwer.
O-Ton Pipi Langstrumpf:
„2 x 3 macht 4
Widdewiddewitt
und Drei macht Neune !!
Ich mach‘ mir die Welt
Widdewidde wie sie mir gefällt ….
Hey – Pippi Langstrumpf
trallari trallahey tralla hoppsasa
Hey – Pippi Langstrumpf,
die macht, was ihr gefällt.“
Man schau sich mal an, was z.B. bei MS in den Verträgen als Ausfallkompensation genannt ist (ist schon ne Weile her, dass ich geschaut habe, ich setze aber mal voraus, das hat sich nicht geändert):
Da bekommste grad mal die Kosten erlassen (was eh schon selbstverständlich ist, gab ja keine Leistung). Schadensersatz wird auf das absolute Minimum reduziert. Dabei ist der Schaden schnell immens: Wenn eine Firma zu 100% auf Cloud setzt, ist bei einem Ausfall die IT-Leistung bei 0%. Wie lange arbeitet deine Firma bei 0% IT-Verfügbarkeit? Das wird bei fast jeder Firma ein ’nicht lange‘ sein. Danach sitzen die Mitarbeiter herum und drehen Däumchen. Die hausinterne IT kann an der Cloud nichts machen und sitzt auch nur herum. Das kann innerhalb von Tagen existenzbedrohend werden…
Jeder Entscheider, der sich da ohne Plan B einfach hineinbegibt, ist meiner Meinung nach eine Fehlbesetzung. Von den DSGVo-Problematiken mal ganz zu schweigen.
> Das kann innerhalb von Tagen existenzbedrohend werden…
Besonders zu kritischen Zeiten wie z.B. kurz vor wichtigen Projektdeadlines, abzugebende Gebote bei Auschreibungsplattformen, der ganze Lohn- und Steuerrechtliche Bereich. Da herrscht oft die naive Vorstellung, dann macht man alles halt von einem einzelnen Rechner mit Internetanschluß aus.
Ich freue mich für jedes Unternehmen, dass derart hart crasht und am Ende auch hoffentlich vom Markt verschwindet. Denn das alleine selektiert die ordentlich und gewissenhaft Wirtschaftenden von den Scharlatanen, für die IT nur eine Kostenstelle und notwendiges Übel darstellt.
„grad mal die Kosten erlassen […] Schadensersatz wird auf das absolute Minimum reduziert.“
Was ist denn die Alternative zur Cloud? OnPrem mit weiterlaufenden Kosten und null Schadensersatz.
Schadensersatz muss man halt, wenn gewünscht, extra versichern (Ausfallversicherung).
> OnPrem mit weiterlaufenden Kosten…
Oh noch so einer, der IT als Kostenstelle versteht?
Selbstverständlich!
Genauer: Als Profitcenter. Unternehmens-IT ist nunmal kein Selbstzweck sondern dient exakt einem Ziel.
Ihre abfälligen Bemerkungen sind bestenfalls Ausdruck eigener Beschränktheit, denn das Optimum aus Nutzen vs. Kosten zu finden ist Ziel jedes treuen (iSv Treuepflicht) Mitarbeiters oder Auftragnehmers und Ausdruck von tatsächlicher Befähigung zum Job (vs. Fachidiot ohne Blick über den Tellerrand).
Sehr gut argumentiert! Sehe ich ebenso.
> IT als Proficenter…
Tja, wohin das führt konnte jeder in der Causa SIT sehen.
Das meine Damen und Herren ist der Grund, warum deutsche Unternehmen in IT niemals auf einen grünen Zweig kommen und bestenfalls durch „Software zur Abschaltung“ in Verbrennermotoren Reputation erlangen.
Und wer sitzt in solchen Unternehmen in den Entscheidungsgremien?
Verblendete teilweise noch ideologisch agierende „Manager“ die auf die Fachleute nicht hören wollen, und sich dann wundern warum die IT-Fachkräfte haaresträubend davonrennen.
Nö, ein BWLer sagt: das ist ein Kostenblock. Sprich die EDV (Neudeutsch IT) kostet einen Haufen Geld und leistet nichts.
Ich argumentiere folgendermaßen: Dann arbeiten Sie vollkommen analog, sprich mit Block und Bleistift, Mundpropaganda und Schreibmaschine. Dann wollen wir mal sehen wie lange Sie am Markt sind.
Oder, wie lange (Stunden, Tage,) kann das Unternehmen OHNE funktionierende EDV (Neudeutsch IT) überleben?
Und ja, in die IT muß permanent investiert werden. Keine Frage, dieses Geld muß auch erwirtschaftet werden. Es kann aber nicht sein, daß Unternehmen mit veralteter Hard- und Software arbeitet. Das gibt auch für die Infrastruktur, z. B.: USV / Notstrom.
Ich habe selbst 1994 erlebt, daß vom Stromversorger die Stromleitung gekappt wurde. Und wir vergessen wurden zu informieren! Kann passieren.
Dumm nur, die Batterien haben das Rechenzentrum damals ca. 45 min am Leben gehalten. Innerhalb dieser Zeit hätte mind. einer der Notstromdiesel anspringen sollen. Es ist aber KEINER der Notstromdiesel angesprungen, weil diese sehr lange nicht benutzt worden sind. End vom Lied war: nach 45 min. gab es Crashs der Platten, der Hosts, usw.
Die Fachabteilung (Haustechnik) mußte bei der GF antanzen und ab dem Termin gab es Bereitschaft diese vorerst nur noch vor Ort auf dem Feldbett.
Es wurden 3 neue Notstromdiesen angeschafft, weil die vorhandenen zu alt waren. Und dann wurden diese regelmäßig eingeschaltet. Fand man im Umfeld nicht so prickelnd.
naja das ist aber kein driektes IT Problem, wenn Notstromdiesel vorhanden sind und die im Ernstfall nicht funktionieren weil da nie ne Probelauf/Betriebslauf gemacht wurde mangelt es da überall an der Facharbeit. Auch ne CNC Fräse usw. möchte regelmässig gewartet werden um sauber zu funktioniern. Selbst ne poppelige Städnerbohrmaschiene sollte man ab und zu die Schmiernippel nutzen. Wartungsintervalle gelten für die gesamte Firma! IT eingeschlossen was nützt dir dein backup wenn nie ein Restore getestet wurde.
Tja das schlimme dabei ist: Millionen Firmen kommen mit Schlamperei davon. Funzt ja irgendwie. Das schwierieg ist die Guten Firmen zu finden und da Kunde zu sein.
Notstromdiesel habe ich auch auf dem Nachbargrundstück (TK-Unternehmen).
Sah bis vor ein paar Monaten beim Testlauf aus wie hier, nur etwas kleiner:
https://travemuende-aktuell.de/artikel/22901-Darf-es-im-Hafen-qualmen.html
Man konnte bei Windstille den halben Tag kein Fenster öffnen, weil der Auspuff auf halber Höhe in den Hof statt über das Dach abgeblasen hat.
Jetzt ist es besser, offenbar haben sie die prähistorischen U-Boot-Diesel gegen was Modernes getauscht und den Auspuff repariert ;-)
Ich glaube man muss da unterscheiden, auch weil da mit dem Begriff „Cloud“ vieles durcheinander geworfen wird.
Also ich sehe in fast allen größeren Firmen mit denen ich so Kontakt habe nach wie vor den Trend zur Cloud. Allerdings wird das Zeug dort eben meist selbst betrieben. Heiß nur die Server, etc. liegen in der Cloud, die eigentlichen Anwendungen werden so weit als möglich selbst betrieben.
Also der Trend zu SAS ist nicht mehr so krass wie er schon war, dass lässt sich durchaus beobachten. Aber dass der Cloud Ansatz rückläufig ist, eher nicht.
Sehr gute Anmerkung, finde ich – das hätte ich differenzieren sollen – war mir aber nicht so klar. Daher ist das Feedback aus der Praxis auch so wichtig. Danke.
Wenn die Softwarearchitektur darauf ausgelegt ist, Microservices zu verwenden, ist Cloud eine feine Sache. Man kann schnell hoch- und runterskalieren und nutzt hierbei standardisierte Open-Source-Produkte. Mit Skripts kann man immer wieder seine Testumgebungen automatisiert erstellen lassen und hat im Worst-Case schnell eine lauffähige Betriebsumgebung. Wenn es sein muss, kann man das auch Inhouse betreiben.
Teuer wird die Cloud immer dann, wenn ich klassische Client-Server-Anwendungen in die Cloud verschiebe und dort laufen lasse. Das ist eigentlich nur eine IT, die mit immer zu lahmer Leitung halt woanders steht. Ich benötige dann Kompetenz beim Dienstleister UND auch im Haus, weil es meistens auf einer Seite irgendwie klemmt. Das Geld dafür muss irgendwoher kommen und Personal ist im Vergleich zu Software immer noch teuer.
Wer dann meint, den teuren internen Admin entlassen zu können, ist dann komplett dem IT-Dienstleister ausgeliefert. Das Fachwissen in der Verzahnung von Anwender und Anwendung ist dann weg und das schafft sich der Anbieter auch nicht durch Einwurf von Hartgeld drauf.
Ob man jetzt Exchange oder die Telefonanlage aus der Cloud beziehen muss, ist Geschmackssache. Wenn die Kompetenz intern vorhanden ist, hat man mehr Freiheiten. Das lohnt sich aber erst ab einer bestimmten Anzahl von Arbeitsplätzen.
Ich stelle immer wieder beim Kunden fest, das sie den Gedanken „Cloud“ falsch denken.
Viele machen einfach ein „copy&paste“ ihrer Dienste, Prozesse und Strukturen in ein anderes Rechnenzentrum. Ok, bei Exchagne klappt das, aber …
IMO Richtig wäre es neu zudenken und umzubauen, was dann aus Kostengründen nicht gemacht wird. Aber dann müsste man ja Geld in Entwicklung stecken und die armen dummen Anwender müssten sich umgewöhnen … das kann man weder der GF (Kosten!) noch den Anwendern (Veränderung!) zumuten.
… am Ende msste man ja die Leute auch noch schulen … Soweit kommts noch … #Sarkasmuss #Ende
Werden sich Entscheidungsträger in den Ländern und im Bund sicher auch durchlesen.
(Man darf doch noch hoffen.)
Aber es muss jetzt immer erst krachen und zu Bruch gehen.
Ein BEispiel aus der Praxis:
Bauunternehmung mit bundesweit 5 Standorten, Einführung eines Docuware DMS Systems für die Finanzbuchhaltung inkl. Redundanz. Die Cloudlösung sollte auf eine Laufzeit von 5 Jahren knapp 75.000 EUR kosten. Weiter konnte keine Zahl ermittelt werden, da aber noch nie ein Abo oder Cloud Mietmodell jemals günstiger geworden ist, ist eher mit einer „Preisanpassung“ sprich Erhöhung auszugehen.
Die Anschaffung/Bau eines 2. Serverraumes und OnPrem Betrieb an einem Außenstandort war inklusive aller erdenklicher TCO günstiger. Wichtiger als der TCO ist aber immer der ROI, der wird für jedes weitere Jahr an Laufzeit immer besser und nicht noch teurer.
Ein nach mindestens ISO27001:2022 zertifizierter 2. Serverraum soll mit all den zu berücksichtigenden Positionen wie Hardware, Software, Backup, Strom, Klimatisierung, Brandschutz, Monitoring, Personal, Miete, Wartung, etc. etc. etc. weniger wie die erwähnten 75.000€ kosten? Weder in Dortmund noch in Siegen kann ich mir solche Preise vorstellen und ich wohne nicht wirklich weit von beiden Städten entfernt.
Die Stadt Ha… muss ein neues RZ bauen (das alte ist abgesoffen), da werden ganz andere Zahlen genannt.
Ich bin beileibe kein Cloud-Befürworter. Aber ich bin im RZ-onPrem Geschäft > 25 Jahre tätig und weiß wie teuer ein eigenes (redundantes) RZ ist oder auch gemietete RZ-Lokationen sind. Und mir muss niemand sagen, dass geht auch billiger in dem nur OpenSource und selbst zusammengestellte Hardware verwendet wird. Ein professionelles onPrem kostet Geld und benötigt zudem personelle Ressourcen.
Was Sie da schreiben, klingt für mich nicht logisch – vielleicht verstehe ich es aber auch nicht richtig.
Als ROI verstehe ich „Return On Investment“ – eine Ivestition beginnt bspw. mit einer Ausgabe und es folgen viele Einnahmen. Der ROI beschreibt dabei den Punkt, an dem die Ausgabe durch die Einnahmen wieder kompensiert wird bzw. das Verhältnis aus Kosten und Erträgen.
Im Fall der IT-Investition in Ihrem DMS-Beispiel wäre hier die Betrachtung: ich erstelle das Pendant zur Cloudlösung selbst (habe also die Ausgabe der Investition) und halte die Einnahmen dagegen. Die Einnahmen aus der Investition könnten in diesem Beispiel freigewordene und dadurch bewertbare Arbeitszeiten bei Mitarbeitern sein, die für die Dokumentenarchivierung, Verschlagwortung und ggf. Workflows im DMS nun weniger Zeit benötigen. Der ROI der Investition wäre dann erreicht, wenn die Ausgabe durch die bewertete, frei gewordene Arbeitszeit ausgeglichen wurde.
TCO verstehe ich als „Total Cost of Ownership“, also die Gesamtaufwände, die eine Lösung über den Nutzungszeitraum verursacht (inkl. Anschaffung, Wartung, etc.). Je länger der Nutzungszeitraum ist, desto besser stellt sich die TCO dar, unabhängig vom ROI.
Um eine Public-Cloud-Lösung mit einer Private-Cloud-Lösung (OnPremise) zu vergleichen, muss klar sein, dass Investition, Wartung, etc. bei einer Public-Cloud-Lösung durch den Anbieter getragen wird und bei einer OnPrem-Lösung durch das Unternehmen selbst. Die Nutzungsgebühr der Public-Cloud-Lösung wiederspiegelt das. Zum Vergleich des TCO muss ein definierter, realistischer Nutzungszeitraum herangezogen werden. Der ROI könnte, je nach Höhe des Nutzungsentgelts, bei einer Public-Cloud-Lösung früher eintreten als bei einer OnPremise-Lösung. Die TCO stellt sich bei OnPremise-Lösungen mit langer Nutzungszeit aber meist deutlich besser dar.
„Einnahmen […] könnten in diesem Beispiel freigewordene und dadurch bewertbare Arbeitszeiten bei Mitarbeitern sein“
Das ist eine Rechenweise, man kann aber auch ROI-„light“ rechnen und als Einnahme die Einsparung (nicht auszugebende Kosten für die Alternative in der Cloud) nehmen.
Es geht ja in dieser Rechnung nicht um die Effizienz des DMS selbst, sondern die Kosten Cloud vs. onPrem zu vergleichen (das unterstellt, die Lösungen seien für die MA gleichwertig).
Danke für die Ergänzung. Sehe ich genauso.
Mein Beitrag sollte dem Vorposter Thomas Jakobs die Frage stellen, wie er TCO und ROI definiert – das konnte ich seinem Beitrag nicht genau entnehmen.
Nicht ich habe diese definiert, sondern der Kunde und die Differenz war so eindeutig, dass da die Entscheidung klar zu treffen war.
Und zu dem anderen Poster „MS“, der seine 25 jährige Tätigkeit ins Spiel wirft: Es ist billig einen Serverraum mit einem Rechenzentrum zu verwechseln und als Argument ins Feld zu führen.
eine Definition für „billig“ ist: wenn es nur einen gibt der krampfhaft versucht immer Recht zu haben und alle anderen alles falsch machen.
ich habe noch keinen Unternehmer kennengelernt, der mehr Zeit in Foren und Blogs verbringt, weil seine Auftragslage so enorm ist, wie jenen, der „der Beste der Besten, mit Auszeichnung“ ist.
Zum Thema: < 75.000€ für 5 Jahre, mit Hardware, Software, Personal, Strom, meinetwegen ohne Backup, ohne Klima, ohne Zertifizierungen *hüstel*, ohne Miete, ohne Redundanz (wird langsam richtig professionell) ist immer noch sehr sportlich.
Putzig wie lieb Du mich zu haben scheinst.
Getroffene Hunde bellen bekanntlich…
In diesem Sinne,
weiterhin viel Spaß und Erfolg.
Sie sind Unternehmer *hust*? Na dann – viel Erfolg.
> ich habe noch keinen Unternehmer kennengelernt, der mehr Zeit in Foren und Blogs verbringt, weil seine Auftragslage so enorm ist, wie jenen, der „der Beste der Besten, mit Auszeichnung“ ist. […]
idr sind es Freelancer oder Kleinunternehmer, die ich dir nennen könnte. Nimm die Liste der 1.500 MVPs aus den 2000er Jahren ;-)
Die Ihre Zeit täglich in Newsgroups und der Community „verplempert“ haben und von denen viele Namen heute noch als Referenz und Instanz gelten.
#justmy2cents
P.S.: ich fühlte mich gerade getriggert, weil ich den Weg der „Zeitverschwendung“ als grössten Meilenstein in meinem CV sehe.
So billig, wie die SIT für respräsentativ auszugeben?
Ja, in Teilen sogar noch schlimmer. Jeden Tag platzen mehrere dieser typischen Windows, Office, AD Netze allein hier bei uns in Deutschland, die auf dem gleichen Niveau wie die SIT operieren.
Es ist auch nur EIN Beispiel, und zwar IHRES was sie wieder vortragen.
Ich kann aus der Praxis zwei Entwicklungen bestätigen:
1. Es gibt noch immer genügend Unternehmen, die ihre Workloads in „die Cloud“ (RZ eines Dritten) verlagern. Entweder, weil die Terminalserver-Lösung im Sterben liegt oder, weil das Fachpersonal fehlt. Es sind mitunter auch IT-Dienstleister, die ihre Kunden teilweise unnötig in die Abhängigkeit bringen, obwohl beispielsweise eine Edge-Lösung eher geeignet ist und sich dies mit Managed Services verwalten lässt. Problem: Personalmangel.
2. Es gibt gerade bei kleinen und mittelständischen Unternehmen den Drang raus der Cloud. Neben der unberechenbaren Preispolitik und dem Einstieg renditeorientierter Investoren in kritischen Bereichen, haben die teilweise hohen Latenzen, Ausfälle von Diensten und mehr, zum Umdenken bewegt. Ich kriege nahezu jede Woche Anfragen von Unternehmen, wie sie „aus der Falle“ kommen.
Auch mein Ex-Arbeitgeber möchte den geschäftskritischen Teil seiner Workloads zurück in die eigenen vier Wände verlagern. Hier geht es vor allem um die IT-Infrastruktur, Netzwerkmanagement, MDM, Code-Plattformen, Backup-Systeme, Speichersysteme (SAN) und mehr. Das, was nicht geschäftskritisch ist, bleibt „in der Cloud“ (RZ eines Dritten).
Tipp an Unternehmen:
Man muss sich fragen, wo die (mitunter sensiblen) Daten entstehen und wo sie verarbeitet werden sollen. Je weiter weg, umso schwerfälliger ist die Verarbeitung bei wachsender Datenmenge (vorausgesetzt, dass die richtigen Datenbanken zum Einsatz kommen und, dass das RZ genügend personelle und technische Ressourcen hat > Achtung: „Power customers“ können das RZ technisch belasten) und umso größer sind die Abhängigkeit und die damit verbundenen Risiken (bitte auch Folgekosten bei Störungen und Insolvenzen berücksichtigen).
Ein Grund für den Erfolg der Cloud ist das fehlende Know-How, die lokalen Lösungen zu implementieren und vor allem auf Stand zu halten. Das zeitnahe Liefern ist eines der Hauptprobleme. Migrationen werden verschleppt oder treiben die Kosten in die Höhe.
Die Cloud ist ein Weg, aus der Abhängigkeit der Truppe und Dienstleister heraus zu kommen. Ob die Rechnung aufgeht? Dafür bucht man Scheininnovationen mit, die die Anwender auf die Palme bringen, macht alles langsamer (Latenz!) und vor allem: zahlt dafür um seine Daten mit hohen Kosten meist einem US Anbieter zu überlassen.
Der kann dann, muss aber nicht, entscheiden was er damit macht. Ist das nun klug?
Ein wohl auch nicht von der Hand zu weisender Grund für die Cloud dürfte die Verantwortlichkeit in Zeiten der „Quartalsrenditen“ sein. Beim eigenen RZ bedeutet ein Fehler/Aufall gern mal gleich „weg vom Fenster“, bei der Cloud kann man immer schön mit dem Finger auf andere zeigen.
> bei der Cloud kann man immer schön mit dem Finger auf andere zeigen.
Die postwendend (mit oder ohne dem gedachten Stinkefinger) auf die AGB zeigen. Wie zuletzt sehr schön bei Contabo aus München gesehen.
https://blog.jakobs.systems/micro/20240903-vertraege-kennen/
Naja, dann sollte man mal darüber nachdenken, die Redundanz in einem anderen Gebäude aufzubauen, sofern man mehrere Gebäude hat.
Oder wie vor 1 oder 2 Jahren bei einem Anbieter in Dänemark passiert:
Die hatten einen Ausfall und es sind viele Kundendaten dabei verloren gegangen.
War Pech für die Kunden ohne Backup, denn der Anbieter hatte in den AGB drin stehen, das die Kunden selbst für das Backup ihrer Daten verantworlich sind und ein Backup vom Anbieter nicht gemacht wird.
„Naja, dann sollte man mal darüber nachdenken, die Redundanz in einem anderen Gebäude aufzubauen, sofern man mehrere Gebäude hat.“
Ab diesem Punkt sprichst du dann automatisch über die Wirtschaftlichkeit des Cloud Computings für Endkunden. Als ich einem Kunden die Kosten für mehrere Lösungen grob gegenübergestellt habe, war er ziemlich erschrocken, wie teuer eine redundante Cloud-basierte Infrastruktur ist. Wobei: Dem Kunden habe ich erstmal aufgeklärt, dass „die Cloud“ nichts weiter als das Rechenzentrum (RZ) eines Dritten ist, bei dem sich die Endkunden die physischen Ressourcen teilen müssen.
Die Antwort des Geschäftsführers war schon ein Eingeständnis: „Das hat mir mein IT-Leiter nicht so verständlich erklärt.“
> Oder wie vor 1 oder 2 Jahren bei einem Anbieter in Dänemark passiert: Die hatten einen Ausfall und es sind viele Kundendaten dabei verloren gegangen.
Oder vor 3 Jahren das abgebrannte und größte Rechenzentrum Europas von OVH in Strassburg, oder die „verlorenen“ Server eines größeren Hosters in Düsseldorf oder oder oder… wer sucht, findet hinreichend Beispiele.
Das sagen einem die Cloud Bros natürlich nicht.
Hallo,
kann ich nur bestätigen. Der Trend ist bei uns schon seit mehreren Jahren erkennbar. Die Kosten sind in der Regel immer höher als on premise, der Kunde will nicht das know-how verlieren, mit den eigenen Daten umzugehen, die Rechtsverantwortung liegt beim Kunden, aber er kann die Vorgänge beim Online Anbieter nicht beeinflussen. Und so weiter. Fehlende Exportmöglichkeiten bei einem Exit vom Cloud Anbieter (etwa DMS) hat schon Gerichte beschäftigt. Hacks und Ausfälle der Online Anbieter tun ihr übriges.
Sind Ländergrenzen, Unterseekabel und eine immer schwierigere Weltlage … Kriege, Diktatoren, Trump … denn kein Risiko ? Oder hat das mal wieder Niemand auf dem Schirm !
Viele haben das nicht auf dem Schirm oder sagen „kann man nichts machen….“ oder „wird uns schon nicht treffen“.
Viele haben gar nichts auf dem Schirm ausser einen bunten Verkaufsprospekt einer Marketingdrohne und dem Versprechen, dass sie dann für nichts mehr verantwortlich gemacht werden können, weil das der Dienstleister machen wird. Da endet dann das Weiterdenken sofort.
Wird verdrängt bzw. die Risiken werden nicht erkannt weil mittlerweile eine Generation am Start ist die Krieg so gar nicht mehr kennt und kann.
Dazu jede Menge Idioten die ja glauben das es ihnen nicht passieren das jemand auf die Idee kommt uns mal die Städte weg zu sprengen.
Bin 60 und habe einige Jahre Zeitsoldat in den Knochen die mich bis heute in dem Punkt schon noch prägen.
Tolle Diskussion hier über Pro und Contra der Cloud (mal wieder)
Mir fehlt noch der Ansatz das MS in den letzten Jahren bereits ca. 50 % der On-Prem-Lösungen vom Markt genommen hat, die Restlichen werden sicherlich folgen…..
Winzigweich ist längst nicht so alternativlos, wie unwissende Marketing-Schlipse und bequeme Dienstleister immer Glauben machen wollen.
Das ist nicht so sehr ein Problem mit Marketing-Schlipsen, sondern eher mit der Wahrnehmung und Gewohnheiten von Kunden. Der Chef ist es gewohnt, den Outlook-Kalender mit seiner Assistenz zu teilen und deswegen ist Office das einzig brauchbare Paket auf der Welt.
Das so in die Köpfe von Anwendern zu hämmern ist eine Wahnsinns-Leistung von MS.
Ich mache mal einen Ausflug zu einem unserer Kunden. Hat alles in die Cloud migriert, da man das so verkauft hat, dass ja dann kein Admin mehr nötig ist. Den Admin hat man dann wie auch immer aus dem Weg geschafft (also ja er lebt noch, aber arbeitet nicht mehr dort). Ende vom Lied, ich bin dort nun als externer Admin unterwegs
Weiß jemand was näheres? Mir wurde vor ein paar Tagen von einem Ex-Kollegen der jemand kennt der da Admin ist, erzählt, dass in Frankfurt ein größerer RZ-Betreiber ein RZ schließt und die ganzen Kunden ihre dort aufgestellten Server an einen anderen Standort in der Hanauer Landstraße oder weiter außerhalb umziehen müssen. In dem Fall wo ich gehört habe, soll es wohl um über 70 ganze Racks einer Firma gehen, und die sollen das bis Sommer 25 gewuppt haben und alle Applikationen sollen währenddessen verfügbar bleiben. Je nachdem was das für Applikationen sind geht so was ja, aber das wird trotzdem sicher immens aufwändig. Ich habe ja auch schon bei ein paar kleineren On-Prem-RZ-Umzügen mitgearbeitet und teils auch geplant/gesteuert und auch z.B. mit umzugsbedingten Plattenausfällen in Raids zu kämpfen (vorsorglich war schon ein Mann von Netapp mit einer großen Kiste SAS-Platten da), was bei SSDs ja nicht mehr zum Tragen kommt, andere Transportschäden muss man auch einplanen und vieles mehr, aber wer das da jetzt zu wuppen hat, hat meinen Respekt. Das schließende RZ soll ziemlich groß sein und durch einen Neubau an einem anderen Standort ersetzt werden. Kann sich ja nur um Colt, Interaxion, Digitalreality, E-Shelter oder so handeln, die da im Osten Frankfurts RZs haben. Deutsche Firmen, um das hier mal deutlich zu machen, kein AWS oder Google oder MS. Sowas ist natürlich schon eine Art GAU bei Aufwand und Kosten, wenn dich dein Hoster so vor Konsequenzen stellt.
Soweit ich weiß, sollen im Großraum Hanau zwei Rechenzentren entstehen.