Jerome Evans: „Künstliche Intelligenz (KI) kann einen bedeutenden Teil des Cloud-Managements erleichtern“
Was treibt die Cloud um? Jerome Evans, Gründer und Geschäftsführer der firstcolo GmbH, einem Web-Hosting Unternehmen, im Gespräch mit Onpulson. Er setzt sich mit dem Thema Cloud auseinander und geht im Interview auf verschiedene Bereiche rund um die Wolke ein.
Onpulson: Herr Evans, Sie sind Gründer und Geschäftsführer der firstcolo GmbH, einem Web-Hosting Unternehmen. Können Sie uns erläutern, welche Trends und Themen aktuell Einfluss auf den Cloud-Markt nehmen? Welche Anwendungsbereiche haben Priorität im Zusammenhang mit Cloud-Computing?
Jerome Evans: Meiner Beobachtung nach führen vor allem Multi-Cloud- und Hybrid-Cloud-Strategien, Edge-Computing sowie künstliche Intelligenz und Machine Learning in der Cloud zu einer tiefgreifenden Veränderung des Cloud-Marktes. In diesem Kontext spielen Large Language Models (LLMs) wie ChatGPT eine bedeutende Rolle, indem sie auf eine breite Palette von Datenquellen zugreifen, um Informationen zu beispielsweise MultiCloud- und Hybrid-Cloud-Strategien bereitzustellen.
Was ist ...?
Edge-Computing: Bei Edge-Computing werden Rechen- und Datenspeicherfunktionen näher an den Datenquellen platziert, d.h. näher an den Endnutzern oder Geräten, die Daten generieren. Anstatt Daten zur Verarbeitung an entfernte Rechenzentren oder Cloud-Server zu senden, werden sie lokal oder in der Nähe der Quelle verarbeitet. Dies reduziert die Latenzzeit und ermöglicht Echtzeitverarbeitung, was besonders für Anwendungen wie das Internet der Dinge (IoT) oder autonomes Fahren wichtig ist.
Multi-Cloud: Dies bezieht sich auf die Nutzung von mehreren Cloud-Diensten verschiedener Anbieter, anstatt sich auf einen einzigen Anbieter zu verlassen. Unternehmen nutzen möglicherweise verschiedene Cloud-Dienste für unterschiedliche Anforderungen, wie z.B. Speicherung, Rechenleistung, Datenanalyse usw. Dies kann die Flexibilität erhöhen und das Risiko verringern, da sie nicht von einem einzigen Anbieter abhängig sind.
Hybrid-Cloud: Eine Hybrid-Cloud-Strategie kombiniert die Vorteile von privaten und öffentlichen Cloud-Diensten. Unternehmen können einige ihrer Anwendungen und Daten in einer privaten Cloud betreiben (oft aus Sicherheits- oder Compliance-Gründen), während andere in einer öffentlichen Cloud laufen. Die Hybrid-Cloud ermöglicht es Unternehmen, flexibel zu skalieren und gleichzeitig die Kontrolle über sensible Daten zu behalten.
LLMs: LLMs sind hochentwickelte künstliche Intelligenzsysteme, die auf umfangreichen Datensätzen trainiert wurden und in der Lage sind, menschenähnliche Texte zu generieren und komplexe Aufgaben zu lösen. LLMs wie GPT von OpenAI können auf eine breite Palette von Datenquellen zugreifen und so Informationen zu MultiCloud- und Hybrid-Cloud-Strategien bereitstellen.
Der zunehmende Einsatz von LLMs wird voraussichtlich die Expansion von Cloud-Ressourcen vorantreiben, da die Nachfrage nach Kapazitäten steigt, unter anderem durch den Bedarf an großen Datenmengen für das jeweilige Training und die Bereitstellung von LLMs sowie für andere datenintensive Anwendungen wie Big-Data-Analysen, Machine Learning und generell KI-Anwendungen. Die Nutzung von Multi-Cloud und Hybrid-Cloud zielt darauf ab, Flexibilität zu erhöhen, Risiken zu streuen und die Abhängigkeit von einem einzelnen Anbieter zu verringern. Dies führt zu einer verstärkten Nachfrage nach Lösungen, die eine nahtlose Integration und Verwaltung von Workloads über verschiedene Cloud-Plattformen erlauben.
Die Integration von KI und ML-Funktionen in der Cloud ermöglicht Unternehmen, die Entwicklung fortschrittlicher Analyse- und Prognosemodelle voranzutreiben, ohne eine umfangreiche eigene Infrastruktur aufbauen zu müssen. Dies eröffnet neue Möglichkeiten für datengesteuerte Entscheidungen und Innovationen in verschiedenen Branchen. Trends wie Edge-Computing gewinnen mit der zunehmenden Verbreitung von IoTGeräten und Anwendungen, die eine schnelle Datenverarbeitung erfordern, an Bedeutung. Unternehmen nutzen Edge-Infrastrukturen, um Daten näher an den Ort der Erzeugung zu bringen, was zu geringeren Latenzzeiten, verbesserten Reaktionszeiten und einer effizienteren Nutzung der Bandbreite führt.
In Bezug auf die Cloud bezieht sich der Begriff „Workload“ auf die verschiedenen Arten von Aufgaben oder Arbeitslasten, die auf Cloud-Ressourcen wie virtuellen Maschinen, Containern oder Serverless-Funktionen ausgeführt werden. Dies kann die Ausführung von Anwendungen, die Speicherung und Verarbeitung von Daten, die Ausführung von Rechenoperationen und vieles mehr umfassen.
Die Nutzung von Multi-Cloud und Hybrid-Cloud zielt darauf ab, Flexibilität zu erhöhen, Risiken zu streuen und die Abhängigkeit von einem einzelnen Anbieter zu verringern. Dies führt zu einer verstärkten Nachfrage nach Lösungen, die eine nahtlose Integration und Verwaltung von Workloads ermöglichen. Dabei geht es darum, die verschiedenen Arten von Aufgaben oder Arbeitslasten effizient über verschiedene Cloud-Dienste und Infrastrukturen hinweg zu verteilen, zu verwalten und zu optimieren, um die Leistung, Zuverlässigkeit und Skalierbarkeit der Systeme zu maximieren.
Die zunehmende Datenmenge treibt die Entwicklung der Cloud voran, da Unternehmen skalierbare Lösungen benötigen, um mit dem exponentiellen Wachstum ihrer Daten umzugehen. Durch die Nutzung der Cloud können Unternehmen ihre Infrastruktur flexibel erweitern, um den steigenden Bedarf an Speicherplatz, Rechenleistung und Datenverarbeitung zu decken, ohne große Investitionen in Hardware oder Infrastruktur tätigen zu müssen. Dies ermöglicht es ihnen, agiler zu sein, schnell auf sich ändernde Anforderungen zu reagieren und Innovationen voranzutreiben.
Onpulson: Existieren Nachteile und Gefahren, die von Cloud-Technologien ausgehen? Wie lässt sich darauf reagieren?
Jerome Evans: Entscheidend ist eine strategische Herangehensweise bei der Einführung oder dem weiteren Ausbau von Cloud-Technologien. Dabei sind sowohl rechtliche als auch technische Aspekte zu berücksichtigen. Kann man beispielsweise sicherstellen, dass eine deutsche Cloud zu 100 Prozent DSGVO-konform ist, und weiß darüber hinaus, wo genau sich die entsprechende Cloud-Infrastruktur in Deutschland befindet, hat man bereits wesentliche Risiken im Blick (im Vergleich zwischen DSGVO und Cloud Act). Die Cloud stellt grundsätzlich eine sichere und leistungsstarke Lösung dar, da der Anbieter regelmäßige Updates, Wartungen und Sicherheitsüberprüfungen durchführt – dagegen erfordern On-Premise-Lösungen mehr manuelle Wartung und Updates seitens des Betreibers. Dies kann zu Sicherheitslücken führen, wenn Updates nicht zeitnah installiert werden.
On-Premise-Lösungen beziehen sich auf Software oder IT-Infrastrukturen, die physisch auf dem Gelände eines Unternehmens installiert und betrieben werden, im Gegensatz zu cloudbasierten Lösungen, die von einem externen Anbieter gehostet und verwaltet werden. Unternehmen, die On-Premise-Lösungen nutzen, verfügen über dedizierte Server, Speichergeräte und Netzwerke, die in ihren eigenen Rechenzentren oder vor Ort installiert sind. Diese Lösungen bieten Unternehmen mehr Kontrolle und Sicherheit über ihre Daten und Systeme, erfordern jedoch oft höhere Investitionen in Hardware, Wartung und Betrieb im Vergleich zu cloudbasierten Alternativen.
Allerdings haben On-Premise-Lösungen auch Vorteile, beispielsweise wenn strenge Compliance-Anforderungen erfüllt werden müssen oder bestimmte Anwendungen aus technischen Gründen nicht in die Cloud migriert werden können. Zudem sollte man sich Folgendes vergegenwärtigen: Eine Cloud-Umgebung zu nutzen, bedeutet gleichzeitig auch eine gewisse Abhängigkeit von einem externen Anbieter. Wenn dieser aus irgendeinem Grund seine Dienste einstellt oder sich deren Qualität deutlich verschlechtert, kann dies erhebliche Auswirkungen auf die betroffenen Unternehmen haben, einschließlich Datenverlust oder einer Downtime von auf der Cloud gehosteten Anwendungen.
Im Hinblick auf Wirtschaftlichkeit und Skalierbarkeit gilt es, Ressourcen effizient zu verwalten, da ansonsten die Kosten im Laufe der Zeit steigen können. Eine genaue Überwachung und Verwaltung helfen, unerwartete Ausgaben zu vermeiden und sicherzustellen, dass die Cloud-Umgebung wirtschaftlich bleibt. Generell müssen potenzielle Risiken und Herausforderungen sorgfältig bewertet werden und umfassende Strategien zur Risikominimierung und zum Compliance Management vorhanden sein, um die Vorteile der Cloud-Technologie auszuschöpfen.
Onpulson: Ist der Edge-Ansatz ein Gegenmodell zum Cloud-Ansatz?
Jerome Evans: Meiner Ansicht nach schließen sich beide Modelle nicht gegenseitig aus. Edge Rechenzentren bieten Unternehmen, die ihren Hauptsitz außerhalb traditioneller Kernmärkte haben, klare Vorteile. Daher können Unternehmen Edge-Datacenter „ergänzend“ zu ihren Cloud-Umgebungen nutzen, da auch in diesen Rechenzentren Cloud-Dienste bereitgestellt werden können – je nach verfügbarer Kapazität. Es kommt unterm Strich auf die Perspektive und den Anwendungsfall an. Um den Edge-Ansatz einzuordnen, müssen mehrere Aspekte berücksichtigt werden.
Zuerst sollten wir einen Blick auf die Lokalität der Datenverarbeitung werfen: Im Cloud Ansatz werden Daten zentral in entfernten Rechenzentren verarbeitet, während im Edge-Ansatz die Datenverarbeitung näher am Ort der Datenerzeugung und -Verarbeitung stattfindet. Auch Latenz und Bandbreite spielen eine Rolle: Der Edge-Ansatz reduziert die Latenzzeit, da Daten lokal verarbeitet werden; das ist besonders wichtig für Anwendungen, die eine schnelle Reaktionszeit erfordern, wie etwa IoT, autonomes Fahren oder Augmented Reality.
Für eine Anwendung, bei der die Latenzzeit nicht die oberste Priorität hat, sondern zum Beispiel eine komplexe Datenverarbeitung im Fokus steht, bietet die Cloud jedoch leistungsstarke Rechenressourcen und spezialisierte Dienste, die die Verarbeitung und Analyse großer Datenmengen effizienter sowie kostengünstiger machen als lokale EdgeInfrastrukturen. Insgesamt kann Edge-Computing als eine Ergänzung zum Cloud-Ansatz betrachtet werden, da spezifische Anforderungen hinsichtlich Latenzzeit, Skalierbarkeit und Datenschutz adressiert werden. In einigen Fällen kann der Edge-Ansatz jedoch auch als Gegenmodell angesehen werden, insbesondere wenn es um die Dezentralisierung von Datenverarbeitung und die Betonung lokaler Ressourcen geht. Letztendlich hängt die Wahl zwischen Cloud- und Edge-Computing von den spezifischen Anforderungen der jeweiligen Anwendung ab.
Onpulson: Spielt das Thema KI beim Cloud-Management eine Rolle?
Jerome Evans: Künstliche Intelligenz (KI) kann einen bedeutenden Teil des Cloud-Managements erleichtern, insbesondere bei der Bewältigung von Engpässen und der Automatisierung wiederkehrender Aufgaben. Durch KI ist es möglich, präziser zu simulieren, wie viele Cloud-Ressourcen Unternehmen zukünftig benötigen, um ihre Anwendungen effektiv für ihre Nutzer bereitzustellen und zu orchestrieren.
Angenommen ein Einzelhändler steht vor einer saisonalen Nachfrage, wie zum Beispiel während der Feiertagssaison. Durch den Einsatz von KI kann das Unternehmen historische Daten sowie aktuelle Trends analysieren, um präzise Vorhersagen darüber zu treffen, wie stark die Nachfrage nach seinen Online-Diensten und Anwendungen während der Feiertage sein wird. Basierend auf diesen Prognosen kann das Unternehmen Cloud-Ressourcen entsprechend skalieren, um sicherzustellen, dass seine Online-Plattformen und Anwendungen selbst bei einem plötzlichen Anstieg der Nutzeraktivität reibungslos funktionieren. Trotzdem bleibt der Mensch am Ende des Tages unerlässlich, da er die Hauptverantwortung für das Management der Cloud-Ressourcen trägt. Es bieten sich dennoch enorme Chancen, Ressourcen parallel zu betreiben und somit die Effizienz zu steigern. Wir haben mitunter die Möglichkeit, Prozesse zu automatisieren, insbesondere was Routineaufgaben betrifft, wie beispielsweise Ressourcenbereitstellung, Skalierung, Fehlererkennung und -behebung sowie Sicherheitsüberwachung. Das führt zu einer effizienteren Nutzung von Ressourcen und einer Reduzierung manueller Aufwände.
Onpulson: Was sind FinOps und welche Bedeutung haben sie? In welche Richtung geht dieser Trend?
Jerome Evans: FinOps steht für Financial Operations und bezieht sich auf eine Praktik, bei der finanzielle Aspekte des Cloud-Computings optimiert und verwaltet werden. Es handelt sich um einen Ansatz, der darauf abzielt, die Ausgaben für Cloud-Ressourcen zu optimieren, indem Unternehmen Transparenz, Verantwortlichkeit und Effizienz in ihren Cloud-Kostenprozessen fördern. FinOps umfasst Methoden zur Budgetierung, Kostenverfolgung, Kostenoptimierung und Governance, um sicherzustellen, dass Unternehmen die Vorteile der Cloud nutzen können, ohne ihre Kosten außer Kontrolle geraten zu lassen. Insgesamt zielt FinOps darauf ab, eine bessere Ausrichtung zwischen den technischen Teams, die Cloud-Ressourcen nutzen, und den Finanzteams, die die Kosten verwalten, zu erreichen.
FinOps-Teams haben meines Erachtens das Potenzial, sowohl die Finanz- als auch die IT-Branche sowie die Cloud tiefgreifend zu transformieren. Warum? Weil sie die Chance bieten, die Zusammenarbeit zwischen Cloud-Engineers und IT-Controllern kollaborativ zu gestalten. Eine enge Zusammenarbeit zwischen Cloud-Engineers und IT-Controllern ist nicht nur sinnvoll, sondern würde echte Synergien schaffen: Durch die sorgfältige Planung von Ressourcen in allen Bereichen würde die Kosten- und Energieeffizienz maximiert und gleichzeitig der Ausstoß von CO2-Emissionen minimiert werden. Hinsichtlich der aktuellen Dynamik zeigt sich, dass die genannten Aspekte zunehmend als relevant wahrgenommen werden.
Wir beobachten eine verstärkte Nachfrage nach Fachkräften mit FinOps-Kenntnissen sowie nach Tools und Plattformen, die eine transparente Kostenverwaltung ermöglichen. Die Entwicklung von Best Practices und Standards im Bereich FinOps nimmt Fahrt auf, was darauf zurückzuführen ist, dass Unternehmen nach bewährten Methoden suchen, um ihre Cloud-Ausgaben zu optimieren und die Rentabilität ihrer Investitionen zu maximieren.
Bild: istockphoto.com/Miodrag Kitanovic
Kommentare