Suchen

Multi-Cloud-Analyse und Confidential Computing Google Cloud Next OnAir mit Fokus auf Hybrid- und Multi-Cloud-Datenmanagement

| Autor: Elke Witmer-Goßner

Google Clouds jährliche weltweite Kunden- und Partnerkonferenz fand in diesem Jahr ebenfalls pandemiebedingt – „on air“ – rein digital statt. Zum Start der virtuellen „Next ’20“ kündigte der Konzern neue Lösungen für intelligente Datenanalyse und sicheres Computing an.

Firma zum Thema

Google Cloud will in unterschiedlichen Clouds gespeicherte Daten uneingeschränkt nutzbar machen.
Google Cloud will in unterschiedlichen Clouds gespeicherte Daten uneingeschränkt nutzbar machen.
(Bild: gemeinfrei / Pixabay )

Seit 20 Jahren habe es sich Google zur Aufgabe gemacht, Unternehmen bei der Bewältigung ihrer Datenprobleme zu unterstützen, sagte Kirsten Kliphouse, President North America Google Cloud, bereits im Vorfeld der digitalen Veranstaltungsreihe Google Cloud Next ’20. Die Mission von Google Cloud „transform through data“ solle Organisationen auf ihrem Weg der digitalen Transformation zu begleiten.

Multi-Cloud-Nutzung ist Standard

Google Cloud gehe es insbesondere darum, Daten, die häufig separat lokal, auf proprietären Systemen oder in verschiedenen Clouds gespeichert sind, uneingeschränkt nutzbar zu machen. Daher liege der Produktschwerpunkt immer mehr auch auf Lösungen, die hälfen, diese Silos aufzubrechen und Daten Cloud-übergreifend verfügbar zu machen. Das Verschieben von Daten über verschiedene Clouds sei umständlich und auch teuer, da in der Regel Gebühren für die Übertragung von Daten von anderen Cloud-Anbietern in die Google Cloud anfielen, erklärte Debanjan Saha, General Manager und Vice President of Engineering, Google Cloud, bei Vorstellung der neuen Multi-Cloud-Analyselösung BigQuery Omni.

Bildergalerie

BigQuery Omni soll die Datenanalyse über verschiedene Cloud-Plattformen hinweg ermöglichen. Das neue Produkt basiert auf der Anwendungsplattform Anthos, mit der Anwender ihre Daten direkt über Google Cloud, Amazon Web Services (AWS) und in Kürze auch Microsoft Azure zu Analysezwecken verbinden können, ohne Datensätze verschieben oder kopieren zu müssen. Über eine einzige Benutzeroberfläche können Kunden die Daten dort analysieren, wo sie abgelegt sind.

BigQuery Omni ist ab sofort in der Version Private Alpha für AWS S3 verfügbar, die Unterstützung für Azure soll bald folgen. BigQuery Omni unterstützt Avro, CSV, JSON, ORC und Parkett.

Neues Confidential-Computing-Portfolio

Ein weiteres großes Thema der „Next ’20“: die Verschlüsselung von Daten. Hier kündigte Google Cloud zwei neue Sicherheitsangebote an. Unternehmen, aber auch Behörden, die ihre Workloads in die Cloud verlagern, stehen schließlich vor dem Problem, diese Daten vertraulich und privat halten zu müssen. Google Cloud verschlüsselt zwar die Daten während der Speicherung und Übertragung, allerdings müssen diese Kundendaten für die Verarbeitung wieder entschlüsselt werden.

Daher führt Google Cloud das neue Portfolio für „Confidential Computing“ ein. Diese neue Technologie erlaubt es, Daten während der Verarbeitung zu verschlüsseln. In Confidential-Computing-Umgebungen sollen Daten in-memory und auch außerhalb der Zentraleinheit (CPU) verschlüsselt werden. Damit sei Google Cloud der erste große Cloud-Anbieter, der ein solches Maß an Sicherheit und Isolierung in einer Lösung biete, die weder eine Änderung des Codes in Apps noch Einbußen bei der Rechenleistung verlange.

Das erste Produkt, das Google Cloud hier auf den Markt bringt, ist Confidential VMs. Google Cloud verwendet zwar bereits verschiedene Isolations- und Sandboxing-Verfahren als Teil seiner Cloud-Infrastruktur, um die multimandantenfähige Architektur zu sichern. Confidential VMs – aktuell in der Beta-Phase – gehen noch einen Schritt weiter und bieten eine Arbeitsspeicherverschlüsselung. So können Kunden virtuelle Maschinen in der Cloud weitgehend isolieren. Confidential VMs sind auf AMD CPUs verfügbar und nutzen die Vorteile der sicheren verschlüsselten Virtualisierungstechnologie, die von AMD-EPYC-CPUs der zweiten Generation unterstützt wird.

Doch auch für Regierungsbehörden, die ihre IT mit Cloud-Technologien modernisieren möchten, ist die Gewährleistung der Sicherheit, des Datenschutzes und der Einhaltung gesetzlicher Vorschriften für ihre Arbeitslasten unerlässlich. Für die vertrauliche Datenverarbeitung in Behörden kündigte Google Cloud „Assured Workloads for Government“ an, was allerdings zuerst auf dem US-amerikanischen Markt verfügbar sein wird. Viele Cloud-Anbieter hätten bisher separate Umgebungen („Regierungs-Clouds“) aufgebaut, um die strengen Compliance-Anforderungen für die Verarbeitung von bundes-, landes- und kommunalbehördlichen Daten zu erfüllen – mit dem Manko allerdings, dass diese auf weniger funktionsreichen, abgesicherten Versionen kommerzieller Clouds laufen müssen.

Google Cloud hält die neue Lösung „Assured Workloads for Government“ für den besseren Weg, einfach und schnell kontrollierte Umgebungen zu erstellen, in denen Datenstandorts- und Personenzugriffskontrollen automatisch durchgesetzt werden können. Die globale Auslieferung der Lösung ist geplant.

Vollgas bei Industrie 4.0

Neben den neuen Produkten kündigte Google Cloud zu Beginn seiner digitalen Veranstaltungsreihe auch weitere Partnerschaften an. Aus europäischer Sicht besonders interessant ist die bereits im Vorfeld verkündete Zusammenarbeit mit der Deutschen Bank. Ein ähnliches Kaliber hat die neue Industrie- und Technologiepartnerschaft mit der französischen Groupe Renault, um die industriellen Systeme in Richtung Industrie 4.0 zu transformieren. Neben der Digitalisierung der Produktionsanlagen sollen neue Branchenlösungen entwickelt werden.

Bildergalerie

Groupe Renault hat 2006 mit der Entwicklung einer eigenen digitalen Plattform begonnen, um die Industriedaten aus weltweit 22 Konzernstandorten und über 2.500 Maschinen zu verbinden und für den Erkenntnisgewinn zu sammeln. Die neue Partnerschaft mit Google Cloud hat vor allem das Ziel, die unabhängig betriebene industrielle Datenmanagementplattform von Groupe Renault zu optimieren. Der Automobilkonzern will zudem mit den Lösungen und der Expertise von Google Cloud in den Bereichen intelligente Analytik, maschinelles Lernen (ML) und künstliche Intelligenz (AI) seine Lieferketten und die Fertigung effizienter machen, die Produktionsqualität erhöhen sowie durch Energieeinsparungen die Umweltbelastung verringern.

Es geht noch weiter

Neun Wochen lang finden im Rahmen der Google Cloud Next ’20 OnAir über 200 kostenlose Sessions statt, die neben den Keynotes vieler Branchenkoryphäen vor allem zahlreiche Weiterbildungsmöglichkeiten mit führenden Google-Entwicklern bieten.

Ergänzendes zum Thema
Erste Schritte in BigQuery Omni
  • Über die Benutzeroberfläche des Cloud Data Warehouse BigQuery wählt der Anwender die öffentliche Cloud aus, in der sich seine Daten befinden. Für die Abfrage müssen die Daten nicht extra formatiert oder transformiert werden.
  • BigQuery Omni unterstützt Avro, CSV, JSON, ORC und Parkett. Die Rohdaten müssen daher auch nicht aus der anderen Public Cloud verschoben oder kopiert werden. Es müssen auch keine Cluster verwaltet oder zusätzliche Ressourcen bereitgestellt werden.
  • Der Analysevorgang erfolgt innerhalb des Multi-Tenant-Service von BigQuery, der auf der AWS-Region läuft, in der sich die Daten während der Berechnung befinden. Die Abfragemaschine von BigQuery läuft hinter den Kulissen auf den Anthos-Clustern innerhalb des von BigQuery verwalteten Dienstes.
  • BigQuery holt die Daten aus der Datenspeicherung in den Account des berechtigten Anwenders, der sich hierfür über die IAM-Rollen des anderen Public-Cloud-Dienstes autorisiert hat.
  • Um die Abfrage auszuführen, werden die Daten vorübergehend innerhalb AWS (demnächst auch Azure) vom Datenspeicher zu den BigQuery-Clustern, die auf Anthos laufen, verschoben.
  • Der Anwender kann nun auswählen, ob die Abfrageergebnisse an die Google Cloud zurückgegeben werden sollen, um sie in der BigQuery-Benutzeroberfläche anzuzeigen. Die Ergebnisse können aber auch direkt zurück in den Datenspeicher exportiert werden, ohne die Ergebnisse oder Daten Cloud-übergreifend verschieben zu müssen.

(ID:46716652)

Über den Autor

 Elke Witmer-Goßner

Elke Witmer-Goßner

Redakteurin, CloudComputing-Insider.de