Mobile-Menu

Gregor Bauer von Couchbase zum KI-Hype „Schnelle Multi-Modell-Datenbanken sind die Zukunft“

Von Dr. Dietmar Müller 3 min Lesedauer

Anbieter zum Thema

Couchbase offeriert die Cloud-Datenbankplattform Capella, mit der auch Anwendungen erstellt werden können. KI-Funktionen sollen nun dem Database-as-a-Service mehr Durchschlagskraft verleihen. Wie das gehen soll, hat Storage-Insider im Gespräch mit Gregor Bauer, Manager Solutions Engineering CEUR bei Couchbase, eruiert.

Couchbase bindet in seinen Database-as-a-Service Capella nun auch KI-Funktionen ein.(Bild:  ©monsitj, Getty Images Pro via Canva.com)
Couchbase bindet in seinen Database-as-a-Service Capella nun auch KI-Funktionen ein.
(Bild: ©monsitj, Getty Images Pro via Canva.com)

Alle Welt spricht von der künstlichen Intelligenz (KI) – auch Couchbase hat generative KI-Funktionen in seine Database-as-a-Service Couchbase Capella eingeführt. Das Ergebnis, Capella iQ, ist ein KI-basiertes Werkzeug, das unter anderem eine einfache Interaktion mit der Couchbase-Datenbank in natürlicher Sprache verspricht. Anwender müssten Queries also nicht mehr zwingend in SQL schreiben. Aber auch Unit-Tests und Beispielcode ließen sich auf diese Weise in natürlicher Sprache erzeugen, so Gregor Bauer, Manager Solutions Engineering CEUR bei Couchbase, gegenüber Storage-Insider.

„Capella iQ verwendet Basismodelle, um die integrierte Entwicklungsumgebung der Capella Developer Workbench intelligent zu machen – ähnlich einem virtuellen Assistenten“, erläutert Bauer weiter. Damit könnten Anwender ihre Anwendungen in Capella effektiver erstellen und testen als früher, was letztlich zu einer schnelleren Time-to-Market führe.

Darüber hinaus, beeilt sich Bauer zu betonen, verfüge Couchbase bereits seit geraumer Zeit über KI-Funktionen. Diese sorgten für eine prädiktive Abfrage-API sowie dafür, dass die Daten direkt auf Edge-Devices prozessieren: „Im Kern handelt es sich dabei um vortrainierte Machine-Learning-Modelle [ML], die es Anwendungen erlaubt, Vorhersagen für Daten in der Couchbase-Lite-Datenbank zu treffen – und das auf mobilen Geräten und ohne Backend“, so der Manager. Weil die Informationen nicht erst zur Verarbeitung in die Cloud übermittelt werden müssten, erhöhe sich die Reaktionszeit. Zudem sei die Prozessierung der Daten nicht auf eine bestehende Internetverbindung angewiesen.

Trend geht zu schlanken ML-Modellen

„Der Trend wird auch in den nächsten Jahren weiter zu schlanken ML-Modellen gehen, die autonom auf Endgeräten laufen und damit beispielsweise schnellere Entscheidungen begünstigen und mehr Potenzial aus Konzepten wie der Predictive Maintenance ausschöpfen“, zeigte sich Bauer überzeugt. Couchbase-Kunden könnten schon seit rund zwei Jahren benutzerdefinierte Python-Funktionen verwenden, um KI-Modelle für die Datenbank auszuführen.

Gregor Bauer, Manager Solutions Engineering CEUR bei Couchbase.(Bild:  Jesse Sutton-Hough)
Gregor Bauer, Manager Solutions Engineering CEUR bei Couchbase.
(Bild: Jesse Sutton-Hough)

„Die Couchbase-Plattform besteht aus einer operativen Datenbank und einem Analytics-Service, mit dem eine Echtzeitkopie erstellt werden kann. Mit den User Defined Functions [UDF] können Nutzerinnen und Nutzer eigene Prompts bauen, ein ML-Modell trainieren und damit schließlich individuelle Analysen starten“, gibt Bauer ein Beispiel für eine solche Funktion. „Auch hier ist Predictive Maintenance sicherlich ein wichtiger Use Case, aber auch auf eigene Anforderungen zugeschnittene Bedarfsprognosen und Aussagen über Wahrscheinlichkeiten lassen sich auf diese Weise ableiten.“

Krankheiten der KI

Bauer bremst aber zu große Erwartungen – die KI sei kein Allheilmittel, auch nicht im Bereich Storage. „Bei der ganzen Begeisterung und dem Hype um das Thema sollten wir nicht vergessen, dass das Konzept der künstlichen Intelligenz eigentlich nicht neu ist – wir befassen uns schon seit etlichen Jahren mit neuronalen Netzwerken, Big Data und maschinellem Lernen. Jetzt haben wir mit der generativen KI eine neue Stufe erreicht, die auch in der Mitte der Gesellschaft angekommen ist und sich in den nächsten Jahren noch stark weiterentwickeln wird.“

Generative KI sei sicherlich gekommen, um zu bleiben. ChatGPT und Co. krankten heute allerdings noch an der fehlenden Kontextualisierung, weil sie immer auf der gleichen Datenbasis arbeiten. „Sie lernen zwar dazu, kennen den Anwender und den speziellen Use Case aber nicht“, erklärt Bauer.

Um diesen Kontext in quasi Echtzeit bereitstellen zu können, seien flexible und schnelle Multi-Modell-Datenbanken notwendig, die mit so wenig Latenz wie möglich arbeiteten. „Darin sehen wir bei Couchbase die Zukunft. Was allerdings schon da ist und auch bleiben wird ist ML – das Anwenden statistischer Wahrscheinlichkeiten auf riesige Datensätze. Auch hier wird der Fortschritt dazu führen, dass uns zukünftig Echtzeitanalysen mit erstaunlichen Ergebnissen zur Verfügung stehen.“

Aktuelles eBook

Storage für HPC & KI

eBook Storage für HPC & KI
eBook „Storage für HPC & KI“
(Bild: Storage-Insider)

Speichersysteme für das HPC und für die verschiedenen Disziplinen der KI sind hohen Anforderungen ausgesetzt. Denn sie müssen enorme Datenmengen in kürzester Zeit bereitstellen oder sammeln. Wie können diese Herausforderungen gemeistert werden?

Die Themen im Überblick:

  • Aktuelle Trends in der Künstlichen Intelligenz
  • High-Performance Computing – Explosion der Innovationen
  • Künstliche Intelligenz – nahezu Echtzeit-Datenverarbeitung

(ID:49908796)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung