Über uns

Erfahren Sie mehr über die Mission und das Team von DataCater.

Unternehmen verwalten ihre Daten in einer wachsenden Anzahl an verschiedenen Datensystemen: Sie speichern Kundendaten in CRM-Anwendungen, verwenden Analytics-Applikationen zur Unterstützung des Marketings oder betreiben Data-Warehouse-Systems als Grundlage für Reporting- und Analyse-Anwendungen. Unternehmen verbinden die verschiedenen Systeme mithilfe von Data-Pipelines, um beispielsweise Kundendaten aus der CRM-Anwendung in das Data-Warehouse zu laden.

In unserer langjährigen Arbeit mit Daten konnten wir zwei Hauptprobleme bei der Arbeit mit Data-Pipelines identifizieren:

  • Bulkloads: Data-Pipelines werden in festen Abständen wiederkehrend ausgeführt, um alle Daten von der Datenquelle, beispielsweise ein CRM-Tool, in die Datensenke, beispielsweise ein Data-Warehouse-System, zu laden. Dabei wird nicht berücksichtigt, welche Daten der Datenquelle sich seit der vorhergehenden Ausführung geändert haben und eine erneute Verarbeitung bedürfen. Bulkloads verschwenden nicht nur Rechenressourcen, sondern sind auch sehr fehleranfällig und benötigen viel Zeit für die Ausführung. Die lange Laufzeit der Bulkloads verhindert häufige Ausführungen, wodurch Datensenken fast immer veraltete Daten beinhalten.

  • Viele repetitive Tätigkeiten: Datenexperten führen viele repetitive Tätigkeiten bei der Arbeit mit Data-Pipelines durch. Das beschränkt sich nicht nur auf die initiale Programmierung sondern erstreckt sich auch auf die Pflege und Wartung der Data-Pipelines.

Wir haben uns zum Ziel gesetzt jeder Person, die mit Daten arbeitet, die effiziente Verwendung von Streaming-Data-Pipelines zu ermöglichen.

Wir entwickeln eine No-Code-Technologie, welche Analytics-Teams ermöglicht ihre Datensysteme mit robusten und effizienten Streaming-Data-Pipelines zu verbinden, ohne dafür Experten in Stream-Processing sein oder einen Großteil ihrer Arbeitszeit für die Erstellung und Optimierung von Data-Pipelines verwenden zu müssen.

Durch DataCater können sich Analytics-Teams auf ihre Hauptaufgabe, die Wertschöpfung aus Daten, konzentrieren anstatt Data-Pipelines manuell und zeitaufwendig entwickeln und betreiben zu müssen.

  • Verwendung aktueller Daten in nachgelagerten Anwendungen: DataCater basiert auf Apache Kafka, dem Industriestandard für Event-Streaming, und sorgt dafür, dass Datensenken immer den aktuellen Stand der Datenquellen beinhalten.

  • Zuverlässige und effiziente Datenintegration: DataCater stellt Plug-and-Play Konnektoren für Change-Data-Capture zur Verfügung, welche die Zuverlässigkeit und Effizienz von Data-Pipelines enorm verbessern.

  • Interaktiver Pipeline-Designer: DataCater's interaktiver Pipeline-Designer automatisiert die repetitiven Tätigkeiten, welche bei der Arbeit mit Streaming-Data-Pipelines anfallen, und spart so enorm viel Zeit für Datenexperten ein.

Team

Stefan Sprenger
Stefan Sprenger
Geschäftsführer
Olivier Dobberkau
Olivier Dobberkau
Evangelist