Eine Data Pipeline ist eine Reihe von automatisierten, sequenziellen oder parallelen Datenverarbeitungs- und Übertragungsprozessen, die Daten aus verschiedenen Quellen erfassen, transformieren, integrieren, analysieren und speichern, um sie für Business Intelligence, Analytics, Data Science und Anwendungen verfügbar und nutzbar zu machen. Data Pipelines sind ein zentraler Bestandteil von Datenmanagement, ETL (Extraktion, Transformation, Laden) und Datenarchitekturen, da sie die Effizienz, Skalierbarkeit, Flexibilität und Automatisierung von Datenverarbeitungs- und Analyseprozessen unterstützen. Data Pipeline-Technologien umfassen Workflow-Orchestrierung, Datenintegration, Datenqualitätsprüfung und Datenverarbeitungs-Engines.