Globale Studie zeigt: Das Datenfundament ist der entscheidende Faktor. Performance-Probleme hängen vor allem mit DIY-Ansätzen und der Integration von Altsystemen zusammen…
Hintergrund
Die aktuelle von Fivetran in Auftrag gegebene globale Studie zeigt, dass Performance-Probleme vor allem mit DIY-Ansätzen und der Integration von Altsystemen zusammenhängen. (1) Das wiederum strapaziert Budgets und verzögert KI-Innovationen. Somit wird deutlich, dass das Datenfundament der entscheidende Faktor für den Erfolg von KI ist.
Ergebnisse der Untersuchung
Fivetran hat am 26. März 2026 den „2026 Enterprise Data Infrastructure Benchmark Report“ veröffentlicht. Hier die wichtigsten Ergebnisse im Auszug:
„Brüchige Datenpipelines verzögern Analyse- und KI-Initiativen in Großunternehmen und setzen diese so erheblichen operativen Risiken aus. Fast 97 Prozent der befragten Führungskräfte aus den Bereichen Daten und Technologie geben darin an, dass Ausfälle in ihren Pipelines Analyse-Programme oder KI-Initiativen ausbremsen. Dies unterstreicht die Bedeutung von Zuverlässigkeit beim Data Movement als entscheidenden Faktor für erfolgreiche KI-Projekte in Unternehmen.
Den Ergebnissen zufolge besteht die größte Herausforderung für Unternehmen nicht in einer unzureichenden Investition in Daten, sondern in der zugrunde liegenden Architektur.
Unternehmen wenden derzeit jährlich durchschnittlich 29,3 Millionen US-Dollar für ihre Datenprogramme auf. Damit gehören Daten zu den größten Kostenfaktoren im IT-Budget von Unternehmen. Doch trotz dieser Investitionen beeinträchtigen Probleme mit der Zuverlässigkeit weiterhin den Unternehmenswert.
Rund 14 Prozent des Datenbudgets geben Unternehmen für die Integration aus. Das entspricht durchschnittlich rund 4,2 Millionen US-Dollar an jährlichen Ausgaben. Viele Unternehmen arbeiten immer noch mit fragmentierten Integrationsumgebungen, die auf einer Mischung aus selbst erstellten Pipelines, veralteten ETL-Systemen und teilweise automatisierten Tools basieren. Mit ständig steigendem Datenvolumen und zunehmender Anzahl von Pipelines sind diese immer schwieriger zu managen.
Die Benchmark-Studie zeigt, dass Ausfälle und Betriebsstörungen von Pipelines Unternehmen monatlich durchschnittlich ein Risiko in Höhe von schätzungsweise drei Millionen US-Dollar verursachen. Das macht laut Report die wachsende Kluft zwischen Dateninvestitionen und messbarem Ertrag deutlich.“

Bildquelle: Fivetran
Kommentarauszug George Fraser, CEO von Fivetran: „Unternehmen geben Millionen für Datenintegration aus, aber ein Großteil dieser Investitionen fließt in die Wartung fragiler Pipelines und nicht in den Aufbau neuer Kapazitäten…“.
Angesichts wachsender Herausforderungen hinsichtlich der Zuverlässigkeit wird die Datenarchitektur zu einem entscheidenden Faktor dafür, wie schnell Unternehmen KI skalieren können. Die Unternehmen, die bei KI die schnellsten Fortschritte erzielen, beginnen, ihre Grundlagen zu überdenken und setzen auf offenere Ansätze für ihre Dateninfrastruktur, um so Geschwindigkeit, Ausfallsicherheit und langfristige Flexibilität zu gewährleisten. Die Risiken für die Stabilität von Pipelines nehmen mit der Skalierung von Datenumgebungen zu:
„97 Prozent der leitenden Datenverantwortlichen geben an, dass Pipeline-Ausfälle ihre Analyse- oder KI-Initiativen verzögert haben.
Etwa drei Millionen US-Dollar an durchschnittlichen monatlichen Kosten sind auf Ausfallzeiten und Betriebsstörungen zurückzuführen.
In großen Unternehmen treten durchschnittlich 4,7 Pipeline-Ausfälle pro Monat auf, deren Behebung nimmt fast 13 Stunden in Anspruch.
Mehr als 60 Stunden durchschnittlicher Ausfallzeit pro Monat verzögern die Bereitstellung von Analysen und verlangsamen die Einführung von KI.
In den befragten Unternehmen werden durchschnittlich über 300 Pipelines verwaltet, was die betriebliche Komplexität erhöht.
Ein einzelner Pipeline-Ausfall in großen Ökosystemen kann Auswirkungen in Höhe von bis zu 1,4 Millionen US-Dollar pro Vorfall nach sich ziehen.53 Prozent der technischen Kapazitäten werden für die Wartung und Fehlerbehebung von Pipelines aufgewendet, was die Ressourcen für Innovationen und KI-Initiativen einschränkt.
Unternehmen, die automatisierte Integrationsplattformen einsetzen, übertreffen die ROI-Erwartungen aus Dateninvestitionen mit fast doppelt so hoher Wahrscheinlichkeit.“
Fazit des Reports
Die Ergebnisse legen laut der Untersuchung nahe, dass Unternehmen mit der zunehmenden Verbreitung von KI stärker auf offene Dateninfrastruktur-Architekturen umsteigen werden, bei denen „automatisierte Datenübertragung, plattformübergreifende Interoperabilität und eine höhere Betriebsstabilität in großem Maßstab im Vordergrund stehen.“ Diese Ansätze entwickeln sich danach zu einer entscheidenden Grundlage für Unternehmen, die ihren technischen Aufwand reduzieren und gleichzeitig komplexere Analyse- und KI-Workloads unterstützen möchten.
(1) Quelle / externer link > https://www.fivetran.com/blog/the-enterprise-data-infrastructure-benchmark-report-2026
Im Rahmen der weltweiten Studie wurden 500 Führungskräfte aus den Bereichen Daten und Technologie in Unternehmen mit mehr als 5.000 Mitarbeitern befragt.
Querverweis:
Unser Beitrag > KI-unterstützte kontextbezogene Datenabfragen: MongoDB erweitert Voyage AI
Unser Beitrag > IT als Enabler und Business Apps als Zukunft der (CX) Customer Experience. Schluss mit Mammutprojekten!
Unser Beitrag > Speicherkosten optimieren: Datadobi StorageMAP 7.4 führt Advanced Storage Optimizer ein
| Anhang | Größe |
|---|---|
| 806.67 KB |