Whitepaper

Big Data Sammlung und DataFlow-Management beschleunigen

Hortonworks DataFlow

Bereich: Whitepaper

Was ist Hortonworks DataFlow?

Hortonworks DataFlow (HDF), basierend auf Apache™ NiFi, ist die erste integrierte Plattform, mit der die Komplexität und die Herausforderungen der Erfassung sowie des Transports von Daten aus seiner Vielzahl von Quellen gelöst wird. Dabei kann es sich um kleine und große, schnelle wie langsame sowie stetige oder periodisch anfallende Daten handeln.

Hortonworks DataFlow ist eine integrierte Plattform zur Datenerhebung, für die Verarbeitung einfacher Ereignisse sowie den Transport und die Bereitstellung von Daten. Sie wurde entwickelt, um die vielfältigen und komplexen Datenströme zu erfassen, die in einer Welt vernetzter Menschen, Systeme und Dinge erzeugt werden.

Als ideale Lösung für das Internet der Dinge (IoT - Internet of Things), ermöglicht HDF eine einfache und schnelle Datenerhebung, den sicheren Datentransport, priorisierbare Datenströme und eine klare Nachvollziehbarkeit der Daten vom äußeren Rand des Netzwerks bis hinein in den Kern des Rechenzentrums. Durch die Kombination einer intuitiven Benutzeroberfläche, hochgradig vertrauenswürdiger Zugriffs- und Autorisierungsmechanismen sowie der permanent laufenden Überwachungskette (Herkunft der Daten) bildet HDF die perfekte Ergänzung zur Hortonworks Data Platform (HDP), um historische und kurzfristige Erkenntnisse für Ihren Geschäftsbetrieb zusammenzuführen.

Bitte registrieren zum Login

Bereitgestellt von:
Hortonworks

Zurück