Skip to main content

BMC setzt Hadoop in die Unternehmenszeiterfassung

Jetzt, da viele Organisationen das Dienstprogramm in Big Data sehen, bietet BMC Software eine Möglichkeit, Jobs von der Hadoop-Datenverarbeitungsplattform in größere Unternehmensworkflows einzubinden.

"Wir bieten eine feinere Granularität für Hadoop-Workflows, und nicht nur innerhalb von Hadoop, aber im gesamten Unternehmen ", sagte Shamoun Murtza, BMC Direktor im Büro des Chief Technology Officer des Unternehmens.

BMC hat ein neues Modul für seine Job-Scheduling-Software Control-M, die entworfen wurde, um seinen Nutzern - in der Regel groß Organisationen - um Hadoop-Jobs zu verwalten, neben den traditionellen IT-Jobs, die sie bereits mit Control-M verwalten.

[Lesen Sie weiter: Die besten TV-Streaming-Dienste]

Murtza erklärte, dass bereits Unternehmen Hadoop verwenden, sie nicht viele Hilfsprogramme, um sie in ihre bestehenden IT-Operationen zu integrieren.

Hadoop arbeitet hauptsächlich mit Batchverarbeitung, indem es einen Datenblock aufnimmt, analysiert und einige Ausgaben zurückgibt. Dieser Ansatz eignet sich gut für die serielle Ausführung mit anderen Anwendungen, die entweder Hadoop-Daten einspeisen oder die Ergebnisse von Hadoop in einer anderen Rechenoperation verwenden können.

Batch-Arbeit "muss nicht nur innerhalb von Hadoop, sondern übergreifend koordiniert werden das Unternehmen. Es gibt andere Workflows mit Ergebnissen, die in Hadoop eingefügt werden können. Sobald Sie die Daten aus Hadoop heruntergeladen haben, führen Sie weitere [Anwendungen] aus, um die Daten auswerten zu können ", sagte Murtza.

Ursprünglich für Mainframe-Computer konzipiert, bietet BMCs Control-M Workload-Automatisierungstool Administratoren eine Möglichkeit Erstellen Sie Workflows, indem Sie verschiedene Anwendungen zu einer Aufgabe verknüpfen, ohne viele Skripte schreiben zu müssen. BMC bietet jetzt die Software für die meisten modernen Unternehmensplattformen, einschließlich Linux, Unix und Microsoft Windows, und kann mit den meisten Unternehmenssoftware wie Datenbanken, Enterprise Resource Planning (ERP) und ETL (Extract, Transform, Load) Software arbeiten.

Das neue Control M-Modul erkennt nun häufig verwendete Hadoop-Komponenten wie HDFS (Hadoop File System), Pig, Scoop, Hive und MapReduce, sodass Administratoren keine Skripts mehr schreiben müssen, um diese Anwendungen in ihren Workflow zu integrieren. Hadoop verfügt über eigene Jobplanungswerkzeuge, die jedoch hauptsächlich für die Verwaltung von Jobs innerhalb der Hadoop-Umgebung und nicht für die Verwaltung der gesamten in einer Organisation verwendeten Software eingesetzt werden.

Control-M bietet eine Möglichkeit, Anweisungen für diese bereitzustellen Hadoop-Komponenten über eine zentrale Konsole. "Sie müssen keine Shell-Skripte schreiben", sagte Murtza.

Ein früher Nutzer von Control-M für Hadoop war die MetaScale-Geschäftseinheit von Sears, die Daten im Auftrag von Sears sowie anderer Einzelhändler analysiert B. für Finanz- und Gesundheitsunternehmen.

Mit Control-M konnte MetaScale seinen gesamten ETL-Prozess durch einen mit Hadoop ersetzen, der Daten über längere Zeiträume analysieren kann, als sie von herkömmlichen Data Warehouses erfasst werden können. Es wurde auch eine Schnittstelle zur Verfügung gestellt, mit der sich auch die Administratoren und Programmierer von MetaScale leichter verständigen konnten.

Control-M verfügt außerdem über eine vorausschauende Analyse, die basierend auf anderen ausgeführten Jobs schätzt, wie lange ein bestimmter Job dauert und die Länge der Zeit, die es dauerte, um den Job in der Vergangenheit zu führen.

Das Beratungsunternehmen Wikibon schätzt, dass Big-Data-Analyse mehr als 11 Milliarden US-Dollar pro Jahr für Softwareverkäufer, Berater, Systemintegratoren und andere Support-Provider generiert.