Software

Gemeinsame Mythen und Missverständnisse, die großen Daten zugeordnet

Es ist etwas Neues:

Es kann nicht geleugnet werden, dass große Datenmengen ein heißes Thema in der heutigen Zeit ist. Aber gibt es Unternehmen, die noch kämpfen, um von der Idee zur Ausführung zu verlagern. Sagen wir es so, dass als Unternehmer Ihre Probleme immer noch die gleichen. Was sich geändert hat ist die Lösung für Ihr Problem nur, weil diese Art von Daten in einen besseren und schnelleren Weg mit dem Potenzial, wertvolle Einsichten vermitteln Antworten auf Ihre Fragen gibt. Die Tatsache der Angelegenheit ist, dass es keine neue Entdeckung. Auch Unternehmen haben mit der riesigen Menge an Informationen über Jahrzehnte gearbeitet. Die einzige neue Sache, die ermöglicht uns es, diese Informationen sinnvoll ist Analytics. Das primäre Ziel der Analyse ist die Exploration oder Anwendung der analytischen Techniken auf große Mengen von Informationen in unterschiedlichsten Typen einschließlich unstrukturierte Daten von Textzeichenfolgen, Ton und Film-Dateien, Dokumente, Bilder, Geo-Positionsdaten und Dokumente umfasst.

Es geht nur um massive Informationen:

Quantitative Analyse spielt eine wichtige Rolle für jede Organisation wo Terabytes an Informationen stammt aus Kundentransaktionen, social Media, Unternehmensstatistik, und Foto-uploads. Allerdings erstreckt sich die Definition dieser Art von großen Datenmengen über Petabyte an Volumen. Band wird das erste Element der anderen beiden Vitalstoffe kann Vielfalt und Geschwindigkeit der Informationen. Vielzahl von Daten bezieht sich auf die Anzahl der Arten von Informationen und Dateitypen, die gründlicher verwaltet oder analysiert werden können, und Geschwindigkeit bedeutet, wie schnell die Daten in Echtzeit abgerufen werden können. Traditionelle Technologien und relationalen Datenbanken sind nicht gut geeignet für diese Art von Informationen, und das ist die große Daten wie im Bild kommt.

Es bedeutet nur Hadoop:

Hadoop ist Big Data synonym geworden. Hadoop ist ein Apache-Open-Source-Software-Framework, geschrieben in Java Programmiersprache, das Arbeiten mit Unmengen von Datensätzen ermöglicht. Es soll von einem einzelnen Server zu Tausenden von Maschinen zu skalieren. Große Datenmengen nicht gleich Hadoop in gewisser Weise, dass die meisten der Informationen für diese Art von Daten aus Quellen wie Veranstaltungen, kommt-feeds, social Media etc. in Form von Herausforderungen, die durch eine Technologie oder ein Produkt wie Hadoop erfüllt sind.

Es bedeutet nur unstrukturierte Daten:

Unstrukturierte Daten hat keine eigene Form. Es ist nicht unstrukturiert, weil wir nicht die Daten in einem Modell eingepasst werden kann sondern auch nach Einbau in das Modell nicht helfen. Unstrukturierte Daten ist eine generische Bezeichnung, alle Informationen zu beschreiben, die nicht in der Datenbank ist. Es kann Text- oder un-textual einschließlich Audio- und video-Dateien, Bilddateien, e-Mail-Nachrichten, Formulardaten, Textzeichenfolgen, social-Media-feed und usw. sein.