Logiciel

Pour la meilleure valeur de données volumineuses, améliorer les modèles et algorithmes

Avec tout le battage médiatique dans les analyses de données volumineuses, une attention insuffisante est accordée à la qualité des données ou la validation des modèles construits sur les données.

Les coefficients de détermination peuvent facilement être manipulés pour s'adapter à l'hypothèse derrière le modèle. Par conséquent, ne ce aussi fausser l'analyse des résidus ? Modèles pour les données spatiales et temporelles semble seulement compliquer la validation encore plus loin. Outils de gestion de données sont améliorées pour augmenter considérablement la fiabilité des entrées données. Jusqu'à ce que les machines à concevoir les modèles, mettant l'accent sur la validité des données pourrait améliorer la validation des modèles et de réduire, pas éliminer les biais inhérents.

Les algorithmes sont le carburant pour un moteur de corrélation découvrir des relations plus récentes et la plus significatives de données volumineuses. Le succès de Google analytics anticipée s'appuie sur la sélection de l'ensemble de données, la qualité des données étant introduites dans le modèle et les modèles statistiques utilisés pour analyser les données. Avancée statistique, data mining et apprentissage des algorithmes automatique peuvent creuser pour trouver ces patrons plus rapidement et de manière plus rentable que beaucoup traditionnels outils de BI. La formule gagnante se trouve dans le développement de nouveaux algorithmes de puissants que conduisant l'utilisation de sociétés pour renforcer la compétitivité et la perception de la marque, conduire des efficiences de coûts dans toutes les facettes de l'entreprise et gérer les risques plus pro-activement tout en adhérant aux mandats de gouvernance et de sécurité de données.

L'an prochain, s'attendre à accélérer l'adoption de l'analyse prédictive au sein et entre les fonctions d'entreprise organisations cherchent à trouver une plus grande valeur parmi leurs données. Analyse prédictive aidera les organisations découvrir motifs précédemment masqués, identifier les classifications, les associations et segmentations et faire des prévisions beaucoup plus précises des informations structurées et non structurées. Cela aura un impact considérablement la stratégie d'entreprise et les processus de planification, comme les entreprises et le fournisseur de service s'appuient sur l'analyse en temps réel de l'activité en cours et anticipent ce qui va se passer. En identifiant les principaux moteurs des différents résultats de l'entreprise, organisations seront encore activées pour offrir une expérience client plus personnalisé et contextuelle.

Cependant, il y a un malentendu commun - provoqué en partie par les sociétés ayant des racines dans le traitement des événements complexes - que l'analyse prédictive peut prédire l'avenir. « Anticipation Google analytics » est peut-être une meilleure, quoique moins nom commercialisable. Le professeur de statistiques dans mon programme MBA il y a de nombreuses années s'est présenté à la classe en disant que les statistiques peuvent être utilisés pour prouver à tout point de vue. Il a toujours raison. Toutefois, des algorithmes et des modèles mieux sont le chemin vers la réalisation de la promesse de gros analytics.

3 Avril 2013