Sélectionner une page

Big Data : un autre professionnel de l’informatique qui « change la donne » doit s’attaquer à ce problème de nos jours. Mais pas de la façon habituelle.
Des entreprises comme Google et Facebook démontrent qu’une solide stratégie de gestion des données peut faire une énorme différence dans les résultats financiers d’une entreprise. Partout dans le monde, les entreprises sont à l’écoute ; les dirigeants de niveau C utilisent de plus en plus les connaissances acquises grâce à l’analyse de Big Data pour prendre des décisions d’affaires. En conséquence, les entreprises font la promotion de l’informatique du centre de coûts au partenaire dans la gestion stratégique des données.
Le terme  » Big Data  » fait référence aux grandes quantités de données non structurées qui résultent des interactions des gens avec l’Internet, les médias sociaux et les applications mobiles. C’est le genre de données qui ne s’insère pas parfaitement dans les lignes et les colonnes avec des relations claires sur lesquelles des requêtes et des rapports simples peuvent être basés.
De plus en plus, les responsables informatiques de première ligne participent activement aux efforts visant à extraire du sens de la collecte et du stockage des données des grandes entreprises. Par conséquent, les responsables informatiques feraient bien d’apprendre tout ce qu’ils peuvent sur Big Data et ce qui peut être fait pour aider leur entreprise à élaborer une stratégie de gestion des données solide.
Donner un sens à Big DataExemples de Big Data : vidéos, images, transactions, pages Web, courriels, contenu de médias sociaux, données de parcours, index de recherche, données de capteurs, etc. – une grande variété de données brutes, semi-structurées et non structurées qui ne peuvent être traitées et analysées à l’aide de processus et d’outils traditionnels, comme les bases de données relationnelles.
Mais le terme  » Big Data  » fait également référence au volume et à la vitesse des données générées aujourd’hui. IBM, dans son e-book, Understanding Big Data : Analytics for Enterprise Class Hadoop et Streaming Data, l’explique ainsi : l’interconnectivité des personnes et des objets via la technologie génère des données en continu ; la technologie permet de collecter une quantité massive de données ; mais, la plupart de ces données ne sont pas relationnelles et ne peuvent être traitées par des systèmes de base de données traditionnels. De plus, une grande partie de cette information doit être analysée en temps réel. Selon cette définition, Big Data englobe les données au repos et les données en mouvement.
Il n’est donc pas étonnant que Big Data soit si lourd à manier. Le défi consiste à formuler les bonnes questions pour extraire le sens des téraoctets, voire des pétaoctets (et un jour des zettaoctets !) de données – les organisations de données se sentent obligées de collecter et stocker des données même si leur valeur n’est pas toujours immédiatement connue. Pour certaines entreprises, le fait de mettre deux et deux ensemble peut être la seule chose qui se dresse sur le chemin de la grandeur.
Sauf que faire cette connexion est vraiment difficile. Il est coûteux et long d’utiliser les outils de base de données traditionnels pour analyser les grandes données, et ce n’est pas toujours possible – il peut y avoir trop de données dans trop de formats différents. De plus, la courbe d’apprentissage est abrupte lorsqu’il s’agit de grandes données – les nouveaux outils exigent un nouvel ensemble d’expertise.
Pour ces raisons, Big Data a un impact direct sur les responsables informatiques des quatre manières suivantes :

* Les bases de données relationnelles traditionnelles ne peuvent pas traiter efficacement les grandes données, ce qui rend nécessaire la recherche d’alternatives. De nouveaux processus et outils peuvent s’avérer nécessaires pour gérer les grandes données qui circulent à l’échelle de l’entreprise, les traiter et les analyser.
* De nouveaux systèmes de stockage peuvent également être nécessaires. Les données doivent être collectées et stockées, que leur valeur soit immédiatement connue ou non.
* Un homme d’affaires qui soumet une demande écrite à l’informatique n’a plus de sens lorsque la nécessité d’une analyse en temps réel des données en mouvement est prise en compte. De nouveaux outils doivent donc être acquis ou développés à l’interne pour que les utilisateurs finaux puissent obtenir l’information dont ils ont besoin par eux-mêmes.
* Les gestionnaires peuvent avoir besoin d’ajouter du personnel ou de former le personnel actuel pour mettre à jour le département sur le matériel et les logiciels nécessaires pour traiter les grandes données. transformer les grandes données en quelque chose d’utile pour les entreprises à obtenir une poignée sur les grandes données et l’utiliser pour stimuler leur productivité, les TI doivent collaborer avec le côté commercial de l’organisation pour développer une stratégie de gestion des données qui donnera des résultats quantifiables.
Les composantes d’une stratégie efficace de gestion des données sont : 1) le stockage, 2) la sécurité, 3) le rapprochement des données, 4) l’extraction de l’information et 5) la diffusion de l’information dans toute l’organisation.
Stockage Bien qu’il puisse sembler inutile de collecter et de stocker toutes les informations jamais générées, l’Economist Intelligence Unit a récemment rapporté que  » de nombreux experts de l’industrie estiment que des ensembles de données plus importants sont bénéfiques pour une analyse complète et que les nouvelles technologies accélèrent plus efficacement les résultats « .
Étant donné que de grandes quantités de données fournissent des informations plus fiables, le stockage fait partie intégrante d’une solution de gestion de données robuste. Le stockage de grandes données se réfère aux types de stockage qui peuvent traiter d’énormes volumes de données non structurées. Le stockage sur disque n’est pas bien adapté à Big Data en raison de son coût, de son manque d’évolutivité et des problèmes de latence. Par conséquent, le stockage partagé dans un environnement basé sur le cloud est une meilleure option.
Les plates-formes de stockage conçues spécialement pour organiser les très, très nombreux racks de serveurs nécessaires au stockage de grosses données sont nécessaires. Les principales plates-formes sont les suivantes :

* Hadoop
* MongoDB
* Cassandre
* Redis
* Riak
* CouchDB
* Les bases de données Neo4jNoSQL, aussi appelées bases de données non relationnelles ou cloud, remplacent les bases de données relationnelles traditionnelles comme outil de choix pour la gestion des données. Amazon DynamoDB est un exemple de solution de gestion de base de données hébergée en nuage.
SécuritéL’architecture de sécurité nécessaire pour sécuriser les grandes données d’une entreprise doit être prise en compte dès le début, avec contrôle d’accès et cryptage intégrés. Selon l’information recueillie, les personnes et l’entreprise pourraient être à risque si elle devait fuir à l’extérieur de l’organisation. Chaque information recueillie devrait être chiffrée au fur et à mesure qu’elle est saisie et stockée avec les justificatifs d’identité nécessaires pour accéder à ces données, pour protéger la confidentialité et l’intégrité des données et pour satisfaire aux exigences réglementaires.
Réconciliation des donnéesUne fois les architectures de stockage et de sécurité planifiées, l’étape suivante consiste à introduire des normes, valider et vérifier les données, et trouver des moyens de réduire les redondances. Les données des différents systèmes de l’entreprise hébergés dans des « silos » d’information doivent également être intégrées. Comme le souligne le rapport de l’Economist Intelligence Unit,  » il y a autant d’utilisations des données qu’il y a de types de données. Ils peuvent éclairer la stratégie, accroître l’efficacité, identifier les marchés et améliorer l’expérience client. Cependant, aucun de ces objectifs ne peut être atteint si les données ne sont pas propres, précises et fiables. »
Extraction d’informationComme nous l’avons mentionné précédemment, le véritable défi de Big Data est d’extraire du sens des volumes massifs de données collectées. Des logiciels sophistiqués d’intelligence d’affaires sont nécessaires pour accomplir cette tâche. Quelques outils Big Data qui analysent les données au repos récemment examinées par CIO.com incluent :

* Jaspersoft BI Suite
* Pentaho Business Analytics
* Karmasphere Studio et Analyste
* Talend Open Studio
* Skytree Server
* Tableau Desktop et Serveur
* SplunkAnalysis of Big Data in motion peut être réalisée avec la bonne technologie. Des systèmes spéciaux sont nécessaires pour gérer un flux constant de données comme celles générées par les sites Web de réseaux sociaux et les données des capteurs. Le  » Stream Computing  » désigne un système à haute performance qui peut prendre plusieurs flux de données provenant de diverses sources, les traiter, puis les recracher en un seul flux de données. IBM est un chef de file dans ce domaine.
Distribution de l’information sur la distribution de l’information sur la distribution de l’information sur la distribution de l’information sur la distribution de l’information sur la distribution de l’information sur le besoin de processus et d’outils pour diffuser l’information glanée dans l’ensemble de l’organisation. Les dirigeants ont besoin de l’information dont ils disposent pour prendre de meilleures décisions d’affaires. C’est là que de nouveaux outils permettant aux utilisateurs finaux d’obtenir une analyse à la demande et en temps réel deviennent importants.
Naviguer avec succès dans Big DataAlors que l’analyse de Big Data a le potentiel de fournir des informations exploitables qui peuvent générer des avantages financiers exceptionnels pour les entreprises, si une analyse de rentabilisation convaincante ne peut être faite pour justifier le projet, il peut être condamné dès le départ, dit Jill Dyche, vice-présidente du Thought Leadership chez DataFlux Corporation, dans un récent billet de blog. Dyche conseille aux entreprises de réfléchir sérieusement aux réponses à ces cinq questions lorsqu’elles envisagent d’investir dans Big Data :

* Quels sont les objectifs du projet et qu’est-ce que l’entreprise veut que Big Data l’aide à accomplir ?
* Sur quelles ressources actuelles l’entreprise peut-elle s’appuyer pour élaborer une stratégie globale de gestion des données ?
* Comment l’entreprise va-t-elle éviter de s’écarter du champ d’application ?
* Quels sont les critères de réussite et comment les progrès seront-ils mesurés en cours de route ?
* Si l’entreprise peut répondre à ces questions à sa satisfaction, il y a de fortes chances pour qu’elle développe une solide stratégie de gestion des données pour faire face à Big Data qui en vaille la peine.