;
chevron-bottomchevron-leftchevron-rightdownloadfacebookinstagramlink-outlinkedinminusplus
Accessibilité Tous les articles

Les défis du Big Data

Catégorie

Big Data

Publication

Février 2012

Publié par

Alexandre Langlois

Nous entendons parler de Big Data depuis déjà plusieurs mois avec des définitions qui varient selon le contexte. En fait, selon mon analyse du sujet et en synthétisant le tout, les problématiques du Big Data sont les défis que représente la masse d’information générée par l’écosystème informationnel impactant la performance analytique requise par l’entreprise.

Les limitations possibles se trouvent à être au niveau de l’extraction des sources, de la transformation des données, de l’intégration à la couche MDM, du temps réponse de la couche analytique, les limitations physiques du réseau et autres.

Que l’on parle d’appliances (Netezza, SAP HANA, Teradata) ou de couches analytiques (Tableau, Actian) favorisant le traitement des masses de données, ces composantes ne règlent pas la problématique principale. Le Big Data n’est pas un gros entrepôt de données ni un outil analytique sur les stéroïdes, c’est plus que cela. Le Big Data n’est pas une composante d’une architecture, mais une problématique adressée par une architecture de solution propre aux défis rencontrés par la problématique. Différence subtile et importante.

Surtout, attention ici à ne pas confondre les problèmes de performance reliés à des architectures de solution déficientes qui peuvent être résolus avec la technologie existante avec les défis du Big Data.


Pourquoi maintenant?

Vous savez déjà sûrement que le volume d’information est en croissance exponentielle depuis plusieurs années. Tel que stipulé par IBM dans un papier sur le Big Data, “Everyday, we create 2.5 quintillion bytes of data–so much that 90% of the data in the world today has been created in the last two years alone”. Cette réalité se concrétise davantage avec l’utilisation de plus en plus grande des données récoltées par les médias sociaux, les jeux en ligne, la consommation de WebTv, les terminaux mobiles, bref, toutes données susceptibles de permettre la création d’un profil de consommation de notre identité virtuelle. Je n’exclus pas ici les autres cas pouvant mener à du Big Data tels que les environnements informationnels de grandes firmes financières ou de grandes chaînes de commerces de détail, mais les situations menant à des problématiques en lien avec le Big Data dans ces contextes, sont plutôt rares.

Tel qu’énoncé par Duncan Steward dans le “Deloitte’s TMT 2012 prediction”, le Big Data prendra de l’ampleur en 2012 principalement pour les entreprises internet, du secteur public, finances, retail et médias/divertissements. Donc il y aura effectivement un marché pour le Big Data, mais il sera très ciblé.


Un exemple bien concret

En fin juillet 2010, Amazon crée un lien informationnel entre les recommandations de son site et les données disponibles sur Facebook par rapport à votre profil, vos amis, vos intérêts, votre pays de résidence afin de générer du contenu adapté à votre existence virtuelle. C’est la fête d’un copain, vous l’avez peut-être oublié, mais pas Amazon. Il vous suggérera un cadeau pour cet ami en fonction de ses intérêts. Imaginez le volume d’information qui doit être amassé afin de pouvoir créer un environnement analytique permettant une analyse sur chacun des clients Amazon et leurs liens Facebook. Chaque publication de commentaires, “like or dislike”, événements et autres informations doivent indexées et rendues disponibles pour analyses. Nous parlons ici de vrai Big Data.

Il y a beaucoup d’autres exemples dont celui de CastleVille, un jeu gratuit Facebook du producteur Zynga ayant déjà accroché 12.5 millions de joueurs... attention, 12.5 MILLIONS! Tout le modèle d’affaires derrière ce jeu réside dans l’utilisation de l’information disponible sur les joueurs afin de les mener à acheter des items virtuels améliorant leur expérience de jeu. Le producteur a donc tout avantage à analyser en temps réel l’information disponible sur les joueurs afin d’assurer un maximum de consommation (lire achat et dépenses) et une expérience de jeu des plus agréable conservant ainsi sa clientèle et générant du revenu. Nous parlons ici de “just in time” BI mais étant supporté par une architecture permettant le traitement du Big Data. L’un ne va pas nécessairement sans l’autre.


Le Big Data, ce n’est pas pour tout le monde

Je vous ai donné quelques exemples concrets et réels de Big Data afin de démontrer une chose, la tendance est bien réelle, mais ne s’applique pas nécessairement à tout un chacun. Il est important de faire la différence entre un enjeu de Big Data et un enjeu d’architecture de solution. Les remèdes requis dans les deux cas sont bien différents. Certes, il y aura de plus en plus de joueurs dans le monde du Big Data qui chercheront des solutions à leurs problèmes, mais n’oubliez pas que la base d’un investissement de la sorte demeure son retour sur investissement (tangible ou non). Je crois qu’il est pertinent de faire un rappel des échecs retentissants des grands projets d'entrepôt de données lorsque la tendance était à ceux-ci. La maturité organisationnelle (voire analytique), la valeur ajoutée et l’expertise disponible sont toutes des considérations préalables à l’implantation d’architecture permettant le traitement du Big Data, et ce, pour ne pas se retrouver avec une.... Big Bertha.

Restez à l’affût des dernières tendances analytiques