Théorisé en 1990, big data a été vulgarisé vers les 2000. Le terme big data est plutôt une prise de conscience des entreprises à se rendre compte que les données générées est un capital très important.

La donnée peut devenir un outils pour un nouveau service ou produit mais aussi générer de la nouvelle valeur qui peut être complémentaire pour ces produits ou services. Le plus important dans le Big data c’est les cas d’usage de ces données, c’est à dire définir en quoi la donnée peut être utilisée afin d’enrichir mon business de tout les jours.

Y’en a qui le définissent comme ce volume important de données à traiter (un tweet, un commentaire, une image, une vidéo, ou une action quelconque qui à un lien directe ou indirecte avec le public ou la clientèle).

Mais d’autres le définissent juste par les moyens de stockage et de traitement disponibles depuis un certain moment afin d’arriver à travailler le plus efficacement possible avec ce lac de données. Les données ont toujours existé, mais depuis l’avènement des réseaux sociaux, de l’internet des objets et du volume de données s’est multiplié de manière exponentielle, nous amenant ainsi à l’ère du big data.

En effet, on estime qu’il y’a autant  de données, voir plus, qu’il y’a d’étoiles dans l’univers. En 2012, les données ont été multipliées par 400. Dans le post sur l’utilisation des données dans le monde, on avait dit que 2,5 trillions d’octets de données sont générées dans le monde aujourd’hui.

On exprime le big data à l’image de ces 5V:

  • le volume: la quantité énorme de données générée alors qu’un analyste dit que seul 18% des données sont traité dans les grandes entreprises. Le big data offre les outils pour stocker et analyser ces données accessibles.  
  • la vélocité: la rapidité de création et de traitement des données est un phénomène propre au big data car les données augmentent de manière exponentielle et les technologies devront se préparer à cette évolution rapide. Juste à titre d’exemple, si un jour une personne décide de regarder toutes les vidéos qui ont été enregistré sur youtube un jour donné, elle passera 8 années devant son ordinateur pour atteindre son but car 48H de vidéos sont postées sur youtube par minute.
  • la variété: les formats de données qui doivent être pris en compte. Avant on avait le format classique des données stockées dans des bases de données relationnelle qui obligeaient les données à suivre le même schéma. Ce qui n’est pas le cas du big data car il traite à la fois des données structurées et non à la fois et on note même 80 à 90% de données non structurée. Impossible de connaître le format des données(image, son, vidéo test…) avant la collecte.
  • La véracité: Collecter ces données et en extraire l’information fiable reste à méditer dûe au fait que les données sont désordonnées, manque de qualité et de précision. Le big data va apporter de l’ordre en ordonnançant l’accès aux données et permettre par la même occasion de faire les analyses nécessaires.
  • la valeur: Toute cette quantité de données n’a de sens pour l’entreprise que si elle apporte de la valeur. Il faut trouver les statisticiens IT qualifiés (data scientist) pour apporter des solutions aux problématiques des métiers de l’entreprise.

La partie Business intelligence du big data c’est le côté traitement des données jusqu’à leur restitution. Car la BI traite déjà des données mais pas ce volume important parce qu’on peut faire de l’intelligence d’affaire sans faire du big data. La BI traite des données numériques, données de production etc mais le Big data s’intéresse aux données plus liées au comportement de l’humain, données générées sur les réseaux sociaux.

Comments

comments

Leave a comment

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *