Ensembles de données tellement volumineux qu’ils en deviennent difficiles à traiter avec des outils classiques de gestion de base de données ou de gestion de l’information.
On parle parfois de mégadonnées ou de données massives. Le big data s’accompagne du développement d’applications analytiques (on parle de Big Analytics ou “Broyage de données”) qui traitent les données pour en tirer du sens. En 2001, un rapport de recherche du META Group (devenu Gartner) définit les enjeux inhérents à la croissance des données comme étant tridimensionnels. Les analyses complexes répondent en effet à la règle dite des «3V» :
– volume : données scientifiques mais aussi celles de notre vie de tous les jours comme les données de géolocalisation, issues des réseaux sociaux, les cookies, cartes de fidélité, etc. ;
– vélocité : mises à jour fréquentes, données arrivant en flux, obsolescence rapide de certaines données, nécessité d’analyses en quasi temps réel ;
– variété : sources, formes et formats très différents, données structurées ou non, complexes (texte en provenance du web, images, liste d’achats, données de géolocalisation, etc.).
+ Retour à l'index