Language

[Replay] Data Product Marketplace : Build ou Buy ?

Visionner le replay
Glossaire

Big data

Le Big data, ou “données massives”, désigne le processus (les technologies, les méthodes et les pratiques) de collecte ou d’analyse de grandes quantités de données produites par les organisations.

L’explosion du nombre de données disponibles au début du 21è siècle a contraint les entreprises comme les acteurs publics à prendre des décisions pour encadrer et gérer ces données. Cela a accéléré le développement de nouvelles technologies de stockage ou d’analyse. On parle alors de l’ère “Big data”. Apprenez-en plus dans cet article.

Qu’est-ce que le Big data ?

Le Big data, ou “données massives”, désigne le processus de collecte ou d’analyse de grandes quantités de données produites par les organisations. Le terme englobe à la fois les technologies, les méthodes et les pratiques qui permettent de stocker et analyser facilement de très nombreuses données pour prendre de meilleures décisions.

Pour mieux comprendre ce terme, on peut se référer aux “3 V” énoncés par Gartner :

  • Volume : par définition, le Big data fait référence à d’énormes volumes de données non structurées. Pour certaines organisations, les niveaux de mesure utilisés sont désormais les pétaoctets (pour rappel : 1 po = 1048576 go).
  • Vélocité : ces grands volumes de données sont transmis avec une grande rapidité.. De ce fait, les organisations ont accès aux données en temps réel ou quasi réel. Mais ici, la difficulté est de pouvoir les traiter aussi rapidement.
  • Variété : le Big data est composé de données structurées, non structurées ou semi-structurées. Il convient donc de réaliser un traitement en amont pour uniformiser ces jeux de données.

Deux autres « V » ont vu le jour ces dernières années :

  • Valeur : les données ont une valeur ajoutée et permettent de générer du profit.
  • Véracité : les données doivent être fiables et de qualité.

Grâce à ces caractéristiques, il permet de résoudre de nouvelles problématiques.

Quelles solutions technologiques adopter pour faire face au Big data ?

Il permet aux organisations de stocker une grande quantité de données provenant de différents canaux, par exemple : des données d’entreprise, des données issues de capteurs IoT, des données géolocalisées, des données issues de sources open data, etc.

Pour que les données soient facilement accessibles pour tous les collaborateurs et puissent être récupérées très rapidement dans des applications métiers pour créer de nouveaux usages, les organisations doivent s’équiper de solutions adaptées :

  • pour stocker les données (Data Lakehouse & Cloud storage)
  • pour les analyser (Business Intelligence & Data Science)
  • pour partager les données, en interne ou vers l’externe (Data visualisation & data experience platform)

Quelles sont les opportunités offertes par le Big data ?

La collecte et l’analyse de gros volumes de données permettent aux entreprises et aux administrations publiques de générer de nouvelles opportunités. Voici quelques exemples :

  • La création de nouveaux services : la data permet de créer de nouveaux services, à la fois pour les entreprises, mais aussi pour les administrations publiques. Par exemple, l’assurance maladie a créé son site Data Pathologies pour répertorier l’ensemble des maladies, traitements et dépenses associées en France.
  • L’amélioration de la productivité : pour tous les secteurs d’activité, les entreprises peuvent utiliser le Big data pour améliorer les méthodes de travail. Par exemple, dans le domaine maritime, de grandes entreprises équipent leur conteneur de capteurs intelligents pour simplifier leur arrivée grâce aux informations transmises (notamment en termes de positionnement ou de contenu des conteneurs)
  • L’amélioration de l’expérience client : grâce au Big data, les entreprises peuvent récolter des informations précieuses sur leur cible, et ainsi mieux comprendre leurs besoins. Ce faisant, elles sont en mesure de fournir une expérience client personnalisée.

Quels sont les défis du Big data ?

Si le Big data offre aux organisations de nouvelles opportunités, il représente aussi une multitude de défis pour que les données soient réellement valorisées. Avec le manque de compétences en interne, d’outils adaptés et de fiabilité des données, valoriser les données peut s’avérer délicat. Les organisations doivent donc tout mettre en œuvre pour améliorer la gestion des données, et ainsi pouvoir profiter des différentes opportunités qui leur sont offertes.

  • La protection des données : si le Big data est composé de données variées, il permet aussi aux organisations d’accéder à des informations confidentielles (situation personnelle des clients, données financières, informations médicales, …). Les entreprises ont donc l’obligation de protéger les données dont elles disposent. D’autant plus avec l’entrée en vigueur de la loi RGPD.
  • La qualité et l’interopérabilité des données : étant très nombreuses, il est impératif de définir des règles pour assurer la qualité des données et leur interopérabilité. Sans la garantie que les données sont fiables, il n’est pas possible de bénéficier de tous les avantages du Big data.
  • La réutilisation des données : la tendance du Big data à encourager les organisations à s’équiper de solutions onéreuses pour stocker et analyser les données. Toutefois, elles n’ont pas investi dans des outils pour mettre cette donnée à disposition de ceux qui en ont besoin et pour la partager vers l’externe en toute sécurité.

Ebook : Démocratiser l'accès et les usages de la donnée

En savoir plus
Qu’est-ce qu’un output port ?
Blog
Qu’est-ce qu’un output port ?

Dans un monde de plus en plus décentralisé et orienté vers l’architecture modulaire des données, les concepts de data mesh et de data products transforment en profondeur notre manière de produire, gouverner et consommer la donnée. Au cœur de cette transformation, un terme technique émerge discrètement mais joue un rôle structurant : l’outport.

Opendatasoft booste l’enrichissement de données, même avec les référentiels les plus volumineux
Blog
Opendatasoft booste l’enrichissement de données, même avec les référentiels les plus volumineux

Enrichir ses données est une étape clé pour produire des analyses pertinentes et génératrices de valeur. Mais dès qu’il s’agit de manipuler des référentiels massifs comme la base de données SIRENE des entreprises françaises ou la BAN, les limites techniques deviennent souvent un obstacle.

Démocratiser la donnée : les fondamentaux pour booster l’adoption
Blog
Démocratiser la donnée : les fondamentaux pour booster l’adoption

C’est autour d’un paradoxe que Datalogy, Coface et Opendatasoft se sont réunis : plus les entreprises investissent dans la donnée, plus cette donnée semble leur échapper. Multiplication des outils, complexité technique, silos persistants… L’obsession du contrôle a produit l’effet inverse : elle freine l’usage.

Commencez à créer vos expériences data