fbpx

Le Big data : des métiers d’avenir pour une reconversion réussie ?

Big data, mégadonnées,… Tout le monde en parle, toutes les entreprises mais aussi les acteurs publics se jettent sur ce « pétrole du XXIème siècle » pour gagner en efficacité voire fondent leur modèle économique dessus.

Mais au final, savez-vous vraiment ce qui se cache derrière ce terme ? Comment profiter de la tendance pour réussir votre reconversion dans le numérique ?  Nos élèves vous en parlent plus concrètement à travers ce billet !

  • Qu’est ce que le Big Data?

Le Big Data (en français mégadonnées), désigne un gros volume de données numériques. Ce dernier ne peut être stocké, compris et utilisé ni humainement ni à l’aide d’outils et méthodes classiques de gestion de base de données.
D’après de nombreux vulgarisateurs, le terme de “Big Data”  revient à considérer les données sous le prisme des “3V” :

  • Le Volume tout d’abord, correspond à la masse d’informations numériques produite pour laquelle on s’efforce de tirer parti.
  • La Variété ensuite signifie que ces informations peuvent être très hétérogènes
    • structurées (telles que des bases de données SQL),
    • semi-structurées (au format tels que json ou xml),
    • non structurées (messages, images, localisation GPS, historique de navigation, …).
  • La Vitesse enfin indique la fréquence à laquelle les données sont à la fois collectées, partagées, exploitées et mises à jour.

On ajoute parfois deux autres V :

  • la Véracité, la fiabilité et la crédibilité des informations collectées,
  • la Valeur, soit le profit possible qu’on peut tirer de toutes les informations collectées. 
  • Pourquoi est-ce que ça attire autant ?

L’engouement des entreprises pour le big data est lié à la promesse de mieux comprendre leur environnement, voire de prédire des tendances de fond qu’elles n’auraient pu décrypter via l’informatique décisionnelle classique. Les applications du Big Data touchent presque tous les secteurs d’activités.

Par exemple, pour le secteur du e-commerce, il s’agit de permettre d’analyser les besoins clients afin de mieux les cibler via les publicités.

Amazon récolte les informations laissées par les clients lorsqu’ils visitent des sites web, via les “cookies” et l’historique des moteurs de recherche, pour les suggérer sous forme de publicités ciblées sur les réseaux sociaux : Facebook, Twitter ou par mails.

Pour le secteur de l’assurance, il s’agit d’anticiper les comportements des clients (analyse prédictive). Le but étant de calculer leurs probabilités d’avoir ou non un accident, ils peuvent ainsi leur soumettre des tarifications différentes selon qu’ils sont un client à risque ou prudent. Par exemple, selon votre âge, le type de voiture que vous conduisez, votre état de santé, votre sexe, votre situation géographique, vous ne payez pas votre assurance au même prix, et ce n’est pas dû au hasard.

  • Comment ça fonctionne ?

Tous les utilisateurs du big data passent plus ou moins par les mêmes phases.

  • Tout d’abord, on collecte les données. Cela nécessite la mise en place d’une infrastructure spécifique. On peut citer les systèmes de stockage distribué ou DFS, datalakes permettant de conserver les données à l’état brut. Il y a également les bases de données noSQL telles que MongoDB ou Cassandra, …
  • Puis on traite et on analyse ces données. Il s’agit de les « nettoyer » via des outils ETL (extract, transform and load) avant d’en dégager des tendances à travers des algorithmes de calcul parallèle tels que MapReduce ou Spark. Le Graal du big data étant de dégager un modèle, via l’apprentissage automatique, qui non seulement explique les données, mais qui permet également de prédire les futures tendances.
  • Enfin, on partage les enseignements tirés du big data avec le reste des collaborateurs. Pour cela, on a recours à des outils de visualisation plus conviviaux, ainsi qu’à des logiciels de plus en plus orientés métier voire spécifiques à un secteur (biotechnologie, cybersécurité, etc, …)

Aujourd’hui, il existe une multitude d’outils spécialisées sur une ou plusieurs de ces 3 étapes: l’infrastructure, l’analyse et les usages métiers.

  • Quels métiers pour le big data ?

Les métiers du big data tendent eux aussi à se structurer.

Celui de Data scientist, au croisement des statistiques, de la programmation et de l’expertise métier, a ainsi été décrété profession la plus sexy du 21° siècle par la Harvard Business Review. Mais il en existe une multitude d’autres, auxquels on peut même parfois prétendre au terme de cursus de formation tels que celui d’Isika.

Certaines spécialités demandent une bonne connaissance « business ». C’est le cas pour le Data analyst, qui aide à la prise de décision à partir de sources généralement plus homogènes que le data scientist. Le Data visualizer, quant à lui traduit les données sous une forme plus facilement accessible aux équipes « métier ».

Enfin, les défis de la sécurité des entreprises ou la protection des données privées des utilisateurs vont également donner naissance à de nouveaux métiers. C’est ainsi que l’on voit fleurir les offres d’emplois de « Data protection Officer« .

D’autres métiers font appel à plus de compétences techniques, à l’image notamment du Data engineer ou Data architect. Ce dernier est garant de l’accès aux différentes sources de données, et de leur qualité. Pour jouer ce rôle, il doit donc disposer de connaissances approfondies de bases de données SQL et noSQL, de l’écosystème Hadoop (Hbase pour le stockage distribuée, Hive pour les requêtes, …), des systèmes Unix, et de langages tels que Java et Python. Une familiarité avec les concepts de statistiques et de modélisation via le deep learning lui permet de travailler en bonne intelligence avec les data scientists.


Cet aperçu vous a-t-il donné envie d’en savoir plus ? Vous pouvez en discuter avec la communauté des enseignants et élèves d’Isika qui vous répondront dans les commentaires ! 

En savoir plus sur le référentiel des métiers autour du Big data : cliquer ici

D’autres articles qui pourraient vous intéresser