E-ENCYCLOPEDIE-  -ETRAVE- 
 


                        Visiteurs depuis fin 2012
 


 
 -
    
 Copyright  W4N1B4                                        
                                                                                                                                                            1962 arrivée inaugurale du France à New-York  peint par Marie-Marin     
 

Les projets Big Data décollent aussi en France

15/2/14



http://www.lemondeinformatique.fr/

 

Les projets Big Data décollent aussi en France

56% des répondants de l'étude pilotée par Jaspersoft sont à un stade ou un autre d'un projet Big Data

56% des répondants de l'étude pilotée par Jaspersoft sont à un stade ou un autre d'un projet Big Data

Selon une étude menée par l'éditeur de décisionnel Jaspersoft, les projets Big Data sont désormais mieux intégrés et plus concrets dans les entreprises.

Le concept de Big Data occupe le devant de la scène mais les entreprises peinaient jusqu'à présent à lancer des projets. Selon une récente étude de l'éditeur Jaspersoft, ce temps est désormais révolu. Les expérimentations sont plus nombreuses et les freins moins forts.

Ainsi, 36% des répondants ont déclaré bénéficier d'une initiative Big Data financée contre seulement 15% en août 2012. 42% sont en phase d'expérimentation. En tout, 56% des répondants sont à un stade ou un autre d'un projet Big Data. 32% seraient même en phase de développement ou de production, 23% dans les phases de préparation. Deux tiers des projets sont menés sur site et un tiers dans le cloud.

Entre 2012 et aujourd'hui, le Big Data est mieux compris. Les freins ont ainsi grandement diminué : 27% ne comprennent toujours pas le concept de Big Data (-47% par rapport à 2012), 20% ne voient aucune justification dans leur secteur (-56%), 33% jugent que leurs données sont pour l'essentiel structurées -19%)... Les sources de données proviennent essentiellement des systèmes commerciaux et connexes (40% pour la GRC, 38% pour la finance, 27% pour le e-commerce) pour analyser la clientèle (48%), ses expériences (45%) et les risques associés (27%).
 

Article de Bertrand Lemaire

Big data WIKIPEDIA

 
 
Une visualisation des données créée par IBM montre que les Big data que Wikipedia modifie à l'aide du bot Pearle ont plus de signification lorsqu'elles sont mises en valeur par des couleurs et des localisations1.

Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu'ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l'information. L'on parle aussi de datamasse5 en français par similitude avec la biomasse.

Dans ces nouveaux ordres de grandeur, la capture, le stockage, la recherche, le partage, l'analyse et la visualisation des données doivent être redéfinis. Les perspectives du traitement des big data sont énormes et pour partie encore insoupçonnées ; on évoque souvent de nouvelles possibilités en termes d'exploration de l'information diffusée par les médias6, de connaissance et d'évaluation, d'analyse tendancielle etprospective et de gestion des risques (commerciaux, assuranciels, industriels, naturels) et de phénomènes religieux, culturels, politiques7, mais aussi en termes de génomique ou métagénomique8, pour la médecine (compréhension du fonctionnement du cerveauépidémiologie,écoépidémiologie...), la météorologie et l'adaptation aux changements climatiques, la gestion de réseaux énergétiques complexes (via lessmartgrids ou un futur « internet de l'énergie »...) l'écologie (fonctionnement et dysfonctionnement des réseaux écologiques, des réseaux trophiques avec le GBIF par exemple), ou encore la sécurité et la lutte contre la criminalité9.

Certains supposent qu'il pourrait aider les entreprises à réduire les risques et faciliter la prise de décision, ou créer la différence grâce à l'analyse prédictive et une « expérience client » plus personnalisée et contextualisée.

Divers experts, grandes institutions (comme le MIT10 aux États-Unis), administrations11 et spécialistes sur le terrain des technologies ou des usages12 considèrent le phénomène big data comme l'un des grands défis informatiques de la décennie 2010-2020 et en ont fait une de leurs nouvelles priorités de recherche et développement.

 

 

Dimensions des big data[modifier | modifier le code]

Le Big Data s'accompagne du développement d'applications à visée analytique, qui traitent les données pour en tirer du sens. Ces analyses sont appelées Big Analytics 13 ou «broyage de données». Elles portent sur des données quantitatives complexes avec des méthodes de calcul distribué.

En 2001, un rapport de recherche du META Group (devenu Gartner)14 définit les enjeux inhérents à la croissance des données comme étant tri-dimensionnels : les analyses complexes répondent en effet à la règle dite «des 3V» (volume, vélocité et variété15). Ce modèle est encore largement utilisé aujourd'hui pour décrire ce phénomène16.

Le taux de croissance annuel moyen mondial du marché de la technologie et des services du Big Data sur la période 2011-2016 devrai être de 31.7%. Ce marché devrait ainsi atteindre 23,8 milliards de dollars en 2016 (d'après IDC mars 2013).

Le Big Data devrait également représenter 8% du PIB européen en 2020 (AFDEL février 2013).

Volume[modifier | modifier le code]

Le volume des données stockées aujourd’hui est en pleine expansion. Selon une étude IDC sponsorisée par EMC Gartner, les données numériques créées dans le monde seraient passées de 1,2 zettaoctets par an en 2010 à 1,8 zettaoctets en 2011, puis 2,8 zettaoctets en 2012 et s'élèveront à 40 zettaoctets en 202017. À titre d'exemple, Twitter génère à l’heure actuelle teraoctets de données chaque jour et Facebook 10 teraoctets18.

Ce sont pourtant les installations scientifiques qui produisent le plus de données. De nombreux projets, de dimension pharaonique, sont ainsi en cours. Le radiotelescope “Square Kilometre Array” par exemple, produira 50 teraoctets de données analysées par jour, à un rythme de 7 000 teraoctets de donnée brutes par seconde19!

Variété[modifier | modifier le code]

Le volume des Big Data met les data centers devant un réel défi : la variété des données. Il ne s'agit pas de données relationnelles traditionnelles, ces données sont brutes, semi-structurées voire non structurées (cependant, les données non-structurées devront, pour utilisation, être structurées20). Ce sont des données complexes provenant du web (Web Mining), au format texte (Text Mining) et images (Image Mining). Elles peuvent être publiques (Open Data, Web des données), géo-démographiques par îlot (adresses I.P), ou relever de la propriété des consommateurs (Profils 360°)[réf. nécessaire]. Ce qui les rend difficilement utilisables avec les outils traditionnels.

La démultiplication des outils de collecte sur les individus et sur les objets permettent d’amasser toujours plus de données 21. Et les analyses sont d’autant plus complexes qu’elles portent de plus en plus sur les liens entre des données de natures différentes.

Vélocité[modifier | modifier le code]

La vélocité représente à la fois la fréquence à laquelle les données sont générées, capturées et partagées.
Des flux croissants de données doivent être analysées en temps réel (Data Stream Mining) pour répondre aux besoins des processus chrono-sensibles22. Par exemple, les systèmes mis en place par la bourse et les entreprises doivent être capables de traiter ces données avant qu’un nouveau cycle de génération n’ait commencé, avec le risque, que l'Homme perde une grande partie de la maitrise du système quand les principaux opérateurs deviennent des "robots" capables de lancer des ordres d'achat ou de vente à l'échelle des nanosecondes (Trading Haute Fréquence), sans disposer de tous les critères pertinents d'analyse pour le moyen et long-termes.

Différence avec le Business Intelligence[modifier | modifier le code]

Si la définition du Gartner en 3V est encore largement reprise (voire augmentée de “V” supplémentaires selon l’inspiration des services marketing), la maturation du sujet fait apparaitre un autre critère plus fondamental de différence d’avec le Business Intelligence et concernant les données et leur utilisation :

  • Business Intelligence : utilisation de statistique descriptive, sur des données à forte densité en information afin de mesurer des phénomènes, détecter des tendances… ;
  • Big Data : utilisation de statistique inférentielle, sur des données à faible densité en information23 dont le grand volume permet d’inférer des lois (régressions….) donnant dès lors (avec les limites de l’inférence) au big data des capacités prédictives24.

Représentation[modifier | modifier le code]

Modèles[modifier | modifier le code]

Les bases de données relationnelles classiques ne permettent pas de gérer les volumes de données du Big Data. De nouveaux modèles de représentation permettent de garantir les performances sur les volumétries en jeu. Ces technologies, dites de Business Analytics & Optimization (BAO) permettent de gérer des bases massivement parallèles25. Des patrons d’architecture “Big Data Architecture framework (BDAF)”26 sont proposés par les acteurs de ce marché comme MapReduce développé par Google et utilisé dans le framework Hadoop. Avec ce système les requêtes sont séparées et distribuées à des nœuds parallélisés, puis exécutées en parallèles (map). Les résultats sont ensuite rassemblés et récuperés (reduce).TeradataOracle ou EMC (via le rachat de Greenplum) proposent également de telles structures, basées sur des serveurs standards dont les configurations sont optimisées. Ils sont concurrencés par des éditeurs comme SAP et plus récemment Microsoft27. Les acteurs du marché s’appuient sur des systèmes à forte scalabilité horizontale et sur des solutions basées sur du NoSQL (MongoDBCassandra) plutôt que sur des bases de données relationnelles classiques28.

Stockage[modifier | modifier le code]

Pour répondre aux problématiques Big Data l’architecture de stockage des systèmes doit être repensée et les modèles de stockage se multiplient en conséquence.

  • le cloud computing : l’accès se fait via le réseau, les services sont accessibles à la demande et en libre service sur des ressources informatiques partagées et configurables29. Les services les plus connus sont ceux de Google BigQuery, Big Data on Amazon Web Services, microsoft Windows Azure.

Applications des Big Data[modifier | modifier le code]

Les Big Data trouvent une application dans de nombreux domaines : De grands programmes scientifiques (CERN28 Mastodons), de grandes entreprises (IBM29,Amazon Web Services, BigQuery, SAP HANA) des entreprises spécialisées (Teradata, Jaspersoft30, Pentaho31...) de l'Open Source (Apache Hadoop, Infobright32, Talend33...) et des Start-up (aleph-networks31,Bionatics32, Hariba Médical33, SafetyLine34, KwypeSoft35, Vigicolis):

Recherche scientifique[modifier | modifier le code]

Les expériences du Large Hadron Collider représentent environ 150 millions de capteurs délivrant des données 40 millions de fois par seconde. Il y a autour de 600 millions de collisions par seconde, et après filtrage, il reste 100 collisions d’intérêt par seconde. En conséquence, il y a 25 Po de données à stocker chaque année, et 200 Po après réplication36,37,38.

Quand le Sloan Digital Sky Survey (SDSS) a commencé à collecter des données astronomiques en 2000, il a amassé plus de données en quelques semaines que toutes les données collectées dans l’histoire de l’astronomie. Il continue à un rythme de 200 Go par nuit, et a aujourd’hui stocké plus de 140 teraoctets d’information. Des prévisions annoncent que le Large Synoptic Survey Telescope, dont la mise en route est prévue en 2015, amassera ce même montant tous les cinq jours39.

Décoder le génome humain a originellement pris 10 ans, cela peut désormais être fait en moins d'une semaine : les séquenceurs d'ADN ont progressé d'un facteur 10 000 les dix dernières années, soit 100 fois la loi de Moore (100 environ sur 10 ans)40. En biologie, les approches massives basées sur une logique d’exploration des données et de recherche d’induction sont légitimes et complémentaires des approches classiques basées sur l'hypothèse initiale formulées 41.

Le NASA Center for Climate Simulation (NCCS) stocke 32 Po de données d’observations et de simulations climatiques42.

Politique[modifier | modifier le code]

L’analyse de Big Data a joué un rôle important dans la campagne de ré-élection de Barack Obama, notamment pour analyser les opinions politiques de la population43.

Depuis l'année 2012, le Département de la défense américain investit annuellement sur les projets de Big Data plus de 250 millions de dollars44.

Le gouvernement américain possède six des dix plus puissants supercalculateurs de la planète45.

La National Security Agency est actuellement en train de construire le Utah Data Center. Une fois terminé, ce data center pourra supporter des yottaoctets d’information collectés par la NSA sur internet.

En 2013, le Big Data faisait partie des 7 ambitions stratégiques de la France déterminées par la Commission innovation 203046

Secteur privé[modifier | modifier le code]

Walmart traite plus d’un million de transactions client par heure, celles-ci sont importées dans des bases de données dont on estime qu’elles contiennent plus de 2,5 Po d’information39.

Facebook traite 50 milliards de photos.

D’une manière générale le data mining de Big Data permet l’élaboration de profils clients dont on ne supposait pas l’existence47.

Perspectives et évolutions[modifier | modifier le code]

L'un des principaux enjeux de productivité du Big Data dans son évolution va porter sur la logistique de l'information, c'est à dire sur comment garantir que l'information pertinente arrive au bon endroit au bon moment. Il s'agit d'une approche micro-économique. Son efficacité dépendra ainsi de celle de la combinaison entre les approches micro- et macro-économique d'un problème.

Selon une étude IDC, les données numériques créées dans le monde atteindraient 40 zettaoctets d'ici 202048. A titre de comparaison, Facebook générait environ 10 teraoctets de données par jour au début 2013. Le développement de l'hébergement massif de données semble avoir été accéléré par plusieurs phénomènes simultanément: la pénuerie de disques durs due aux inondations en Thaïlande en 2011, l'explosion du marché des supports mobiles (smartphones et tablettes notamment), etc. Ajouté à cela, la démocratisation du cloud-computing de plus en plus proche, grâce à des outils comme Dropbox, amène le big data au centre de la logistique de l'information.

Afin de pouvoir exploiter au maximum le Big Data, de nombreuses avancées doivent être faites, et ce en suivant trois axes :

Modélisation de données[modifier | modifier le code]

Les méthodes actuelles de modélisation de données ainsi que les systèmes de gestion de base de données ont été conçus pour une utilisation à des fins commerciales de l’information. La fouille de données a des caractéristiques fondamentalement différentes et les technologies actuelles ne permettent pas de les exploiter. Dans le futur il faudra des modélisations de données et des langages de requêtes permettant :

  • une représentation des données en accord avec les besoins de plusieurs disciplines scientifiques ;
  • de décrire des aspects spécifiques à une discipline (modèles de métadonnées) ;
  • de représenter la provenance des données ;
  • de représenter des informations contextuelles sur la donnée ;
  • de représenter et supporter l’incertitude ;
  • de représenter la qualité de la donnée49.

Gestion de données[modifier | modifier le code]

Le besoin de gérer des données extrêmement volumineuses est flagrant et les technologies d’aujourd’hui ne permettent pas de le faire. Il faut repenser des concepts de base de la gestion de données qui ont été déterminés dans le passé. Pour la recherche scientifique, par exemple, il sera indispensable de reconsidérer le principe qui veut qu’une requête sur un SGBDfournisse une réponse complète et correcte sans tenir compte du temps ou des ressources nécessaires. En effet la dimension exploratoire de la fouille de données fait que les scientifiques ne savent pas nécessairement ce qu’ils cherchent. Il serait judicieux que le SGBD puisse donner des réponses rapides et peu coûteuses qui ne seraient qu’une approximation, mais qui permettraient de guider le scientifique dans sa recherche49.

Dans le domaine des données clients, il existe également de réels besoins d'exploitation de ces données, en raison notamment de la forte augmentation de leur volume des dernières années50. Le big data et les technologies associées permettent de répondre à différents enjeux tels que l'accélération des temps d’analyse des données clients , la capacité à analyser l’ensemble des données clients et non seulement un échantillon de celles-ci ou la récupération et la centralisation de nouvelles sources de données clients à analyser afin d’identifier des sources de valeur pour l’entreprise.

Outils de gestion des données[modifier | modifier le code]

Les outils utilisés à l’heure actuelle ne sont pas en adéquation avec les volumes de données engendrés dans l’exploration de Big Data. Il est nécessaire de concevoir des instruments permettant de mieux visualiser, analyser, et cataloguer les ensembles de données afin de permettre une optique de recherche guidée par la donnée49. La recherche en Big Data ne fait que commencer. La quantité de data évolue beaucoup plus rapidement que nos connaissances sur ce domaine. Le site the Gov Lab prévoit qu'il n y aura pas suffisamment de scientifiques du Data. En 2018, les États-Unis auraient besoin de 140 000 à 190 000 scientifiques spécialisés en Big Data44.

Voir aussi[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1.  Watters, Audrey. Visualize Big Data with Flowing Media. ReadWriteWeb. April 15, 2010.http://www.readwriteweb.com/start/2010/04/visualize-big-data-with-flowing-media.php [archive]
  2.  http://abiteboul.blogspot.ch/2012/06/big-data-ou-grosses-donnees.html [archive]
  3.  http://www-master.ufr-info-p6.jussieu.fr/2011/Etude-et-implementation-sur-la [archive]
  4.  http://www.telecom-paristech.fr/formation-continue/masteres-specialises/big-data.html [archive]
  5.  http://iucg.org/wiki/Dictionnary#Definitions [archive]
  6.  Les médias dans la moulinette du « big data » [archive], 06.01.2014, consulté 12.01.2014
  7.  Le rôle du Big Data dans la campagne présidentielle américaine en 2012 [archive]
  8.  Big Data : un ADN utilisateur séquençable pour moins de 1 000 $ [archive]
  9.  La sécurité se met résolument au «Big Data» [archive], LeMagIT mars 2012
  10.  CSAIL Researchers to Teach MIT's First Online Professional Course on Big Data [archive], Tackling the Challenges of Big Data, janv 2014, consulté 2014-01-12
  11.  Gouvernement français (2012) - Investissements d’avenir [archive] – Fonds national pour la société numérique, Appel à projets no 3 - Big Data
  12.  Big Data Paris, conférence-exposition, 20-21 mars 2012 [archive]
  13.  http://www.amazon.com/Big-Data-Analytics-Intelligence-Businesses/dp/111814760X [archive]
  14.  http://blogs.gartner.com/doug-laney/files/2012/01/ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf [archive]
  15.  http://www.journaldunet.com/solutions/expert/51696/les-3-v-du-big-data---volume--vitesse-et-variete.shtml [archive]
  16.  http://www-01.ibm.com/software/data/bigdata/ [archive]
  17.  Étude IDC-EMC « Extracting value from chaos » citée par Delphine Cuny sous le titre « "Big data" : la nouvelle révolution », Virginia Rometty, La tribune, nº 42, 29 mars au 4 avril 2013, p. 4
  18.  http://www.cnrs.fr/fr/pdf/cim/28/#/1/ [archive]
  19.  http://ercim-news.ercim.eu/en89/special/managing-large-data-volumes-from-scientific-facilities [archive]
  20.  Big data : du concept à la mise en œuvre. Premiers bilans. [archive]
  21.  http://www.technologyreview.com/news/423897/data-analysis-is-creating-new-business-opportunities/ [archive]
  22.  https://www14.software.ibm.com/webapp/iwm/web/signup.do?source=sw-infomgt&S_PKG=500016891&S_CMP=is_bdebook1_bda [archive]
  23.  http://www.andsi.fr/tag/dsi-big-data/ [archive]
  24.  http://lecercle.lesechos.fr/entrepreneur/tendances-innovation/221169222/big-data-low-density-data-faible-densite-information-com [archive]
  25.  http://www.ujf-grenoble.fr/recherche/college-des-ecoles-doctorales/les-formations-proposees/du-calcul-parallele-au-massivement-parallele--225458.htm [archive]
  26.  http://www.oracle.com/technetwork/topics/entarch/articles/oea-big-data-guide-1522052.pdf [archive]
  27.  http://www.zdnet.fr/actualites/explosion-des-volumes-de-donnees-de-nouvelles-architectures-s-imposent-39787579.htm [archive]
  28.  http://www.fermigier.com/assets/pdf/bigdata-opensource.pdf [archive]
  29.  www.cs.ucsb.edu/~sudipto/edbt2011/CloudTutorialPart1.pptx
  30.  https://www.hpc-lr.univ-montp2.fr/ [archive]
  31.  http://www.aleph-networks.com [archive]
  32.  http://www.bionatics.com/ [archive]
  33.  http://healthstartup.eu/2012/05/top-big-data-opportunities-for-health-startups/ [archive]
  34.  http://www.safety-line.fr/index.php/fr/ [archive]
  35.  http://www.telecom-paristech.fr/formation-continue/les-entretiens-de-telecom-paristech/dec-2012-big-data-big-value/10-jeunes-entreprises-innovantes-reperees-pour-leurs-projets-big-data.html [archive]
  36.  (en) LHC Brochure, English version. A presentation of the largest and the most powerful particle accelerator in the world, the Large Hadron Collider (LHC), which started up in 2008. Its role, characteristics, technologies, etc. are explained for the general public. [archive]CERN-Brochure-2010-006-Eng. LHC Brochure, English version., CERN (consulté le 20 January 2013)
  37.  (en) LHC Guide, English version. A collection of facts and figures about the Large Hadron Collider (LHC) in the form of questions and answers. [archive]CERN-Brochure-2008-001-Eng. LHC Guide, English version., CERN (consulté le 20 January 2013)
  38.  Geoff Brumfiel, « High-energy physics: Down the petabyte highway »Naturevol. 469,‎19 January 2011p. 282–83 (DOI 10.1038/469282alire en ligne [archive])
  39. ↑ a et b http://www.economist.com/node/15557443 [archive]
  40.  http://www.oecd.org/sti/ieconomy/Session_3_Delort.pdf#page=6 [archive]
  41.  http://www.bigdataparis.com/documents/Pierre-Delort-INSERM.pdf#page=6 [archive]
  42.  http://www.nasa.gov/centers/goddard/news/releases/2010/10-051.html [archive]
  43.  http://bosmol.com/2013/02/how-big-data-analysis-helped-president-obama-defeat-romney-in-2012-elections.html [archive]
  44. ↑ a et b http://thegovlab.org/govlab-index-the-digital-universe/ [archive]
  45.  http://www.informationweek.com/government/enterprise-applications/image-gallery-governments-10-most-powerf/224700271 [archive]
  46.  http://www.innovation2030.org/fr/ [archive]
  47.  http://www.bayesia.com/fr/produits/bayesialab/ressources/etudes-cas/data-mining-clients.php [archive]>
  48.  Régis Castagné (Interoute) : "Big Data et Cloud Computing seront intimement liés" [archive], silicon.fr, 7 novembre 2013
  49. ↑ ab et c http://ercim-news.ercim.eu/images/stories/EN89/EN89-web.pdf [archive]
  50.  Infographie - l’exploitation des données clients à l’ère du Big Data [archive] , blog MARKESS International

Liens externes[modifier | modifier le code]

Sur les autres projets Wikimedia :


 

Partagez sur les réseaux sociaux

Catégories

Autres publications pouvant vous intéresser :

Commentaires :

Laisser un commentaire
Aucun commentaire n'a été laissé pour le moment... Soyez le premier !



Créer un site
Créer un site