Par Rachel Delacour – CEO and Co-founder of We Are Cloud
C’était les 21 et 22 mars derniers, au Chelsea Pier sur l’île de Manhattan.GigaOM organisait Structure:Data, évènement dédié au phénomène Big Data, à destination des entreprises et de leurs problématiques de stockage, d’analyses et de monétisation de leurs données.
La volumétrie des données personnelles et professionnelles explose depuis plusieurs années, tout est historisé et ni les réseaux sociaux, ni la RFID – pour ne citer qu’eux – ne viendront diminuer ce volume.
Bime était invité en tant que conférencier pour cette occasion. Je pense que nous étions les seuls étrangers…venant du Sud de la France en plus, autant dire que nous faisions figure de martiens vu la très grande majorité des acteurs et participants californiens qui s’étaient donné rdv sur la côté Est.
Notre intervention a eu lieu le premier jour. Notre sujet: “Comment une nouvelle génération d’outils intelligents dissequent, digèrent et délivrent de l’analytique même dans un contexte Big Data”..en anglais : “Smart Tools : Dissect, Digest and Deliver on Big Data” ou encore comment le Cloud permet aux TPE/PME d’apprivoiser du Big Data.
De l’analytique sur du Big Data dans du Cloud ? Come on Dude…Sauf que maintenant il y a Big Query de Google. Big Query, c’est une nouvelle génération de base de données révolutionnaire permettant de traiter un très très large volume de données dans le Cloud. Pas de lancement officiel…mais des frenchies pour illustrer son potentiel business…en l’occurrence l’équipe Bime. Cocorico…et des démos durant la conférence sur mon PC, via le Wifi de la salle, en ligne donc, sur plus d’un milliard de lignes. Bref, le Cloud Analytics prend encore du galon.
Nous sommes quelques filles chez Bime (nous tenons bon) … sachez que notre idéal n’est plus le parfait mix “Brad Quinn” au “Big Quotient” intellectuel…maintenant, c’est Big Query !
(Voir notre intervention ici, juste après celle de Ju-Kay Kwek de l’équipe Big Query).
Le sujet BigData dans le Cloud (cloud multitenant j’insiste) est très récent. Hadoop avait très largement sa place dans les différentes sessions des deux journées. Nous avons donné notre avis sur la question de la marque à l’éléphant jaune d’ailleurs : très bien mais pour des logiques d’analyses pré-calculées, pas encore parfait avec encore des latences pour des analyses interactives et dynamiques en ligne. Beaucoup de sociétés s’attachent à le résoudre, nous en sommes conscients, mais Big Query offre d’ores et déja des réponses quasi-constantes, non linéaires sur de tres gros volumes de données.
Concernant les sessions (très denses), chacune n’oubliait jamais de traiter ces 2 points fondamentaux: comment tirer partie de ces volumes de données actuels en les comprenant et en les monétisant (via des capacités de granularités nouvelles, via des temps d’implementation projets raccourcis, via des interfaces d’analyses mixant données structurées et non structurées en quasi temps réel, je pense aux solutions très interessantes de Quid et Continuuity).
L’audience était plutôt grands comptes et les motivations étaient principalement un échange entre pairs sur un sujet déjà bien connu pour ces entreprises, à l’image de Jean-Luc Chatelain, CTO-EVP Strategy & Technology chez Datadirect Networks, basé en Californie. Pour lui:
"Le Bigdata n’est pas nouveau pour des secteurs comme le High Performance Computing, pour les sciences de la vie ou pour celui de la Défense, mais cette année, le sujet de sa «démocratisation» vient en force. Cette conférence a montré que nous sommes entrés dans le cycle “Hype” du Bigdata, de l’Analytics & d’Hadoop car chaque éditeur, à sa façon, fait en sorte d’avoir ces mots clés dans son accroche. Hadoop est définitivement une technologie “de rigueur” pour le stockage et l’archivage de type Bigdata mais les nouvelles tendances émergentes suivantes sont encore plus interessantes: celles dépassant Hadoop (“beyond hadoop”), celles des technologies et des architectures axées sur l’analyse en temps réel, pour un coût total de possession plus bas, avec une approche orientée visualisations de données avancées (data discovery) et stockage informatique intelligent."
Le Cloud a été largement questionné vu l’audience, des annonces sur les solutions futures comme Big Query ont évidemment attiré l’attention. Good point.
Voici mon “take away”, celui du CEO de Hortonworks : “Hadoop rend “infini” le traitement de large volumes de données; le Cloud rend “infinie” l’utilisation de la puissance machine…donc il y a un moment où ce couple marchera main dans la main.”
Evidemment, le monde ne sera pas blanc ou noir (cloud ou on-premise) mais restera blanc et noir pendant un moment vu la question très sensible de la sécurité. Je reste à ce sujet à votre disposition pour partager un peu plus cette conférence qui mérite plusieurs billets. N’hésitez pas à me contacter.