Les bases de bonnées "In-Memory"

Par

Une nouvelle génération de base de données pour une utilisation intensive

Comme son nom l'indique clairement, une base de données dite "In memory" est essentiellement résidente en mémoire vive. Cette nouvelle génération profite de la baisse du prix des mémoires vives et de la puissance de calcul offerte par les nouvelles générations de processeurs multi-coeurs. En limitant au maximum les accès disques, les requêtes s'exécutent en un temps record. C'est évidemment une avancée majeure pour le monde de la business intelligence en version analytique. L'analyste n'est plus gêné par la lenteur des accès à l'infrastructure et aux disques de stockage pour bâtir de solides modèles d'analyses.

Le principe mis en oeuvre

Les bases de données "In Mémory" sont généralement construites comme des base relationnelles. Elles sont conformes aux exigences ACID (Atomicity, Consistency, Isolation, Durability) qui garantissent l'intégrité des transactions. Les données contenues en mémoire sont volatiles par principe. Un système de sauvegarde périodique par image disque, snapshot, permet de sauvegarder la base. Ce système est complété d'une historisation des transactions afin de remettre la base en état en cas de coupure de courant.

Les solutions du marché

Sans surprise, la grande majorité des éditeurs de bases de données ont lancé leur propre solution.
  • SAP AG propose le produit Hana ®
    SAP place le In Memory au coeur de sa stratégie et multiplie les annonces. Le serveur Hana est désormais pleinement opérationnel avec la suite ERP de l'éditeur afin d'accélérer au maximum les transactions. À ce titre, l'éditeur parle de temps réel.
  • Oracle Corp et le produit Exalytics &Reg;
    Directement concurrent du produit Hana, Exalytics est selon son éditeur plus orienté analytique que transactionnel.
  • SAS Corp propose SAS® In-Memory Analytics
  • Microsoft lance le projet Hekaton &Reg; intégré à SQL Server
Cette courte liste n'est pas exhaustive. La technologie in memory est à juste titre en bonne place dans la liste des technologies d'avenir régulièrement actualisée par le Gartner Group. Tous les principaux éditeurs proposent, ou proposeront à court terme, une solution de ce type, et chacun se réfèrera au catalogue de son fournisseur préféré.

La technologie mise en oeuvre

À titre d'exemple de la puissance dédiée à une base de données de type In Memory, attardons-nous sur la solution choisie par Oracle Corp avec le produit Exalitics ®. Cette solution s'appuie sur un serveur Sun Fire ® doté de 1 Téraoctet de RAM et de 4 processeurs Intel Xeon E7-4800 de 10 coeurs chacun.
D'autres, comme SAS Corp, ont opté pour une architecture de type big data reposant sur une infrastructure Hadoop de 96 serveurs (blade servers), soit 1.152 coeurs, 9,2 teraoctets de mémoire et 57,6 teraoctets de capacité de stockage sur disque,

Partagez cet article...

Envoyer le lien de cet article par e-mail   
(total partages cumulés > 105)

Commentaires lecteurs...

La reproduction ou la traduction totale ou partielle de ce texte, images et documents est formellement interdite. Voir ici les conditions pour publier un extrait sur votre site ou blog. Ce texte et les images et documents qu'il contient est déposé auprès de l'IDDN

Suivez aussi les news du portail sur Twitter et rejoignez-nous sur Facebook

Google+    Twitter    Facebook



Copyright : Alain FERNANDEZ ©1998-2014 Tous droits réservés Mentions légales


Business Intelligence

Les 80 fiches de la BI

Business Intelligence
Business Intelligence
Formation BI
Outils de la BI
Le projet BI, le livre
Les Perspectives, BI 2.0 +/-
Perspectives BI
BI état de l'art
BI 2.0
BI 2.0 en pratique
BI Temps réel
La BI de demain
La BI mobile
Projet BI & Stratégie +/-
BI & stratégie
Informatique décisionnelle
BI, projet stratégique
BI Front-end tools +/-
Tableau de bord BI
Tableau de bord avec avec Excel
Outils de Reporting
Reporting financier
Tableaux de bord et KM 
Portail décisionnel
Le data warehouse +/-
Data Warehousing
Data Warehouse
Data Mart
Architecture Data Warehouse
Projet Data Warehouse
Modélisation Data Warehouse
ROI du projet
Causes d'échecs
Big Data +/-
Big Data, le dossier
Big Data et décisionnel
Big Data 3 questions
Technos Big Data
Hadoop
Hadoop calculs massifs
Map Reduce
Les bases No SQL
BDD In Memory
La qualité des données +/-
Gestion qualité des données
Collectez les données ETL
Gouvernance des données
MDM Master Data Management
Projet MDM
ROI du MDM
Meta données
Réseaux de terrain
BI et ERP (PGI)
Outils d'analyse +/-
Outils d'analyse
Statistiques
Analyse prédictive
Arbre de decision
Data Mining
Text Mining
Data Visualisation
Business Intelligence avec Excel
Excel et la BI pour tous
Analyse Olap +/-
Pourquoi Olap ?
Qu'est-ce que OLAP ?
Modèle de CODD
Nouveau modèle
Conception Olap
ROLAP, MOLAP, HOLAP...
Dérives Olap
Essayez Olap
Les outils décisionnels +/-
Outils decisionnels
IBM
Oracle, Hyperion Solution
Microsoft
SAP Business Objects
SAS institute
Qliktech
Information Builders
Dundas Data Visualization
Corda Technologies
Prophix
Infor
BI Open Source +/-
Le principe de l'Open Source
Projets Open Source
Outils ETL Open Source
outils Reporting Open Source
outils OLAP et Data Warehouse Open Source
outils Data Mining Open Source
synthèse BI Open Source 
Projet décisionnel +/-
Conduire le projet
Le projet decisionnel
Le système de pilotage
Le système decisionnel
Les Ressources de la BI +/-
Livres de la Business Intelligence
Livres du Data Mining
Sites de la Business Intelligence

References du Portail
Glossaire
Sites de reference
Plan du site
Contact
A propos...
Copyright©



Toutes les pages de ce site sont sous copyright Alain Fernandez 1998-2014

IDDN Certification




 Dossier BI   Méthode projet   Stratégie   Data Warehouse   Big Data   Qualité des données   Analyse   Front-end  BI Open Source 

Management de l'entreprise
Google+   Google+  Facebook  
Envoyer le lien de cet article par e-mail