Accueil InfoQ Spark sur InfoQ
Articles
Flux RSS-
Startup Architecture : Hadoop, Spark & Elasticsearch chez Realytics.io
InfoQ FR discute avec Sébastien de Realytics.io sur leur architecture technique : Azure, AWS, Hadoop, Spark, Elasticsearch, ReactJS. Une stack moderne et open source pour analyser la performance et le ROI des campagnes de pub télé.
-
Traitements Big Data avec Apache Spark - 2ème partie : SparkSQL
Spark SQL, composant du framework Apache Spark, est utilisé pour effectuer des traitements sur des données structurées en exécutant des requêtes de type SQL sur les données Spark. Srini Penchikala discute le module Spark SQL et la manière dont il simplifie les analyses de données utilisant SQL.
-
Traitements Big Data avec Apache Spark - 1ère partie : Introduction
Apache Spark est un framework de traitements Big Data open source construit pour effectuer des analyses sophistiquées. Dans cet article, Srini Penchikala explique comment le framework Apache Spark aide dans le domaine des traitements et des analyses big data avec son API standard et explique comment Spark se positionne par rapport aux implémentations MapReduce traditionnelles comme Apache Hadoop.
-
Utilisation de Cassandra en tant que RDD Spark avec le connecteur Datastax
Premier article dévoilant comment il est possible d'utiliser Cassandra et Spark pour effectuer des opérations sur une grande quantité de données, le tout de manière distribuée. Nous allons utiliser des données représentant un ensemble de trajets reliant des villes américaines et effectuer des opérations impliquant ces trajets.