Apprendre PySpark : Construire localement des applications intensives en données et les déployer à grande échelle en utilisant les puissances combinées de Python et de Spark 2.0

Note :   (4,0 sur 5)

Apprendre PySpark : Construire localement des applications intensives en données et les déployer à grande échelle en utilisant les puissances combinées de Python et de Spark 2.0 (Denny Lee)

Avis des lecteurs

Résumé:

Le livre sur Spark et PySpark offre une compréhension introductive de divers sujets, mais manque de profondeur et d'exhaustivité dans les exemples, ce qui conduit souvent à une expérience frustrante pour les lecteurs. Bien qu'il fournisse une vue d'ensemble adaptée aux nouveaux venus, il nécessite également des ressources et des efforts supplémentaires pour combler les lacunes.

Avantages:

Le ton est amical et convient bien aux nouveaux venus dans Spark.
Couvre un large éventail de sujets, y compris les structures de données et l'apprentissage automatique.
Contient des codes d'exemple qui peuvent aider à l'apprentissage.
Bon point de départ pour comprendre les concepts de base.

Inconvénients:

Les exemples sont souvent incomplets ou nécessitent des ressources externes pour les comprendre pleinement, ce qui le rend difficile à utiliser en tant que guide autonome.
Manque de profondeur dans les discussions ; de nombreux sujets ne sont couverts que superficiellement.
Les exemples de code ne fonctionnent pas immédiatement et manquent de contexte.
La mauvaise organisation et la pagination de certaines sections rendent la lecture difficile.
Généralement perçu comme précipité ou manquant de structure cohérente.

(basé sur 10 avis de lecteurs)

Titre original :

Learning PySpark: Build data-intensive applications locally and deploy at scale using the combined powers of Python and Spark 2.0

Contenu du livre :

Créez des applications intensives en données localement et déployez-les à grande échelle en utilisant les puissances combinées de Python et de Spark 2. 0 A propos de ce livre - Apprenez pourquoi et comment vous pouvez utiliser efficacement Python pour traiter des données et construire des modèles d'apprentissage automatique dans Apache Spark 2.

0 - Développer et déployer des solutions Spark en temps réel efficaces et évolutives - Approfondir votre compréhension de l'utilisation de Spark avec Python grâce à ce guide de démarrage rapide A qui s'adresse ce livre Si vous êtes un développeur Python et que vous souhaitez découvrir l'écosystème Apache Spark 2. 0, ce livre est fait pour vous. Une bonne compréhension de Python est nécessaire pour tirer le meilleur parti de ce livre.

Une familiarité avec Spark serait utile, mais n'est pas obligatoire.

Ce que vous apprendrez - Découvrir Apache Spark et l'architecture Spark 2. 0 - Construire et interagir avec les DataFrames Spark en utilisant Spark SQL - Apprendre à résoudre des problèmes de graphes et d'apprentissage profond en utilisant respectivement les GraphFrames et les TensorFrames - Lire, transformer et comprendre les données et les utiliser pour entraîner des modèles d'apprentissage automatique - Construire des modèles d'apprentissage automatique avec MLlib et ML - Apprendre à soumettre vos applications de manière programmatique en utilisant spark-submit - Déployer des applications construites localement sur un cluster En détail Apache Spark est un framework open source pour le calcul efficace en cluster avec une interface forte pour le parallélisme de données et la tolérance aux pannes.

Ce livre vous montrera comment tirer parti de la puissance de Python et l'utiliser dans l'écosystème Spark. Vous commencerez par acquérir une bonne compréhension de l'architecture Spark 2. 0 et comment mettre en place un environnement Python pour Spark.

Vous vous familiariserez avec les modules disponibles dans PySpark. Vous apprendrez à abstraire les données avec les RDD et les DataFrames et comprendrez les capacités de streaming de PySpark. Vous aurez également un aperçu complet des capacités d'apprentissage automatique de PySpark en utilisant ML et MLlib, le traitement des graphes en utilisant GraphFrames, et la persistance polyglotte en utilisant Blaze.

Enfin, vous apprendrez à déployer vos applications sur le cloud à l'aide de la commande spark-submit. A la fin de ce livre, vous aurez acquis une solide compréhension de l'API Spark Python et de la manière dont elle peut être utilisée pour créer des applications à forte intensité de données.

Style et approche Ce livre adopte une approche très complète, étape par étape, afin que vous compreniez comment l'écosystème Spark peut être utilisé avec Python pour développer des solutions efficaces et évolutives. Chaque chapitre est indépendant et écrit de manière très facile à comprendre, en mettant l'accent à la fois sur le comment et le pourquoi de chaque concept.

Autres informations sur le livre :

ISBN :9781786463708
Auteur :
Éditeur :
Reliure :Broché

Achat:

Actuellement disponible, en stock.

Je l'achète!

Autres livres de l'auteur :

Apprendre PySpark : Construire localement des applications intensives en données et les déployer à...
Créez des applications intensives en données...
Apprendre PySpark : Construire localement des applications intensives en données et les déployer à grande échelle en utilisant les puissances combinées de Python et de Spark 2.0 - Learning PySpark: Build data-intensive applications locally and deploy at scale using the combined powers of Python and Spark 2.0

Les œuvres de l'auteur ont été publiées par les éditeurs suivants :

© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)