Note :
Le livre fournit une introduction complète à l'apprentissage automatique en utilisant Python avec une approche algorithmique, bien qu'il souffre de nombreuses erreurs mathématiques et d'explications confuses. Bien qu'il couvre un large éventail d'algorithmes et qu'il soit particulièrement accessible aux personnes ayant une formation mathématique moins solide, il peut frustrer les utilisateurs plus avancés ou ceux qui recherchent un traitement rigoureux.
Avantages:⬤ Couverture complète des différents algorithmes d'apprentissage automatique.
⬤ L'accent est mis sur les algorithmes plutôt que sur les applications.
⬤ Accessible aux personnes ayant des compétences limitées en mathématiques.
⬤ Inclut des exemples de code Python, ce qui est utile pour la compréhension pratique.
⬤ Rédigé dans un style conversationnel facile à suivre.
⬤ Bon pour les cours d'introduction.
⬤ Criblé d'erreurs, à la fois typographiques et mathématiques.
⬤ Certaines explications sont confuses ou peu claires.
⬤ Certaines sections ne sont pas suffisamment approfondies ou détaillées.
⬤ Suppose une certaine familiarité avec Python, manque de tutoriels détaillés.
⬤ Peut être plus approprié comme ressource complémentaire que comme texte autonome.
(basé sur 35 avis de lecteurs)
Machine Learning: An Algorithmic Perspective, Second Edition
Une approche éprouvée et pratique pour les étudiants qui n'ont pas de solides bases en statistique.
Depuis la publication de la première édition, il y a eu plusieurs développements importants dans le domaine de l'apprentissage automatique, y compris le travail croissant sur les interprétations statistiques des algorithmes d'apprentissage automatique. Malheureusement, les étudiants en informatique qui n'ont pas de solides connaissances en statistiques ont souvent du mal à se lancer dans ce domaine.
Remédiant à cette lacune, Machine Learning : An Algorithmic Perspective, Second Edition aide les étudiants à comprendre les algorithmes d'apprentissage automatique. Il les met sur la voie de la maîtrise des mathématiques et des statistiques pertinentes, ainsi que de la programmation et de l'expérimentation nécessaires.
Nouveautés de la deuxième édition
⬤ Deux nouveaux chapitres sur les réseaux de croyances profondes et les processus gaussiens.
⬤ Réorganisation des chapitres pour une circulation plus naturelle du contenu.
⬤ Révision du matériel sur les machines à vecteurs de support, y compris une mise en œuvre simple pour les expériences.
⬤ Nouveaux éléments sur les forêts aléatoires, le théorème de convergence du perceptron, les méthodes de précision et l'optimisation du gradient conjugué pour le perceptron multicouche.
⬤ Discussions supplémentaires sur les filtres de Kalman et les filtres à particules.
⬤ Amélioration du code, y compris une meilleure utilisation des conventions de nommage en Python.
Adapté à la fois à un cours d'introduction d'un semestre et à des cours plus avancés, le texte encourage fortement les étudiants à s'entraîner avec le code. Chaque chapitre comprend des exemples détaillés ainsi que des lectures complémentaires et des problèmes. L'ensemble du code utilisé pour créer les exemples est disponible sur le site web de l'auteur.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)