Note :
Le livre « Interpretable Machine Learning with Python » est fortement recommandé en tant que ressource complète et accessible pour comprendre et appliquer les techniques d'apprentissage automatique, en se concentrant particulièrement sur l'interprétabilité. Il s'adresse aux débutants, aux intermédiaires et aux praticiens avancés grâce à ses explications approfondies, ses nombreux exemples et ses conseils pratiques en matière de codage. Cependant, sa nature technique peut poser des problèmes aux nouveaux venus qui n'ont pas de connaissances en la matière.
Avantages:Une ressource complète couvrant un large éventail de sujets dans l'apprentissage automatique interprétable.
Inconvénients:Des exemples abondants et des explications approfondies qui s'adressent à différents niveaux de compétence.
(basé sur 25 avis de lecteurs)
Interpretable Machine Learning with Python: Learn to build interpretable high-performance models with hands-on real-world examples
Comprendre les principaux aspects et défis de l'interprétabilité de l'apprentissage automatique, apprendre à les surmonter avec des méthodes d'interprétation et les exploiter pour construire des modèles plus justes, plus sûrs et plus fiables.
Caractéristiques principales :
⬤ Apprenez à extraire des informations faciles à comprendre de n'importe quel modèle d'apprentissage automatique.
⬤ Apprenez à maîtriser les techniques d'interprétabilité pour construire des modèles plus justes, plus sûrs et plus fiables.
⬤ Les risques des systèmes d'IA sont atténués avant qu'ils n'aient des implications plus larges en apprenant à déboguer les modèles de boîte noire.
Description du livre :
Vous souhaitez comprendre vos modèles et atténuer les risques associés à de mauvaises prédictions en utilisant l'interprétation de l'apprentissage machine (ML) ? Interpretable Machine Learning with Python peut vous aider à travailler efficacement avec des modèles d'apprentissage automatique.
La première partie de l'ouvrage est un guide d'initiation à l'interprétabilité, qui traite de sa pertinence dans le monde des affaires et explore ses principaux aspects et défis. Vous vous concentrerez sur le fonctionnement des modèles à boîte blanche, les comparerez aux modèles à boîte noire et à boîte de verre, et examinerez leur compromis. La deuxième section vous permettra de vous familiariser avec un large éventail de méthodes d'interprétation, également connues sous le nom de méthodes d'IA explicable (XAI), et de les appliquer à différents cas d'utilisation, qu'il s'agisse de classification ou de régression, de tableaux, de séries chronologiques, d'images ou de textes. En plus du code étape par étape, le livre aide également le lecteur à interpréter les résultats du modèle à l'aide d'exemples. Dans la troisième section, vous serez confronté à la mise au point de modèles et de données d'entraînement pour en faciliter l'interprétation en réduisant la complexité, en atténuant les biais, en plaçant des garde-fous et en améliorant la fiabilité. Les méthodes que vous explorerez ici vont de la sélection de caractéristiques de pointe et des méthodes de débiaisage des ensembles de données aux contraintes monotones et au recyclage accusatoire.
À la fin de ce livre, vous serez en mesure de mieux comprendre les modèles ML et de les améliorer grâce à des réglages d'interprétabilité.
Ce que vous apprendrez :
⬤ Reconnaître l'importance de l'interprétabilité dans le monde des affaires.
⬤ Étudier les modèles qui sont intrinsèquement interprétables, tels que les modèles linéaires, les arbres de décision et Na ve Bayes.
⬤ Devenir compétent dans l'interprétation des modèles avec des méthodes agnostiques.
⬤ Visualiser le fonctionnement d'un classificateur d'images et ce qu'il apprend.
⬤ Comprendre comment atténuer l'influence des biais dans les ensembles de données.
⬤ Découvrir comment rendre les modèles plus fiables grâce à la robustesse adversariale.
⬤ Utiliser les contraintes monotones pour créer des modèles plus justes et plus sûrs.
A qui s'adresse ce livre :
Ce livre s'adresse aux data scientists, aux développeurs de machine learning et aux data stewards qui ont la responsabilité de plus en plus critique d'expliquer le fonctionnement des systèmes d'IA qu'ils développent, leur impact sur la prise de décision et la manière dont ils identifient et gèrent les biais. Une connaissance pratique de l'apprentissage automatique et du langage de programmation Python est attendue.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)