Note :
Le livre fournit une vue d'ensemble lisible des attaques adverses et de l'apprentissage profond, ce qui le rend accessible aux lecteurs non techniques tout en contenant un certain contenu technique pour les codeurs professionnels. Cependant, il a été critiqué pour son manque de profondeur, ses exemples de codage insuffisants et son matériel d'introduction inutile.
Avantages:⬤ Excellent pour les codeurs et les passionnés d'IA
⬤ très lisible
⬤ explique bien l'apprentissage profond et les menaces adverses
⬤ vision optimiste de l'IA
⬤ convient à ceux qui recherchent une compréhension de base.
⬤ Trop basique pour les lecteurs avertis
⬤ manque de profondeur et de détails techniques
⬤ peu d'exemples de codage
⬤ longue introduction inutile
⬤ peut ne pas répondre aux besoins de ceux qui recherchent une exploration plus rigoureuse du sujet.
(basé sur 3 avis de lecteurs)
Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery
Alors que les réseaux neuronaux profonds (DNN) deviennent de plus en plus courants dans les applications du monde réel, la possibilité de les tromper délibérément avec des données qui ne tromperaient pas un humain présente un nouveau vecteur d'attaque. Ce livre pratique examine des scénarios réels dans lesquels les réseaux neuronaux profonds - les algorithmes intrinsèques à une grande partie de l'IA - sont utilisés quotidiennement pour traiter des données d'image, audio et vidéo.
L'auteur, Katy Warr, examine les motivations des attaques, les risques posés par ces données adverses et les méthodes permettant d'accroître la robustesse de l'IA face à ces attaques. Si vous êtes un scientifique qui développe des algorithmes DNN, un architecte de sécurité intéressé par la façon de rendre les systèmes d'IA plus résistants aux attaques, ou quelqu'un fasciné par les différences entre la perception artificielle et biologique, ce livre est pour vous.
Ce livre est fait pour vous : ⬤ Doublez les DNN et découvrez comment ils peuvent être trompés par des données adverses.
⬤ Les méthodes utilisées pour générer des données adverses capables de tromper les DNN sont étudiées.
⬤ Explorer des scénarios du monde réel et modéliser la menace adverse.
⬤ Évaluer la robustesse des réseaux neuronaux ; apprendre des méthodes pour accroître la résilience des systèmes d'IA face aux données adverses.
⬤ Examiner les moyens par lesquels l'IA pourrait mieux imiter la perception humaine dans les années à venir.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)