Machine Learning Under Malware Attack
L'apprentissage automatique est devenu essentiel pour soutenir les processus de prise de décision dans un large éventail d'applications, allant des véhicules autonomes à la détection des logiciels malveillants.
Cependant, bien que très précis, ces algorithmes se sont révélés vulnérables, car ils peuvent être trompés et renvoyer des prédictions préférentielles. Par conséquent, des objets adverses soigneusement conçus peuvent avoir un impact sur la confiance des systèmes d'apprentissage automatique et compromettre la fiabilité de leurs prédictions, quel que soit le domaine dans lequel ils sont déployés.
L'objectif de ce livre est d'améliorer la compréhension des attaques adverses, en particulier dans le contexte des logiciels malveillants, et de tirer parti de ces connaissances pour explorer les défenses contre les adversaires adaptatifs. En outre, il étudie les faiblesses systémiques susceptibles d'améliorer la résilience des modèles d'apprentissage automatique.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)