Activer l'abonnement >
Ajouter des appareils ou mettre à niveau >
Renouveler l'abonnement >
Hub sécurisé >
Vous n'avez pas encore de compte ? Inscrivez-vous >
< Products
Vous avez une infection informatique en cours ?
Vous craignez qu'il s'agisse d'une escroquerie ?
Essayez notre antivirus avec une version d'essai gratuite et complète de 14 jours.
Obtenez votre boîte à outils gratuite sur la sécurité numérique
Trouvez la cyberprotection qui vous convient
< Business
< Pricing
Protégez vos appareils et vos données personnelles
Protégez les appareils et les données de votre équipe - aucune compétence informatique n'est nécessaire
Découvrez la sécurité primée des points finaux pour votre entreprise
< Resources
< Support
Malwarebytes et les clients en équipes
Clients de Nebula et Oneview
Des chercheurs ont découvert 16 extensions de navigateur malveillantes capables de détourner discrètement les sessions ChatGPT actives et de siphonner les données des utilisateurs.
Des chercheurs ont montré comment une injection rapide dissimulée dans une invitation de calendrier peut contourner les contrôles de confidentialité et transformer un assistant IA en complice d'une fuite de données.
Des chercheurs ont découvert un moyen de voler les données des utilisateurs de Microsoft Copilot à l'aide d'un simple lien malveillant.
Les excuses de Grok ne mettront probablement pas fin à l'affaire, puisque l'outil d'IA a été utilisé pour générer du contenu pouvant constituer du matériel illégal représentant des abus sexuels sur des enfants.
Le fait de relier vos dossiers médicaux à ChatGPT Health peut vous fournir des réponses personnalisées en matière de bien-être, mais cela comporte également de graves implications en matière de confidentialité.
En générant du contenu susceptible d'enfreindre les lois américaines relatives aux contenus pédopornographiques, Grok met une nouvelle fois en évidence l'inefficacité des garde-fous de l'IA.
Liste des sujets abordés au cours de la semaine du 29 décembre 2025 au 4 janvier 2026
Plusieurs événements liés à l'IA en 2025 ont mis en évidence la rapidité avec laquelle les systèmes d'IA peuvent échapper à tout contrôle humain significatif.
Nous examinons comment l'essor rapide de l'intelligence artificielle (IA) expose les utilisateurs à des risques.