🗞️ Les actus cyber de la semaine
Rançongiciels : le Canada publie ses prévisions jusqu’en 2027
Le Centre canadien pour la cybersécurité vient de publier un rapport inédit sur l’évolution des menaces par ransomware. Il alerte sur la sophistication croissante des attaques et la collaboration entre groupes cybercriminels, en mettant en garde contre un risque accru pour les infrastructures critiques dans les années à venir.
Source : Canada.ca
IA confidentielle : Signal veut créer un assistant privé et ultra-sécurisé
L’application de messagerie Signal, connue pour son haut niveau de confidentialité, planche sur un assistant IA local, chiffré de bout en bout. L’objectif : contrer les assistants connectés classiques souvent accusés de collecte abusive de données personnelles.
Source : DCOD
Mots de passe volés : les infostealers, nouvelle arme massive
De plus en plus d’attaques passent par des “infostealers”, logiciels malveillants qui collectent vos identifiants stockés dans les navigateurs ou applications. Une fois exfiltrés, ces accès sont revendus sur le dark web et ouvrent la voie à de multiples intrusions.
Source : IT Social
Faille critique dans WinRAR : Google alerte sur une exploitation active
Une nouvelle faille (CVE-2025-8088) dans WinRAR, souvent utilisé pour compresser des fichiers, permet aux pirates d’exécuter du code malveillant sur les machines victimes. Google Threat Analysis Group affirme qu’elle est déjà activement exploitée dans des campagnes ciblées.
Source : JustGeek
Une mairie diffuse des données personnelles par erreur sur Facebook
Une erreur de manipulation a conduit une mairie française à publier publiquement les noms, adresses et situations administratives de plusieurs citoyens. Une fuite inquiétante qui soulève de vraies questions sur la formation des agents publics à la protection des données.
Source : Politique Matin
Un responsable cybersécurité envoie des documents sensibles à ChatGPT
Le chef de la cybersécurité d’une administration américaine a transmis des fichiers internes à l’IA générative de ChatGPT dans un test d’usage… sans anonymiser ni protéger les données. Un acte lourd de conséquences qui relance le débat sur les usages sécurisés de l’IA dans les institutions.
Source : Solutions Numériques
|