Cybercriminalité : La police française se tourne vers l'IA pour renforcer la sécurité

Dans son dernier rapport annuel sur la cybercriminalité, le ministère de l'Intérieur français met en lumière l'augmentation alarmante des outils d'hypertrucage et des deepfakes en 2024. Les cybercriminels, notamment le groupe FunkSec, utilisent de plus en plus l'intelligence artificielle pour mener des attaques sophistiquées et efficaces.

L'essor des cyberattaques

Les outils de deepfake se sont largement démocratisés, permettant aux cybercriminels de réaliser des attaques complexes avec un taux de succès élevé. Par exemple, le groupe FunkSec, apparu fin 2024, a revendiqué 85 attaques en décembre de la même année, surpassant tout autre groupe sur la même période. Ces cybercriminels utilisent l'IA pour développer des rançongiciels et concevoir des courriels d'hameçonnage, exploitant ainsi les avancées technologiques à des fins malveillantes.

L'IA au service de la police

Face à cette montée des cybermenaces, les forces de l'ordre françaises se préparent également à utiliser l'intelligence artificielle pour améliorer leur efficacité. Une modification récente du code pénal permet désormais aux enquêteurs d'utiliser des dispositifs techniques pour altérer leur voix ou leur apparence physique. Cette évolution marque la première apparition formelle de l'IA dans le code de procédure pénale, offrant de nouvelles possibilités pour les enquêtes.

Projets innovants pour la sécurité

Plusieurs projets sont en cours pour aider les policiers et les gendarmes à mieux lutter contre la cybercriminalité :

  • Authentik IA : Ce projet vise à aider les forces de l'ordre à reconnaître les deepfakes, améliorant ainsi leur capacité à identifier les contenus frauduleux.
  • Odip : Ce chantier a pour objectif de faciliter le travail des enquêteurs dans les affaires de pédopornographie, en permettant l'identification automatique de ce genre d'images.

Ces initiatives s'inscrivent dans le cadre de la stratégie « CapIA » lancée par les gendarmes français, visant à utiliser le potentiel de l'IA tout en respectant un cadre éthique et juridique. Cette stratégie repose sur quatre piliers : la souveraineté, la maîtrise, la responsabilité et le partage.

Statistiques alarmantes

En 2024, le ministère de l'Intérieur a recensé 348 000 atteintes numériques, dont 17 100 ciblaient des systèmes d'information. Parallèlement, 60 000 personnes ont été mises en cause pour des atteintes numériques, soulignant l'ampleur et la gravité de la cybercriminalité.

En conclusion, alors que les cybercriminels continuent d'innover et d'exploiter les nouvelles technologies, les forces de l'ordre françaises se préparent à relever ces défis en s'appuyant sur l'IA pour renforcer la sécurité et la protection des citoyens.

Retrouvez l'article complet de ZDNET : ici

Catégorie: Conformité et Réglementation

Likes: 0

Visites: 192

Retour