Les cyberattaques armées par l’IA pourraient devenir mortelles dans les cinq prochaines années, selon un rapport.
Les cyberattaques armées par l’IA pourraient devenir mortelles dans les cinq prochaines années, selon un rapport.
Un récent rapport de cyberanalyse a averti que les cyberattaques basées sur l’intelligence artificielle (IA), qui sont jusqu’à présent assez limitées, pourraient devenir plus agressives dans les années à venir.
La société WithSecure, basée à Helsinki, spécialisée dans la cybersécurité et la protection de la vie privée, l’Agence finlandaise des transports et des communications et l’Agence nationale finlandaise d’approvisionnement d’urgence ont collaboré à la rédaction de ce rapport, selon un article publié jeudi par Cybernews.
« Bien que le contenu généré par l’IA ait été utilisé à des fins d’ingénierie sociale, les techniques d’IA conçues pour diriger des campagnes, exécuter des étapes d’attaque ou contrôler la logique des logiciels malveillants n’ont pas encore été observées dans la nature », a déclaré Andy Patel chercheur en intelligence WithSecure.
De telles « techniques seront d’abord développées par des adversaires disposant de bonnes ressources et hautement qualifiés, tels que des groupes d’États-nations ».
Le document examine les tendances et les progrès actuels de l’IA, des cyberattaques et des domaines où les deux se croisent, suggérant que l’adoption précoce et l’évolution des mesures préventives sont essentielles pour surmonter les menaces.
« Une fois que les nouvelles techniques d’IA auront été développées par des adversaires sophistiqués, certaines d’entre elles seront probablement transmises à des adversaires moins qualifiés et deviendront plus répandues dans le paysage des menaces », a déclaré M. Patel.
Les auteurs affirment que l’on peut affirmer sans risque de se tromper que les piratages basés sur l’IA sont désormais extrêmement rares et principalement utilisés à des fins d’ingénierie sociale. Cependant, ils sont également employés de manière que les analystes et les chercheurs ne peuvent pas observer directement.
La majorité des disciplines actuelles de l’IA sont loin de s’approcher de l’intelligence humaine et ne peuvent pas planifier ou mener des cyberattaques de manière autonome.
Cependant, les attaquants créeront probablement, au cours des cinq prochaines années, une IA capable d’identifier de manière autonome les vulnérabilités, de planifier et de mener des campagnes d’attaque, d’utiliser la furtivité pour éviter les défenses et de recueillir ou d’exploiter des données provenant de systèmes infectés ou de sources ouvertes.
« Les attaques basées sur l’IA peuvent être exécutées plus rapidement, cibler plus de victimes et trouver plus de vecteurs d’attaque que les attaques conventionnelles en raison de la nature de l’automatisation intelligente et du fait qu’elles remplacent des tâches typiquement manuelles », indique le rapport.
Selon le document, de nouvelles méthodes sont nécessaires pour lutter contre le piratage basé sur l’IA qui utilise des informations synthétiques, usurpe les systèmes d’authentification biométrique et d’autres capacités à venir.
Les attaques basées sur l’IA excelleront certainement en matière d’usurpation d’identité, une tactique fréquemment utilisée dans les cyberattaques de phishing et de vishing (hameçonnage vocal), note le rapport.
« L’usurpation d’identité basée sur le Deepfake est un exemple de nouvelle capacité apportée par l’IA aux attaques d’ingénierie sociale », affirment les auteurs du rapport, qui prévoient que les usurpations d’identité rendues possibles par l’IA vont encore progresser.
« Aucune technologie antérieure ne permettait d’imiter de manière convaincante la voix, les gestes et l’image d’un humain cible de façon à tromper les victimes. »
De nombreux experts en technologie estiment que les deepfakes sont la plus grande préoccupation en matière de cybersécurité.
Ils ont toutes les chances d’y parvenir, car les verrous téléphoniques des comptes bancaires et des passeports, ainsi que tous les développements techniques récents, ont migré vers les technologies biométriques.
Étant donné la rapidité avec laquelle les « deepfakes » se développent, les systèmes de sécurité qui reposent principalement sur ce type de technologie semblent être plus exposés.
Selon l’étude du Identity Theft Resource Center (ITRC) sur les violations de données, 1 291 violations de données ont été recensées jusqu’en septembre 2021.
Par rapport aux violations de données de 2020, qui s’élevaient à 1 108, ce chiffre montre une augmentation de 17 %.
281 millions de victimes de compromission de données ont été découvertes au cours des neuf premiers mois de 2021, selon l’étude de l’ITRC, soit une forte augmentation.
Source : Interesting Engineering
Commentaires
Enregistrer un commentaire
Merci de commenter nos articles