L’IA sera meilleure que les humains en cyberattaque d’ici 2030 selon un expert

TORONTO — L’intelligence artificielle (IA) sera capable de surpasser les humains en cyberattaque d’ici la fin de la décennie, a prédit le conférencier principal d’une série de conférences animées par Geoffrey Hinton, sommité de l’informatique, cette semaine.

Jacob Steinhardt, professeur adjoint de génie électrique, d’informatique et de statistiques à l’université de Berkeley, en Californie, a fait cette projection mardi, affirmant qu’elle était basée sur sa conviction que les systèmes d’IA deviendront finalement «surhumains» lorsqu’ils seront chargés de coder et de trouver des exploits.

Les exploits sont des points faibles des logiciels et du matériel dont les gens peuvent abuser. Les cybercriminels convoitent souvent ces exploits, car ils peuvent être utilisés pour obtenir un accès non autorisé aux systèmes.

Une fois qu’un criminel a accès via un exploit, il peut lancer une attaque par rançongiciel où il crypte des données sensibles ou empêche les administrateurs d’accéder au logiciel, dans l’espoir d’obtenir de l’argent des victimes.

Pour trouver des exploits, M. Steinhardt a indiqué que les humains devraient lire tout le code sous-jacent d’un système, afin de pouvoir trouver un exploit et lancer une attaque.

«C’est vraiment ennuyeux, a-t-il soutenu. La plupart des gens n’ont tout simplement pas la patience de le faire, mais les systèmes d’IA ne s’ennuient pas.»

Non seulement l’IA se chargera de la corvée associée à la recherche d’un exploit, mais elle sera également méticuleuse dans cette tâche, a ajouté M. Steinhardt.

Les remarques de l’expert surviennent alors que la cybercriminalité est en augmentation.

Une étude réalisée en 2023 par EY Canada auprès de 60 organisations canadiennes a révélé que quatre sur cinq avaient connu au moins 25 incidents de cybersécurité au cours de la dernière année et que les experts affirment que certaines entreprises sont confrontées à des milliers de tentatives chaque jour.

Beaucoup ont salué l’IA comme une solution potentielle, car elle peut être utilisée pour identifier rapidement les attaquants et recueillir des informations sur eux, mais le professeur Steinhardt a prévenu qu’elle est tout aussi susceptible d’être utilisée par des personnes aux intentions malveillantes.

Il a déjà déclaré que le monde a vu des cas où des acteurs malveillants ont exploité la technologie pour créer des hypertrucages – des images, des vidéos ou des clips audio manipulés numériquement montrant des personnes disant ou faisant des choses qu’elles n’ont pas dites ou faites.

Dans certains cas, des hypertrucages ont été utilisés par des acteurs malveillants pour appeler des personnes en leur suggérant qu’il s’agissait de leur proche qui les contactait et qu’ils avaient besoin d’argent rapidement.

Les entreprises ont également été victimes.

Plus tôt cette année, les médias ont rapporté qu’un employé d’Arup, la société d’ingénierie britannique à l’origine de bâtiments importants, dont l’Opéra de Sydney, avait été dupé en remettant 25 millions $ à des fraudeurs utilisant la technologie hypertrucage pour se faire passer pour le directeur financier de l’entreprise.

«J’ai été formé pour faire attention aux escroqueries et aux courriels d’hameçonnage et je pense que j’aurais confirmé avant d’envoyer 25 millions de dollars, mais je n’en suis pas sûr», a déclaré M. Steinhardt, expliquant à quel point ce phénomène est nouveau et à quel point les faux semblent réalistes. «Ce n’est pas quelque chose auquel nous sommes habitués et ce n’est pas la seule utilisation de l’usurpation d’identité numérique pour créer des problèmes.»

La conférence de Jacob Steinhardt concluait les conférences Hinton, une série de deux soirées de conférences organisées par le Global Risk Institute au John W. H. Bassett Theatre à Toronto.

L’homonyme de l’événement, Geoffrey Hinton, largement connu comme le parrain de l’IA, a présenté M. Steinhardt plus tôt dans la soirée, décrivant le professeur comme le choix le plus populaire pour lancer la série de conférences.

La veille au soir, Jacob Steinhardt avait déclaré au public qu’il se considérait comme un «optimiste inquiet», qui estime qu’il y a 10 % de chances que l’IA conduise à l’extinction de l’humanité et 50 % de chances qu’elle génère une valeur économique immense et une «prospérité radicale».