[go: up one dir, main page]

Comment l’IA renverse le rapport de force entre attaquants et défenseurs ?

Une femme consulte une carte interactive sur un écran lors d'un événement.

Si l’IA est de plus en plus utilisée par les cybercriminels, elle peut aussi être employée pour garantir notre sécurité et donner un avantage décisif aux défenseurs. À condition de développer des technologies sécurisées dès leur conception et déployées de manière collaborative et responsable.

5 minutes de lecture

En matière de cybersécurité, il existe un concept qui tourmente les organisations comme les utilisateurs depuis des décennies : le dilemme du défenseur. Dans un cyberespace dont l’étendue ne fait qu’augmenter et confère, de fait, l’avantage aux acteurs mal intentionnés, les assaillants peuvent choisir parmi une grande variété de cibles et ne doivent réussir qu’une seule fois, tandis que les défenseurs sont contraints de protéger un terrain de plus en plus complexe et doivent réussir à tout moment. Un dilemme d’autant plus difficile à résoudre avec l’explosion de l’IA générative et la puissance de ces nouveaux outils mis à disposition des hackers pour élargir le spectre de leurs attaques.

« Chez Google, nous documentons publiquement cette menace et nous avons constaté que les acteurs malveillants avaient surtout recours à l’IA pour influencer l’opinion en créant une propagande plus réaliste, des deep fakes, ce genre de choses, confirme Charley Snyder, Head of Security Policy de Google. Nous savons aussi qu’ils s’en servent pour faire de l’ingénierie sociale (technique de manipulation utilisée par les cybercriminels pour inciter les gens à partager des informations confidentielles, ndlr). Nous surveillons également de près la façon dont nos adversaires utilisent l’IA pour les autres composantes de leurs opérations: développer des virus, exploiter des données sensibles, infiltrer et compromettre un réseau, etc ».



« L’IA peut transcender la cybersécurité »

Car à l’autre bout de l’échiquier, les larges modèles de langage (LLM) ont également introduit un tout nouvel arsenal dans le camp des défenseurs. En facilitant l’interaction à travers des commandes vocales ou textuelles, ils simplifient une interface qui n’était jusqu’ici réservée qu’aux initiés - pour ne pas dire experts de la programmation - et participent à une forme de démocratisation de la cybersécurité. « La complexité des logiciels et d’internet en général a depuis longtemps dépassé la faculté d’un humain à comprendre une anomalie dans un code source, au sein d’un réseau, ou même dans nos propres boîtes mail, abonde Charley Snyder. En cas d’incident au sein d’une organisation, y compris les petites structures qui ne peuvent pas allouer un trop gros budget à la cybersécurité, la capacité de l’IA à analyser et raisonner, quasiment en temps réel, à partir d’un énorme volume de données permet d’augmenter la réactivité et surtout l’échelle de la réponse ».

Jusqu’à inverser le rapport de force et résoudre le dilemme du défenseur ? « Nous pouvons y arriver, tranche-t-il. L’IA peut révolutionner la cybersécurité, mais cela implique des décisions audacieuses de la part des gouvernements, des entreprises, et de la société civile dans son ensemble. Nous devons coopérer et concentrer nos efforts sur comment rendre cette technologie sécurisée par défaut pour tous, à tout moment ». Sans quoi la balance pourrait finir par pencher du mauvais côté... Un constat partagé par Sundar Pichai, CEO de Google, suite à une double visite en Europe - d’abord à Paris pour rencontrer Emmanuel Macron et inaugurer le nouveau centre dédié à l’IA de Google en France, puis en Allemagne pour lancer la soixantième édition de la Munich Security Conference (MSC) : « Les dirigeants européens ont exprimé un certain nombre de craintes quant à l'aggravation des cyberattaques causée par l'IA. Si ces craintes sont légitimes, il est important de souligner qu'avec les bonnes fondations, cette technologie peut à terme renforcer, plutôt qu'affaiblir, les cyberdéfenses mondiales ».



Garder l’avantage

Des fondations et surtout une collaboration entre les différents acteurs que Google continue de bâtir, pas à pas. Le 16 février dernier, l’événement munichois était l’occasion pour Google de dévoiler l’AI Cyber Defense Initiative, dont l'objectif est de mettre la puissance de l'IA au service de la cybersécurité, en offrant des compétences, des outils et des infrastructures. Afin de construire un écosystème IA plus sûr, Google continue d'investir dans son réseau de centres de données mondiaux sécurisés et prêts pour l'IA. En outre, une nouvelle cohorte du programme Google for Startups Growth Academy: AI for Cybersecurity a été formée avec 17 startups, dont 3 françaises (Cesare.ai, Nijta et ShareID). Pour accompagner les défenseurs dans leur lutte, le Google.org Cybersecurity Seminars Program a été renforcé à hauteur de $15M pour toute l’Europe. Le programme, qui comprend des modules axés sur l'IA, aide les universités à former la prochaine génération d'experts en cybersécurité issus de communautés mal desservies. Et au niveau des outils, Magika est désormais disponible en open source. Déjà utilisé pour protéger Gmail et Drive notamment, Magika aide les défenseurs à identifier les types de fichiers, un élément essentiel de la détection des logiciels malveillants. Enfin, dans l’optique de faire avancer les recherches, l’AI Cyber Defense Initiative comprend $2M de bourses de recherches et partenariats stratégiques, qui contribuera à renforcer les initiatives de recherche en matière de cybersécurité utilisant l'IA, notamment en améliorant la vérification du code, en comprenant mieux comment l'IA peut contribuer à la cyberattaques et aux contre-mesures pour la défense, et en développant de grands modèles de langage qui sont plus résistants aux menaces.



Vers un véritable système immunitaire

L’objectif : créer une forme de système immunitaire fluide et interconnecté, où l’IA serait en capacité de riposter aux attaques sans intervention humaine. « Protéger les utilisateurs dans un web ouvert et global est l’une des raisons pour laquelle nous devons adopter une approche audacieuse et responsable concernant l’IA, conclut Sundar Pichai. Mais ce n’est pas le seul. Aider les chercheurs à identifier de nouveaux remèdes contre les maladies, améliorer les alertes pour prévenir les catastrophes naturelles, ou établir de nouvelles opportunités de croissance économique, sont autant de défis tout aussi urgents qui bénéficieront d’un développement responsable de l’IA. »

Dans cette histoire : Sécurité et Sûreté

Histoires associées