Technologies

Cybersécurité : l'IA générative au service de l'attaque comme de la défense

Cybersécurité : l'IA générative au service de l'attaque comme de la défense
Pour tester la résistance d’une organisation aux attaques cyber, les red teams utilisent déjà l’IA générative pour créer des campagnes de phishing à grande échelle. (Photo : FLY:D / Unsplash)

De plus en plus, les experts en cybersécurité intègrent dans leur quotidien des outils de type ChatGPT pour les assister dans des tâches variées, allant de l'analyse du code source à l'identification des vulnérabilités. Tant les red team - équipes offensives - que les blue team - les spécialistes de la défense - profitent des LLM.

PublicitéEvan Pena, directeur général des services professionnels chez Google Cloud et directeur de la red team de Mandiant depuis plus de cinq ans, utilise presque quotidiennement les grands modèles de langage (LLM) « pour confirmer des réponses ou trouver d'autres idées sur la manière d'enquêter sur une vulnérabilité ». Ces outils de traitement du langage naturel (NLP), qui s'appuient sur des réseaux neuronaux, peuvent générer du texte ou du code presque comme des humains, et ils peuvent également reconnaître des modèles. Exploiter leur potentiel fait partie du travail d'Evan Pena. Pour cet expert en sécurité, l'utilisation de grands modèles de langage permet souvent de terminer les travaux plus rapidement, un facteur essentiel dans la cybersécurité où la charge de travail est souvent élevée et où la pénurie de main-d'oeuvre qualifiée constitue un véritable problème.

Evan Pena et ses collègues ont eu besoin d'un utilitaire C# pour tester une combinaison connue de nom d'utilisateur et de mot de passe sur un certain nombre d'hôtes au sein d'un réseau. « Comme il s'agissait d'une red team, nous ne voulions pas utiliser d'outils open source pour accomplir cette tâche pour éviter les indicateurs statiques et la détection par les EDR », explique-t-il. « Nous avons pu développer cet outil et le tester entièrement dans un environnement d'entraînement avant de l'utiliser en production en l'espace de quelques heures. » L'outil leur a permis d'identifier l'accès de l'administrateur local à un système et d'effectuer des déplacements latéraux dans le système d'information, une fois cette porte d'entrée exploitée.

Les red team (qui teste la solidité d'un système en l'attaquant) et blue team (qui prend en charge sa défense) peuvent utiliser les LLM pour de nombreuses autres tâches. L'entreprise de sécurité offensive Bishop Fox explore ainsi la manière dont ces modèles peuvent alimenter les campagnes d'ingénierie sociale, le fournisseur de solutions de cybersécurité Check Point Software exploite de son côté l'IA pour optimiser la recherche de logiciels malveillants et de vulnérabilités, tandis que Cossack Labs l'utilise pour recruter des experts en sécurité pour son activité de protection des données.

Générer des campagnes d'ingénierie sociale à grande échelle

Les grands modèles de langage ont commencé à révolutionner la manière dont les équipes offensives et défensives effectuent leur travail. Ces outils ont d'abord été utilisés pour automatiser des tâches à faible valeur ajoutée, ce qui permet de libérer un temps et des ressources précieux. Peu à peu, cependant, ils commencent à s'étendre à des domaines plus complexes de la cybersécurité. « On peut dire que les LLM et l'IA générative ont révolutionné la capacité des équipes offensives à mener des campagnes d'ingénierie sociale et de phishing à grande échelle », déclare Brandon Kovacs, consultant senior en red team pour Bishop Fox. « Par exemple, l'utilisation de LLM qui ont été pré-entraînés sur des milliards de paramètres de texte humain, en plus de fournir à ces modèles des données supplémentaires provenant de sources publiques concernant la cible, nous a permis de créer des campagnes très convaincantes et personnalisées à grande échelle. Cette opération prendrait généralement des heures ou des jours. Cependant, grâce à l'IA, nous sommes en mesure de les créer instantanément ».

PublicitéBishop Fox étudie également les moyens de créer et d'étudier de nouvelles souches de logiciels malveillants qui n'ont jamais été observées auparavant. En outre, la société utilise les LLM pour analyser des codes source afin d'identifier les failles de sécurité, une tâche qui est également une priorité absolue chez Check Point, selon Sergey Shykevich, responsable du groupe de renseignement sur les menaces pour cette entreprise spécialisée dans la cybersécurité. « Nous utilisons un plugin appelé Pinokio, un script Python utilisant le modèle davinci-003 pour faciliter la recherche de vulnérabilités sur les fonctions décompilées par l'outil IDA », détaille-t-il.

Eliminer les candidats trop dépendants de l'IA

Check Point s'appuie également sur l'intelligence artificielle pour rationaliser le processus d'investigation sur les logiciels malveillants. La société utilise Gepetto, un script Python s'appuyant sur les modèles GPT-3.5 et GPT-4, pour fournir un contexte aux fonctions décompilées par l'outil IDA. « Gepetto clarifie le rôle de certaines fonctions du code et peut même renommer automatiquement ses variables », explique Sergey Shykevich.

Certaines red et blue team ont également trouvé des moyens contre-intuitifs d'obtenir l'aide de l'IA. Anastasiia Voitova, responsable de l'ingénierie de sécurité chez Cossack Labs, explique ainsi que son équipe défensive réfléchit à cette technologie dans le cadre du processus de recrutement, en essayant de filtrer les candidats qui dépendent trop de l'IA. « Lorsque j'embauche de nouveaux ingénieurs en cybersécurité, je leur donne une tâche en test, et certains d'entre eux demandent simplement à ChatGPT et copient-collent aveuglément la réponse sans réfléchir », explique Anastasiia Voitova. « ChatGPT est un bon outil, mais ce n'est pas un ingénieur, alors en embauchant des candidats qui ne possèdent pas les bonnes compétences, la vie d'une équipe défensive peut devenir rapidement beaucoup plus difficile ».

Décomposer le quotidien des red team et blue team

Les équipes offensives et défensives qui cherchent à incorporer de grands modèles de langage dans leur travail quotidien doivent le faire de manière systématique. Elles doivent diviser ce quotidien en étapes/processus, puis examiner chaque étape et déterminer si la technologie des LLM peut les aider dans une étape spécifique ou non, explique Sergey Shykevich. Ce processus n'est pas simple et exige des experts en sécurité de penser différemment. Il s'agit d'un « changement de paradigme », comme le dit Brandon Kovacs. Confier à un système des tâches liées à la cybersécurité qui étaient habituellement effectuées par des humains peut s'avérer difficile si les risques de sécurité posés par la technologie ne font pas l'objet d'un examen approfondi.

Heureusement, les barrières à l'entrée pour former et exécuter ses propres modèles d'IA se sont abaissées au cours de l'année écoulée, en partie grâce à la prévalence des communautés d'IA en ligne, comme HuggingFace, qui permettent à tout un chacun d'accéder et de télécharger des modèles open source à l'aide d'un kit de développement logiciel. « Par exemple, nous pouvons rapidement télécharger et exécuter les modèles Open Pre-trained Transformer Language Models (OPT) localement sur notre propre infrastructure, ce qui nous donne l'équivalent des réponses de GPT, en seulement quelques lignes de code, sans les garde-fous et les restrictions généralement mis en oeuvre par ChatGPT », illustre Brandon Kovacs. Les red team et blue team qui souhaitent utiliser de grands modèles de langage doivent tenir compte des implications éthiques potentielles de cette technologie. Il s'agit notamment de la protection de la vie privée, de la confidentialité des données, des préjugés et du manque de transparence. « La prise de décision en matière d'IA peut être assez opaque », résume Brandon Kovacs.

Les limites des LLM

Et, lors de l'utilisation des LLM, les équipes offensives et défensives doivent toutefois garder à l'esprit que « la technologie n'est pas parfaite », comme le dit Brandon Kovacs. « L'IA et les LLM sont encore relativement nouveaux et en sont à leurs balbutiements. Qu'il s'agisse d'améliorer la sécurité des systèmes d'IA eux-mêmes ou de résoudre les problèmes d'éthique et de protection de la vie privée soulevés par cette technologie, il nous reste encore beaucoup de chemin à parcourir ». Brandon Kovacs et la plupart des chercheurs considèrent en fait les LLM comme un moyen de compléter et d'assister les équipes offensives et défensives, et non de les remplacer entièrement, car si ces modèles excellent dans le traitement des données et l'élaboration d'idées, ils manquent d'intuition et de compréhension du contexte humain.

« Les LLM sont encore loin de pouvoir remplacer les chercheurs ou de prendre des décisions liées aux recherches en cybersécurité ou aux red team », explique Sergey Shykevich. « C'est un outil qui facilite le travail, mais les chercheurs doivent encore examiner ses résultats. » La qualité des données est également importante, comme le souligne Brandon Kovacs : « l'efficacité des LLM et les résultats qu'ils fournissent sont fortement influencés par la qualité des données fournies lors de l'apprentissage du modèle. Dans les années à venir, cette technologie sera de plus en plus intégrée dans la vie quotidienne des experts en technologie, transformant potentiellement tout le monde en puissant analyste en cybersécurité ».

L'IA pour détecter et répondre aux menaces

Des outils permettant d'atteindre cet objectif, tels que Charlotte AI, récemment lancé par CrowdStrike, ont commencé à voir le jour. Ce dernier se présente comme un analyste de sécurité basé sur l'IA générative que les entreprises peuvent solliciter (en anglais et dans des dizaines d'autres langues). « De grands modèles linguistiques sont construits pour intégrer des connaissances provenant de sources de données externes, ainsi que des données générées par des technologies telles que notre plateforme Falcon », a fait savoir un porte-parole de CrowdStrike.

Dans ce contexte, pour tout membre d'une red team ou d'une blue team, se tenir au courant de l'évolution de l'IA devient une nécessité. Dans les années à venir, des outils de plus en plus sophistiqués seront utilisés tant sur le plan offensif que défensif. « Du côté offensif, nous pouvons nous attendre à voir des attaques plus avancées et automatisées, en plus des attaques d'ingénierie sociale de plus en plus sophistiquées telles que les deepfakes ou le phishing vocal », explique Brandon Kovacs. « Du côté défensif, nous pouvons nous attendre à ce que l'IA joue un rôle crucial dans la détection et la réponse aux menaces, et aide les analystes de sécurité à automatiser et à passer au crible de vastes ensembles de données pour identifier les menaces potentielles ». Comme ce dernier le prévoit, les pirates continueront d'utiliser les LLM et d'imaginer des moyens innovants pour infiltrer les organisations et enfreindre les règles de sécurité. Les équipes de sécurité doivent donc garder une longueur d'avance. En combinant l'intelligence humaine et les capacités de l'IA, red team et blue team pourront sans doute mieux contribuer à minimiser l'impact des cyberattaques.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Avez-vous déjà rapatrié une application depuis le cloud public ou bloqué son déploiement en production sur cet environnement pour des questions tarifaires ?