Décidément, l’intelligence artificielle est partout. Microsoft vient ainsi d’annoncer Security Copilot, un nouvel outil utilisant GPT-4. Celui-ci devrait être le compagnon idéal pour les professionnels de la cybersécurité…
Microsoft met gros sur l’intelligence artificielle. L’entreprise a d’ailleurs investi plusieurs millions de dollars dans un supercalculateur dédié à ChatGPT et son successeur, GPT-4. Plus tôt ce mois-ci, la société présentait Copilot, un assistant virtuel capable de générer des présentations PowerPoint. Mais Microsoft va encore plus loin, en proposant une variante dédiée à la cybersécurité….
Crédit photo : Microsoft
Copilote de sécurité est donc un nouvel assistant destiné aux professionnels de la cybersécurité, conçu pour aider les utilisateurs à identifier les failles et à mieux comprendre les données à traiter. Celui-ci est alimenté par l’IA générative GPT-4 d’OpenAI. L’assistant se présente sous la forme d’un chatbot classique, comparable à ChatGPT. Il est toutefois possible de lui poser des questions bien précises.
Microsoft : Security Copilot n’est pas infaillible
Ainsi, il est possible de lui demander, par exemple, quelles sont les failles de sécurité rencontrées par une entreprise. Le chatbot pourra alors répondre à cette question, en indiquant les problèmes rencontrés. Pour mener à bien cette tâche, l’IA utilise les 65 milliards de signaux quotidiens recueillis par Microsoft dans le cadre de sa collecte de renseignements sur les menaces en matière de cybersécurité.
Cependant, Security Copilot n’est évidement pas infaillible. Chang Kawaguchi, expert en sécurité IA chez Microsoft, précise ainsi : «Nous savons que ces modèles se trompent parfoisc’est pourquoi nous proposons la possibilité de nous assurer que nous avons un retour d’information […] Le processus est beaucoup plus complexe que les simples mentionnent des éléments positifs ou négatifs que l’on trouve sur Bing. C’est un peu plus compliqué que cela, car il y a de nombreuses façons de se tromper“.
Bien que le Security Copilot de Microsoft ressemble à une interface classique de chatbot comme Bing, l’entreprise l’a limitée aux seules requêtes liées à la sécurité. Le responsable précise ainsi : «Nous ne pensons pas qu’il s’agisse d’une expérience de chat. Nous pensons vraiment qu’il s’agit plus d’une expérience de bloc-notes que d’un chat de forme libre ou d’un chatbot à usage général.”
Source : Kompas