Microsoft desenvolve sistema de segurança cibernética que usa Inteligência Artificial

O Security Copilot usa o modelo de AI generativa, o mesmo do popular ChatGPT; empresa admite início lento até ferramenta aprender mais e ganhar maior efetividade
Imagem da matéria: Microsoft desenvolve sistema de segurança cibernética que usa Inteligência Artificial

Shutterstock

À medida que os ataques cibernéticos se tornam mais sofisticados e complexos, as empresas de tecnologia estão recorrendo à Inteligência Artificial (AI, na sigla em inglês) para ajudar a detectar e prevenir ataques em tempo real.

Uma delas é gigante global de software Microsoft, que anunciou na terça-feira (28) o lançamento do Security Copilot, uma nova ferramenta que usa AI generativa.

Publicidade

AI generativa é um tipo de inteligência artificial que usa grandes conjuntos de dados e modelos de linguagem para gerar padrões e conteúdo como imagens, texto e vídeo. O ChatGPT é o exemplo mais conhecido desse tipo de aplicação.

O Microsoft 365 Copilot, um mecanismo de AI desenvolvido para alimentar um conjunto de aplicativos do Office, foi lançado no início deste mês. O Security Copilot, a primeira ferramenta Copilot especializada, permitirá que os administradores de TI e segurança analisem rapidamente grandes quantidades de dados e detectem sinais de uma ameaça cibernética.

WOW!!! What an exciting announcement 😲 Microsoft Security Copilot aka. GAME CHANGER! https://t.co/HzLTww5ynJ #securitycopilot #microsoftsecure #cybersecurity #GPT4

— Heike Ritter (@HeikeRitter) March 28, 2023

“Em um mundo onde há 1.287 ataques à senhas por segundo, ferramentas e infraestrutura fragmentadas não foram suficientes para impedir os invasores”, disse a Microsoft em um comunicado à imprensa. “E embora os ataques tenham aumentado 67% nos últimos cinco anos, o setor de segurança não conseguiu contratar profissionais de risco cibernético suficientes para acompanhar o ritmo.”

Como outras implementações generativas de AI, o Security Copilot é acionado por uma consulta ou solicitação de um usuário e responde usando os “últimos recursos de modelo de linguagem”, e a Microsoft diz que sua ferramenta é “exclusiva para uso em segurança”.

Publicidade

“Nosso modelo de treinamento cibernético adiciona um sistema de aprendizado para criar e ajustar novas habilidades [para] ajudar a detectar o que outras abordagens podem perder e aumentar o trabalho de um analista”, explicou a Microsoft. “Em um incidente típico, esse aumento se traduz em ganhos na qualidade da detecção, velocidade de resposta e capacidade de fortalecer a postura de segurança”.

Início em marcha lenta

Mas a própria Microsoft, assim como especialistas externos em segurança de computadores, disse que levará um tempo para que a ferramenta ganhe velocidade.

“A AI ainda não é avançada o suficiente para detectar falhas na lógica de negócios ou contratos inteligentes. Isso ocorre porque a IA é baseada em dados de treinamento, que ela usa para aprender e se adaptar”, disse Steve Walbroehl, cofundador e CTO da empresa de segurança blockchain Halborn, ao Decrypt em uma entrevista.

“Obter dados de treinamento suficientes pode ser difícil, e a IA pode não ser capaz de substituir totalmente a mente humana na identificação de vulnerabilidades de segurança.”

Publicidade

A Microsoft está pedindo paciência: à medida que o Copilot aprende com as interações do usuário, a empresa ajustará suas respostas para criar respostas mais coerentes, relevantes e valiosas.

“O copiloto de segurança nem sempre faz tudo certo. O conteúdo gerado por AI pode conter erros”, disse a empresa. “Mas o Security Copilot é um sistema de aprendizado de circuito fechado, o que significa que está aprendendo continuamente com os usuários e permitindo que eles forneçam feedback explícito com o recurso de feedback integrado diretamente na ferramenta.”