blank

blank

O mundo da segurança cibernética está passando por uma enorme transformação e a Inteligência Artificial (IA) está na vanguarda desta mudança. Com potencial de capacitar as organizações para derrotar ataques cibernéticos com mais agilidade, resolver a escassez de mão de obra de tecnologia, impulsionar a inovação e ampliar a eficiência na segurança cibernética. Por outro lado, os adversários podem usar a IA como parte de seus ataques. Portanto, nunca foi tão crítico proteger o nosso mundo com a ajuda da IA, como é importante preservar a IA para o nosso mundo.

Nesta quarta-feira (14), lançamos a sexta edição do Cyber Signals, destacando como estamos protegendo as plataformas de IA contra perigos emergentes relacionados a ameaças cibernéticas de atores ligados a Estados.

Em colaboração com a OpenAI, estamos compartilhando insights sobre atores de ameaças afiliados a Estados e rastreados pela Microsoft como Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon e Salmon Typhoon, que buscaram usar modelos de linguagem grande (LLMs) para aumentar suas operações de ataque cibernético em andamento. Nossas observações dos primeiros movimentos incrementais em torno da IA realizados por esses conhecidos atores de ameaças, são expostos nesta pesquisa e sinalizam como bloqueamos as atividades deles para proteger plataformas e usuários de IA.

Também estamos anunciando os princípios da Microsoft, que orientam nossas ações para mitigar os riscos de Ameaças Avançadas Persistentes oriundas de Estados, Manipuladores Persistentes Avançados e sindicatos de cibercriminosos usando plataformas de IA e APIs. Esses princípios incluem identificação e notificação do uso de agentes mal-intencionados a outros provedores de serviços de IA, com colaboração com outras partes interessadas e transparência.

Além disso, a Microsoft está ajudando a comunidade de segurança a entender e detectar as perspectivas emergentes de LLMs em atividades de ataque. Nesse sentido, continuamos a trabalhar com o MITRE para integrar essas táticas, técnicas e procedimentos (TTPs, em inglês) temáticos de LLM no framework MITRE ATT&CK®ou MITRE ATLAS™ (Adversarial Threat Landscape for Artificial-Intelligence Systems / Cenário de ameaças adversárias para sistemas de inteligência artificial). Essa expansão estratégica reflete o compromisso de ir além de rastrear e neutralizar ameaças, mas também de sermos pioneiros no desenvolvimento de respostas a um crescente cenário de operações cibernéticas alimentadas por IA.

Esta edição do Cyber Signals compartilha insights e ensinamentos sobre como os agentes de ameaças estão usando a inteligência artificial para refinar seus ataques e como usamos a IA para proteger a Microsoft.

Cibercriminosos e atores patrocinados por Estados estão observando a IA, incluindo LLMs, visando aumentar sua produtividade e tirar proveito de plataformas que podem promover seus objetivos e disseminar técnicas de ataque. Embora os motivos e a sofisticação dos agentes de ameaças variem, eles compartilham tarefas comuns ao implantar ataques. Isso inclui um trabalho de reconhecimento como pesquisar atividades econômicas, locais e relacionamentos de vítimas em potencial; na área da programação com a inclusão de melhoria de scripts de software e desenvolvimento de malware; além de uso de assistência com o aprendizado e uso de linguagens humanas e de máquina. Nesse sentido, nossa pesquisa com a OpenAI não identificou ataques significativos empregando os LLMs, mesmo os que monitoramos de perto.

A Microsoft usa vários métodos para se proteger desses tipos de ameaças cibernéticas. Isso inclui a detecção de ameaças alimentada por IA para encontrar alterações na forma como os recursos ou o tráfego na rede são usados; análise comportamental para detectar logins de maior risco e comportamento anômalo; modelos de aprendizado de máquina para detectar entradas arriscadas e malware; Zero Trust, onde cada solicitação de acesso precisa ser totalmente autenticada, autorizada e criptografada, e a integridade do dispositivo deve ser verificada antes que ele possa se conectar à rede corporativa.

Além disso, a IA generativa tem um grande potencial para ajudar os defensores a proteger suas organizações com mais agilidade. Desde o aprimoramento da detecção de ameaças até a simplificação da resposta a incidentes, os recursos da IA estão remodelando a segurança cibernética. O papel da IA na cibersegurança é multifacetado, impulsionando a inovação e a eficiência em vários domínios.

O uso de LLMs em segurança cibernética é uma prova do enorme potencial da IA. Esses modelos podem analisar grandes quantidades de dados para descobrir padrões e tendências em ameaças, adicionando contexto valioso à inteligência defensiva. Os LLMs auxiliam em tarefas técnicas como engenharia reversa e análise de malware, fornecendo uma nova camada de defesa contra os ataques cibernéticos. Por exemplo, os usuários do Microsoft Copilot for Security mostraram um aumento de 44% na precisão em todas as tarefas e uma taxa de conclusão 26% mais rápida. Esses números destacam os benefícios tangíveis da integração da IA nas práticas de segurança cibernética.1

A medida que garantimos o futuro da IA, temos de reconhecer a dupla natureza da tecnologia: ela traz novas capacidades, bem como novos riscos. A IA não é apenas uma ferramenta, mas uma mudança de paradigma na cibersegurança. Ele nos capacita a nos defender contra ameaças cibernéticas sofisticadas e, também, a nos adaptar ao cenário dinâmico de ameaças. Ao adotar a IA podemos ajudar a construir um futuro seguro para todos.

Cyber Signals

Veja como a Microsoft está protegendo as plataformas de IA de tentativas de abuso por parte de agentes de ameaças cibernéticas ligados a Estados.

Leia o relatório | Confira a publicação no Source Brasil

 

Para saber mais sobre as soluções de segurança da Microsoft, visite nosso site. Confira o blog de segurança  para acompanhar nossa cobertura especializada em assuntos de cibersegurança. Além disso, siga-nos no LinkedIn (Microsoft Security) e X (@MSFTSecurity) para as últimas notícias e atualizações sobre segurança cibernética.

1O que os primeiros usuários do Copilot podem nos ensinar sobre IA generativa no trabalho? Microsoft. 15 de novembro de 2023.

© 2024 A MITRE Corporation. Este trabalho é reproduzido e distribuído com a permissão da MITRE Corporation.


Descubra mais sobre DCiber

Assine para receber os posts mais recentes por e-mail.