Pesquisadores desenvolveram malware furtivo com inteligência artificial

malware de inteligência artificial

A Inteligência Artificial (AI) tem sido vista como uma possível solução para detectar e combater malware automaticamente, e parar ataques cibernéticos antes que eles afetem qualquer organização.

No entanto, a mesma tecnologia também pode ser armada por agentes de ameaças para alimentar uma nova geração de malware que pode escapar das melhores defesas de segurança cibernética e infectar uma rede de computadores ou iniciar um ataque apenas quando o rosto do alvo for detectado pela câmera.

Para demonstrar este cenário, pesquisadores de segurança da IBM Research criaram o DeepLocker - uma nova geração de "ataque altamente alvejado e evasivo", que esconde sua intenção maliciosa até atingir uma vítima específica.

Segundo o pesquisador da IBM, DeepLockervoa sem ser detectado e "desencadeia sua ação mal-intencionada assim que o modelo AI identifica o alvo por meio de indicadores como reconhecimento facial, geolocalização e reconhecimento de voz".

Descrevendo-a como a abordagem "spray and pray" do malware tradicional, os pesquisadores acreditam que esse tipo de malware furtivo baseado em inteligência artificial é particularmente perigoso porque, como o malware de estado-nação, poderia infectar milhões de sistemas sem ser detectado.

O malware pode ocultar sua carga maliciosa em aplicativos benignos de operadoras, como software de videoconferência, para evitar a detecção pela maioria dos antivírus e scanners de malware até que ele atinja vítimas específicas identificadas por indicadores como reconhecimento de voz, reconhecimento facial, geolocalização e outros sistemas. recursos de nível.


"O que é único no DeepLocker é que o uso de AI faz com que as" condições de disparo "para desbloquear o ataque sejam quase impossíveis de fazer engenharia reversa", explicam os pesquisadores. "A carga maliciosa só será desbloqueada se o alvo pretendido for atingido."

malware de inteligência artificial deeplocker

ara demonstrar as capacidades do DeepLocker, os pesquisadores projetaram uma prova de conceito, camuflando o conhecido WannaCry ransomware em um aplicativo de videoconferência, para que ele permaneça não detectado por ferramentas de segurança, incluindo mecanismos antivírus e caixas de proteção de malware.

Com a condição de disparo integrada, o DeepLocker não desbloqueou e executou o ransomware no sistema até reconhecer a face do alvo, que pode ser correspondida usando fotos publicamente disponíveis do destino.


"Imagine que esse aplicativo de videoconferência seja distribuído e baixado por milhões de pessoas, o que é um cenário plausível atualmente em muitas plataformas públicas. Quando lançado, o aplicativo alimentava sorrateiramente os instantâneos da câmera no modelo AI incorporado, mas se comportava normalmente para todos os usuários exceto o alvo pretendido ", acrescentaram os pesquisadores.
"Quando a vítima se senta na frente do computador e usa o aplicativo, a câmera alimenta seu rosto com o aplicativo, e a carga maliciosa será executada secretamente, graças ao rosto da vítima, que era a chave pré-programada para desbloqueá-lo."
Assim, tudo o que o DeepLocker exige é a sua foto, que pode ser facilmente encontrada em qualquer um dos seus perfis de mídia social no LinkedIn, Facebook, Twitter, Google+ ou Instagram, para segmentá-lo.

Recentemente, a Trustwave abriu uma ferramenta de reconhecimento facial chamada Social Mappe r, que pode ser usada para procurar alvos em várias redes sociais de uma só vez.

O grupo IBM Research revelará mais detalhes e uma demonstração ao vivo de sua implementação de prova de conceito do DeepLocker na conferência de segurança Black Hat USA, em Las Vegas, na quarta-feira.

Comentários