Falhas críticas frequentes expõem os usuários do MLFlow a ameaças iminentes

Início / Tecnologia da Informação / Falhas críticas frequentes expõem os usuários do MLFlow a ameaças iminentes

Falhas críticas frequentes expõem os usuários do MLFlow a ameaças iminentes

MLFlow emergiu como o código aberto mais vulnerável em aprendizado de máquina framework com quatro vulnerabilidades altamente críticas (CVSS 10) relatadas em 50 dias, de acordo com um relatório da Protect AI.

O programa de recompensas de bugs AI/ML da Protect AI, hunter AI, descobriu essas vulnerabilidades na plataforma MLFlow, que pode permitir execução remota de código (RCE), substituição arbitrária de arquivos e inclusão de arquivo local. Isso poderia levar ao controle do sistema, perda de informações confidenciais, negação de serviço e destruição de dados, de acordo com a Protect AI.

“O relatório inclui quatro falhas críticas encontradas no MLflow, a popular plataforma de código aberto usada por profissionais para gerenciar vários estágios de um projeto de aprendizado de máquina, incluindo experimentação, reprodutibilidade, implantação e um registro de modelo central”, disse Protect AI.

Com alternativas menos procuradas como Amazon Sagemaker, Neptune, Comet e KuberFlow, MLFlow é uma plataforma de ciclo de vida de aprendizado de máquina amplamente popular, com mais de 10 milhões de downloads mensais e uma rica comunidade de usuários, incluindo Facebook, Databricks, Microsoft, Accenture e Booking.com. Para entender melhor este cenário, leia sobre a importância da segurança cibernética na transformação digital.

Hunter AI rastreou vulnerabilidades pesadas de RCE

Rastreada como CVE-2024-0520, a vulnerabilidade mais recente revelada pela Hunter AI é uma falha de passagem de caminho no código usado para desativar o armazenamento remoto de dados. A falha pode ser usada para um ataque de execução remota de código (RCE), enganando um usuário e fazendo-o usar uma fonte de dados remota maliciosa que pode executar comandos em nome do usuário. Mais detalhes podem ser encontrados no artigo sobre invasores implantando rootkits em servidores.

O código afetado é nativo do módulo MLFlow.data listado no registro PyPi, que é usado para ajudar a manter um registro de treinamento de modelo e conjuntos de dados de avaliação. O bug, que foi corrigido na versão mais recente do MLFLow, não teve explorações ativas conhecidas.

Uma vulnerabilidade detectada em dezembro de 2023, rastreada como CVE-2023-6709, também foi capaz de permitir ataques RCE. A falha permitiu a validação inadequada de elementos especiais usados ​​em um mecanismo de template no MLFlow, de acordo com uma descrição de entrada do CVE. Um mecanismo de modelo é um repositório git com um layout modular padronizado contendo todo o código personalizável.

Outros bugs permitem possível controle do sistema

Outra vulnerabilidade descoberta em dezembro, rastreada como CVE-2023-6831, permitiu um desvio em uma função MLFlow que valida caminhos de arquivo. Um invasor pode usar a falha para sobrescrever remotamente arquivos no servidor MLFlow. Essa abordagem é similar à vulnerabilidade encontrada em impressoras, conforme descrito em ataques de path traversal em impressoras Kyocera.

“Essa falha arbitrária de substituição de arquivo também pode ser combinada com etapas adicionais de substituição de chaves SSH no sistema para realizar um ataque RCE”, disse Protect AI. O bug afetou versões do MLFlow anteriores a 2.9.2 com correções disponíveis nas atualizações mais recentes.

A quarta falha crítica revelada pelo caçador AI também ocorreu em dezembro, permitindo que atores mal-intencionados lessem arquivos confidenciais no servidor MLFlow.

“O MLflow hospedado em certos tipos de sistema operacional pode ser induzido a exibir o conteúdo de arquivos confidenciais por meio de um desvio de segurança do caminho do arquivo”, disse Protect.AI. “Há potencial para controle do sistema se chaves SSH ou chaves de nuvem forem armazenadas no servidor e o MLflow for iniciado com permissões para lê-las.” Com o lançamento dos Large Language Models (LLMs), as organizações estão rapidamente mudando para construir seus próprios IA generativa. Com essas fraquezas críticas, estruturas de aprendizado de máquina de código aberto como o MLFlow podem permitir o roubo ou envenenamento de dados de treinamento confidenciais.

Leitura relacionada:

Roberto Magalhães

O cérebro editor por trás do Tecnologico.online, é um entusiasta apaixonado por tecnologia. Canaliza sua fascinação para criar conteúdo envolvente e informativo. Sua dedicação à inovação reflete-se nos artigos que produz, abrangendo uma ampla gama de tópicos tecnológicos. Com um olhar atento para as últimas tendências e desenvolvimentos, busca tornar...

Voltar para o blog

Deixe um comentário

Os comentários precisam ser aprovados antes da publicação.