Protegendo a IA: o caminho para uma tecnologia confiável

Início / Tecnologia da Informação / Protegendo a IA: o caminho para uma tecnologia confiável

Protegendo a IA: o caminho para uma tecnologia confiável

O ritmo de adoção da tecnologia está se acelerando. Enquanto os usuários demoravam anos para adotar amplamente novas tecnologias, agora eles estão adotando novas tendências em questão de meses.

Veja a evolução dos telefones, da internet e das mídias sociais, por exemplo. Demorou 16 anos para que os smartphones fossem adotados por 100 milhões de usuários e 7 anos para a Internet. No entanto, o Instagram pegou em apenas 2,5 anos, e o TikTok explodiu todos esses números quando atingiu 100 milhões de usuários em apenas 9 meses. Se você achou que isso era rápido, espere até ouvir falar de IA.

A IA generativa está preparada para ser uma das tecnologias mais transformadoras do nosso tempo. Em comparação com as tecnologias acima, a IA conquistou as manchetes e os consumidores diários – com o ChatGPT atingindo a marca de 100 milhões de usuários em apenas 2 meses.

No entanto, esse ritmo rápido de adoção também destaca a importância da adoção e do desenvolvimento seguros e adequados da IA ​​para garantir que esta não se torne uma vulnerabilidade generalizada para empresas, consumidores e entidades públicas. Continue lendo para obter alguns insights sobre como adotar a IA de forma mais responsável e como você pode aproveitar os avanços da IA ​​em sua organização.

O que está impulsionando a rápida adoção da IA ​​generativa?

A IA generativa marca um ponto de inflexão no nosso panorama tecnológico, com benefícios essenciais para o utilizador que a tornam mais acessível e mais útil para o consumidor quotidiano. Basta pensar na IA generativa em comparação com aplicações de IA legadas.

A IA tradicional pode ser comum hoje em dia, mas está escondida nas profundezas da tecnologia na forma de ferramentas como assistentes de voz, mecanismos de recomendação, algoritmos de mídia social e muito mais. Essas soluções de IA foram treinadas para seguir regras específicas, realizar um trabalho específico e fazê-lo bem, mas não criam nada de novo.

Por outro lado, a IA generativa marca a próxima geração de inteligência artificial. Ele usa informações como linguagem natural, fotos ou texto para criar conteúdo totalmente novo. Isso torna a IA generativa altamente personalizável, com a capacidade de aprimorar as habilidades humanas, descarregar tarefas rotineiras e ajudar as pessoas a obter mais valor de seu tempo e energia.

Dito isto, também é importante entender o que não é. Não é um substituto para os humanos. Comete erros, exige supervisão e precisa de monitorização contínua. Melhor do que isso, tem o poder para permitir um conjunto de talentos mais diversificado na indústria de segurança cibernética, pois apoia o trabalho de profissionais e operações de segurança. Como comunidade colectiva de cibersegurança, também precisamos de garantir que faz parte de um ecossistema seguro e saudável de tecnologia e de utilizadores de tecnologia.

Os principais componentes da IA ​​responsável

Uma das principais preocupações em torno da IA ​​generativa hoje é a sua segurança. Embora a perda de dados, a privacidade e a ameaça de invasores façam parte desse medo, muitos potenciais adotantes também estão cautelosos com o possível uso indevido da IA, bem como com os comportamentos indesejados da IA.

A IA generativa pode ter surgido apenas recentemente na consciência pública mais ampla, no início de 2023, mas na Microsoft, nossa jornada de IA levou mais de 10 anos para ser construída. Descrevemos nosso primeiro IA responsável estrutura em junho de 2016 e criou um Escritório de IA Responsável em 2019. Esses marcos e outros nos deram uma visão profunda das melhores práticas em torno da segurança da IA.

Na Microsoft, acreditamos que o desenvolvimento e a implementação da IA ​​devem ser orientados pela criação de um quadro ético. Esta estrutura deve incluir componentes principais como:

  1. Justiça – Os sistemas de IA devem tratar todas as pessoas de forma justa e distribuir oportunidades, recursos e informações de forma equitativa aos humanos que os utilizam.
  2. Confiabilidade e segurança – Os sistemas de IA devem funcionar de forma fiável e segura para pessoas em diferentes condições e contextos de utilização, incluindo aqueles para os quais não foram originalmente concebidos.
  3. Privacidade e segurança – Os sistemas de IA devem ser seguros desde a concepção, com salvaguardas intencionais que respeitem a privacidade.
  4. Inclusão – Os sistemas de IA devem capacitar todos e envolver pessoas de todas as capacidades.
  5. Transparência – Os sistemas de IA devem ser compreensíveis e ter em conta as formas como as pessoas podem interpretar mal, utilizar indevidamente ou estimar incorretamente as capacidades do sistema.
  6. Responsabilidade – As pessoas devem ser responsáveis ​​pelos sistemas de IA, com directrizes de supervisão deliberadas que garantam que os seres humanos permaneçam no controlo.

Inovação apoiando a profundidade e amplitude dos profissionais de segurança

No recente evento Microsoft Ignite, avanços cruciais em segurança cibernética foram revelados, remodelando o cenário da segurança digital. Um dos principais desenvolvimentos, o recém-lançado Microsoft Security Copilot é uma prova desta evolução. Esta solução de IA generativa de ponta foi projetada para mudar decisivamente o equilíbrio em favor dos defensores cibernéticos. Construída sobre a base de um enorme repositório de dados, abrangendo 65 trilhões de sinais diários e insights do monitoramento de mais de 300 grupos de ameaças cibernéticas, esta ferramenta é uma virada de jogo. Ele foi projetado para aprimorar os recursos das equipes de segurança, proporcionando-lhes uma compreensão mais profunda e abrangente do cenário de ameaças cibernéticas. O objetivo é claro: capacitar estas equipas com poderes analíticos e preditivos superiores, permitindo-lhes estar um passo à frente dos cibercriminosos.

Cimentando ainda mais o compromisso da Microsoft em revolucionar a segurança cibernética, o lançamento da primeira plataforma unificada de operações de segurança alimentada por IA do setor marcou outro destaque do evento. Além disso, a expansão do Security Copilot em vários serviços de segurança da Microsoft, incluindo Microsoft Purview, Microsoft Entra e Microsoft Intune, significa um movimento estratégico para capacitar as equipes de segurança e de TI, permitindo-lhes enfrentar ameaças cibernéticas com velocidade e precisão sem precedentes. Estas inovações, apresentadas no Microsoft Ignite, não são apenas atualizações; são passos transformadores em direção a um futuro digital mais seguro.

Quer saber mais sobre IA segura e outras tendências emergentes em segurança cibernética? Confira Insider de segurança da Microsoft para obter os insights mais recentes e explorar as novidades deste ano Sessões do Microsoft Ignite Sob demanda.

Leitura relacionada:

Roberto Magalhães

O cérebro editor por trás do Tecnologico.online, é um entusiasta apaixonado por tecnologia. Canaliza sua fascinação para criar conteúdo envolvente e informativo. Sua dedicação à inovação reflete-se nos artigos que produz, abrangendo uma ampla gama de tópicos tecnológicos. Com um olhar atento para as últimas tendências e desenvolvimentos, busca tornar...

Voltar para o blog

Deixe um comentário

Os comentários precisam ser aprovados antes da publicação.