Quais regras devem ser aplicadas à IA? A UE está atualmente lidando intensamente com esta questão. Seu zelo é notável, embora o projeto de lei ainda não esteja perfeito.
A Inteligência Artificial (IA) tem gerado grandes esperanças, não apenas para os tecno-solucionistas. Ao identificar padrões em grandes volumes de dados, as técnicas de IA podem ajudar a analisar, prever, recomendar e até mesmo tomar decisões em todos os domínios de nossas vidas – um recurso bem-vindo por muitos. Isso normalmente se resume à análise e influência dos fenômenos sociais por meio de sua quantificação.
No entanto, tais processos não são perfeitos: geralmente apenas pontos de dados indiretos (proxies) podem ser coletados com alguns aspectos perdidos na tradução. Além disso, teme-se que “(i) se você digitalizar um processo quebrado, você terá um processo quebrado digitalizado” .
“Se você digitalizar um processo quebrado, você terá um processo quebrado digitalizado.” Para entender a raiz dos problemas, você precisa começar com as pessoas, não com a tecnologia. @taradmcguinness falando sobre seu novo livro com @hanaschank #powertothepublic
— Anne-Marie Slaughter (@SlaughterAM) 13 de abril de 2021
Advogados e especialistas em ética em particular, sempre o espectro de novas corridas sociais, estão principalmente intrigados com uma questão: se a coleta de quantidades sem precedentes de dados apenas nos mostra um vislumbre de como o mundo é ao invés de como deveria estarque deve então fazer as escolhas normativas inerente ao design e uso da IA – e como?
Construir a abordagem da UE
Estados correram colher as oportunidades da IA e – nem sempre com tanto entusiasmo – mitigar seus riscos adotando estratégias de IA (por exemplo, China 2017 , UE 2018 , EUA 2019 ). o Estratégia Europeia tem como objetivo impulsionar a aceitação e a pesquisa da IA, enfrentar os desafios socioeconômicos relacionados e garantir uma estrutura ética e legal adequada.
Tais empreendimentos regulatórios já enfrentavam dificuldades fundamentais quando se tratava apenas de definir IA. Este foi o primeiro ponto da agenda da Comissão Europeia Grupo de Especialistas de Alto Nível em IA (HLEG) que se encarregou de preparar Diretrizes de ética da IA e recomendações de política .
O HLEG discutiu extensivamente a estrutura normativa que deveria orientar a regulamentação da IA e argumentou de forma convincente que ela deveria se basear na proteção dos direitos fundamentais, da democracia e do estado de direito. Seus tópicos de debate também abrangeram a dependência dos riscos da IA no contexto e modo de aplicação (pense em seu uso para tratamentos médicos versus seu uso para recomendações de músicas) e, tecnicamente, a relevância da diferença entre IA tradicional baseada em regras com IA previamente codificada regras e IA orientada por dados, que por sua vez deriva regras de dados.
Embora enfatizando que todo uso de tecnologia deve ser confiável, o HLEG argumentou por que a IA pode merecer uma abordagem regulatória específica – inter alia devido à falta de transparência e responsabilidade que não é adequadamente abordada pelas regras existentes.
Em suas diretrizes, o HLEG, portanto, definiu “IA confiável” como uma IA legal, ética e robusta. Para interligar a lei e a ética, os princípios éticos das diretrizes foram derivados dos direitos fundamentais e concretizados em sete requisitos principais que os desenvolvedores e implantadores de sistemas de IA devem atender.
Em vez de um simples exercício de seleção, esses requisitos devem ser considerados já na fase de design, com a ajuda de um lista de avaliação que operacionaliza cada requisito através de questões específicas a abordar. Em termos de sugestões de políticas, o HLEG recomendou uma abordagem baseada em risco para a regulamentação da IA e a introdução de nova legislação para garantir a responsabilidade pelo impacto adverso da IA.
Escopo da Lei
A Comissão Europeia estava disposta a aceitar esta sugestão. Em abril de 2021, propôs a Lei de IA com o objetivo de cobrir lacunas jurídicas existentes na legislação, como a RGPD e leis de proteção ao consumidor, em vez de preencher um vácuo legal. Seguindo o Livro Branco de 2020 sobre IA o regulamento proposto visa criar um “ecossistema de excelência e confiança” na Europa, protegendo os direitos fundamentais e eliminando os obstáculos ao comércio.
Com um amplo âmbito geográfico, aplica-se a todos os fornecedores de sistemas de IA com impacto na União. Embora vários domínios de aplicação de IA sejam visados, excluem-se os sistemas exclusivamente desenvolvidos ou utilizados para fins militares, que – dados os riscos significativos a eles associados – enfrentou críticas .
Em termos de definição de IA, a Comissão inspirou-se na definição proposta pelo HLEG e a OCDE . A Lei define IA de forma ampla, abrangendo não apenas sistemas de IA baseados em abordagens de aprendizado de máquina, mas também aqueles conduzidos por abordagens baseadas em lógica e conhecimento, bem como abordagens estatísticas, produzindo “saídas como conteúdo, previsões, recomendações ou decisões que influenciam o ambientes com os quais eles interagem” para objetivos humanos.
Como uma ampla definição de IA também envolve um amplo escopo de aplicações de IA sujeitas à Lei, um campo de batalha de definição está surgindo durante as negociações em curso sobre a lei.
Regulação por risco
Adotando uma abordagem baseada no risco, a Lei introduz quatro categorias de riscos. Primeiro, sistemas de IA com mínimo ou nenhum risco – que segundo a Comissão constituiria ” a grande maioria ” de todos os sistemas de IA – são permitidos sem restrições (embora códigos de conduta voluntários sejam incentivados).
Em segundo lugar, os usuários de sistemas de reconhecimento de emoções e categorização biométrica, bem como fornecedores de sistemas de IA com risco de fraude (como deep fakes e chatbots) são obrigados a implementar medidas de transparência. É importante ressaltar que essas medidas de transparência são formuladas como obrigações ao invés de como um direita receber informações – um exemplo da notável ausência de direitos dos indivíduos ao longo da Lei.
A terceira e talvez a mais importante categoria de alto risco Os sistemas de IA abrangem (1) sistemas de IA destinados a serem usados como componentes de segurança de produtos sujeitos à avaliação de conformidade ex ante de terceiros e (2) uma lista selecionada de “outros sistemas de IA autônomos com implicações principalmente em direitos fundamentais” incorporados em um anexo.
Como está atualmente esta categoria inclui a utilização de aplicações de IA, por exemplo, na operação de infraestruturas críticas, na tomada de decisões judiciais, na avaliação de pedidos de asilo, na avaliação da solvabilidade de indivíduos, na avaliação de riscos por parte das autoridades policiais, na avaliação de exames para determinar acesso à educação e para efeitos de recrutamento.
Esses alto risco os aplicativos devem atender a certos requisitos inspirados nos sete requisitos principais para Trustworthy AI formulados pelo HLEG (como transparência, supervisão humana e governança de dados) e passar por uma avaliação de conformidade ex ante.
Embora esta obrigação possa aumentar a proteção contra seu impacto adverso, pode-se certamente questione essa abordagem baseada em lista , que corre o risco de ser excessivamente ou insuficientemente inclusivo. Além disso, em seu formato atual, essa lista é flagrantemente muito curta (por exemplo, faltam aplicativos usados para categorização biométrica e reconhecimento de emoções).
Além disso, os requisitos que esses sistemas de alto risco devem atender não vão longe o suficiente. Parecem muito estreitas as obrigações do provedor de julgar o risco residual geral do sistema como aceitável (uma clara falta de um fórum independente de responsabilidade) e de informações essenciais sobre o sistema serem fornecidas apenas aos usuários, e não aos indivíduos sujeitos a elas.
Praticamente inatingível parece a obrigação de usar apenas conjuntos de dados que estejam livres de erros e completos. Além disso, presume-se que os fornecedores estão em conformidade com os requisitos se estiverem em conformidade com as normas harmonizadas, o que se resume essencialmente ao terceirização de requisitos normativos – que são de natureza política e dizem respeito aos direitos fundamentais – a organismos de normalização que são tudo menos democráticos por natureza.
Sistemas de IA da quarta e última categoria, risco inaceitável, são proibidos. Esta categoria é – compreensivelmente – muito restrita, mas – menos compreensivelmente – não sujeita a revisões periódicas, ao contrário do alto risco categoria. No que diz respeito à proibição de sistemas de IA “manipulativos”, a qualificação de que eles devem causar danos físicos ou psicológicos pode ser difícil de provar.
Mais importante ainda, a proibição da identificação biométrica “em tempo real” pela aplicação da lei em locais públicos (como a tecnologia de reconhecimento facial) está aberta a várias exceções, tornando quase enganoso ser incluída em uma lista de proibições.
Embora as exceções pareçam razoáveis à primeira vista (por exemplo, encontrar crianças desaparecidas ou “suspeitos de um crime”), elas abrem a caixa de pandora ao permitir essencialmente que uma infraestrutura de vigilância em massa seja construída e implementada em locais públicos e – à luz do caminho dependência – de forma irreversível. Assim, um número significativo de organizações da sociedade civil está pedindo a proibição total das tecnologias de reconhecimento facial .
Debatendo (além) da nova regulamentação
Outras deficiências da proposta incluem sua aplicação totalmente nacionalizada, que a julgar pelo exemplo do GDPR riscos que conduzem a uma proteção desigual dos cidadãos da UE, fortemente baseada nos recursos e interesses de cada Estado-Membro. A proposta também carece de um mecanismo de reclamação do consumidor e proteção do trabalhador .
Além disso, devem ser antecipadas discussões sobre os poderes delegados da Comissão (especialmente para atualizar os anexos), bem como sobre o escopo do regulamento (por exemplo, restringir a definição de IA ou introduzir isenções para segurança nacional e aplicação da lei), que pode enfraquecer ainda mais a proteção conferida pela Lei.
No entanto, apesar desses pontos de crítica, ele mostra um progresso significativo na abordagem da UE de reconhecer o impacto da IA nos direitos fundamentais e mitigar esses riscos por meio da harmonização da legislação.
O desejo inicial dos desenvolvedores de IA por uma lista unificada de requisitos legais existentes aplicáveis a sistemas de IA (como muitos regulamentos existentes diferentes podem ser aplicados ao aplicativo) mostra a complexidade do cenário regulatório que todas as partes interessadas enfrentam.
A AI Act não constitui uma codificação de toda a legislação aplicável à IA. Em vez disso, procura fornecer respostas sobre como aplicar um conjunto de regras horizontais adicionais aos sistemas de IA, de modo a proteger a saúde, a segurança e os direitos fundamentais dos indivíduos. No entanto, esta aspirada abordagem baseada nos direitos fundamentais não cumpre o que promete.
As deficiências discutidas acima – como a categorização inadequada de risco de certos sistemas de IA, a falta de mecanismos essenciais de responsabilização, a ausência de mecanismos de reclamação para os indivíduos afetados e a confiança na fiscalização nacional mesmo para grandes corporações transnacionais – ameaçam conjuntamente a eficácia da Lei na mitigação dos riscos da IA aos direitos fundamentais.
Além disso, a Lei também deixa de considerar danos sociais que vão além um impacto sobre os direitos fundamentais dos indivíduos. É importante ressaltar que os sistemas de IA também podem afetar negativamente os interesses da sociedade, como o estado de direito e o processo democrático. O legislador deve, portanto, garantir que todos os Valores da UE listados no Artigo 2 TUE são protegidos contra o impacto adverso da IA, por exemplo, referindo-se explicitamente a ela.
Além disso, em vez de apenas impor obrigações aos provedores, a Lei de IA deve reconhecer o papel dos cidadãos e garantir que eles tenham o direito de reparação para fortalecer o mecanismo de responsabilidade da Lei. Ao habilitar mecanismos de aplicação públicos e privados, os valores da UE têm mais chances de serem protegidos contra os riscos da IA.
Com sua proposta AI Act, a UE se impulsionou como pioneira na regulamentação da IA. Ao contar com a vantagem do primeiro motor, pode de fato estabelecer padrões globais ( o efeito Bruxelas ), conforme alcançado com o GDPR. No entanto, chegar cedo não significa necessariamente acertar.
Resta saber se a lei ainda pode ser melhorada durante as negociações em curso no Conselho e no Parlamento e se um equilíbrio regulamentar adequado pode ser alcançado entre os diferentes direitos e interesses em jogo. Ao fortalecer a Lei da IA e aprimorar suas salvaguardas legais, espera-se que em breve outros eticistas e advogados possam se juntar a outros para garantir sua eficácia prática na proteção dos valores da UE na era da IA.