Comissão Europeia publica orientações abrangentes para simplificar a interpretação das práticas proibidas ao abrigo do Regulamento IA

Fique a par das novidades
SubscreverNo passado dia 2 de fevereiro, passaram a ser aplicáveis as disposições do Regulamento (UE) 2024/1689, de 13 de junho de 2024 (Regulamento da AI), incluídas nos capítulos I (Disposições Gerais) e II (Práticas de IA Proibidas) do Regulamento (Consulte aqui a nossa publicação sobre o início da aplicabilidade parcial do Regulamento IA e aqui o nosso Guia Prático do Regulamento da IA).
Para além da obrigação de literacia no domínio em IA (artigo 4.º do Regulamento da IA) – que afeta todos os prestadores e os responsáveis pela implantação de sistemas de IA, independentemente do seu nível de risco – as disposições do Capítulo II do Regulamento IA, cujo artigo 5.º proíbe determinadas práticas de IA, também já são aplicáveis.
A fim de clarificar a interpretação e o âmbito de aplicação das disposições supramencionadas, bem como o âmbito de aplicação do Regulamento da IA, a Comissão Europeia publicou recentemente os seguintes documentos:
- Um repositório vivo de práticas de literacia em IA, no qual os membros do AI Pact contribuíram com as suas experiências reais de práticas de literacia no domínio da IA. Entre as principais práticas partilhadas destacam-se: (i) a realização de sessões de formação organizadas de acordo com a complexidade técnica e o nível de envolvimento dos trabalhadores na utilização ou desenvolvimento de sistemas de IA, (ii) a oferta de cursos de e-learning, (ii) a partilha de exemplos de utilização real nas operações diárias, ou (iii) a implementação de guias detalhados para o desenvolvimento, utilização e supervisão de sistemas de IA.
- Diretrizes sobre a definição de um sistema de IA, que clarificam o que constitui um sistema de IA e, por conseguinte, a que sistemas se aplicaria o Regulamento da IA.
- Diretrizes sobre práticas de IA proibidas, que visam fornecer orientações práticas sobre a aplicação das proibições estabelecidas no artigo 5.º do Regulamento IA.
Nesta publicação, vamos analisar alguns dos pontos-chave das Diretrizes da Comissão Europeia sobre Práticas de IA Proibidas, publicadas a 4 de fevereiro e ainda pendentes da sua adoção formal. Note-se que, embora estas Diretrizes interpretativas não sejam vinculativas, podem influenciar substancialmente a interpretação do Regulamento da IA pelo Tribunal de Justiça da União Europeia, conferindo-lhes uma importância proeminente.
Âmbito das práticas de IA proibidas
As proibições do artigo 5.º aplicam-se à colocação no mercado, à colocação em serviço ou à utilização de sistemas de IA específicos. Nas Diretrizes, a Comissão fornece uma interpretação mais clara destes conceitos:
- A colocação no mercado refere-se à primeira disponibilização de um sistema de IA no mercado da UE, que pode incluir o acesso ao sistema através de lojas de aplicações, APIs (interface de programação de aplicações), através da nuvem, downloads diretos, como cópias físicas, ou incorporado em produtos físicos.
- A colocação em serviço refere-se ao fornecimento de um sistema de IA para primeira utilização pelo responsável pela implantação ou para utilização própria na UE para o fim a que se destina, conforme especificado nas informações fornecidas pelo prestador nas instruções de utilização, materiais e declarações de promoção e vendas; bem como na documentação técnica.
- A utilização é definida, em termos gerais, como a implantação do sistema em qualquer momento do seu ciclo de vida, após a sua colocação no mercado ou entrada em serviço.
O artigo 2.º do Regulamento da IA prevê a exclusão do seu âmbito de aplicação de vários sistemas de IA, cuja definição é especificada nas Diretrizes. Entre eles encontram-se os sistemas ou modelos de IA utilizados exclusivamente para atividades de investigação, ensaio ou desenvolvimento, antes de serem colocados no mercado; os sistemas de IA utilizados por indivíduos no exercício de atividades puramente pessoais e não profissionais; ou sistemas de IA distribuídos ao abrigo de licenças de software livre e de código aberto, a menos que sejam colocados no mercado o colocados em serviço como sistemas de IA de risco elevado ou estejam abrangidos pelas proibições do artigo 5.º ou em situações às quais o artigo 50.º impõe obrigações de transparência.
Deve também notar-se que as proibições se aplicam tanto a sistemas de IA orientados para fins específicos como a sistemas de IA de finalidade geral, o que inclui, por exemplo, a utilização de chatbots.
Requisitos das Práticas de IA Proibidas
Em relação às práticas proibidas, a Comissão presta, nas suas Diretrizes, um guia interpretativo pormenorizado sobre os elementos a considerar para determinar se um sistema de IA é abrangido pelas proibições estabelecidas no artigo 5.º do Regulamento da IA. Assim, por exemplo:
- A prática proibida pelo artigo 5.º, n.º 1, alínea a), abrangeria sistemas que utilizam técnicas subliminares, manipuladoras ou enganosas (por exemplo, a utilização de imagens subliminares, a exploração de enviesamentos, a manipulação sensorial para alterar o humor ou a criação de mensagens persuasivas altamente personalizadas com base em dados pessoais), que visam distorcer ou que podem resultar na distorção do comportamento de uma pessoa ou grupo. E esse comportamento distorcido deve causar ou ser suscetível de causar danos significativos (incluindo danos físicos, psicológicos ou económicos) a essa pessoa, outra pessoa ou um grupo de pessoas. A Comissão estabelece igualmente os critérios para avaliar a «importância» dos danos, tais como o contexto, a intensidade, a irreversibilidade dos danos ou a vulnerabilidade das pessoas afetadas.
- Em relação à prática proibida pelo artigo 5.º, n.º 1, alínea f), esta refere-se a sistemas de IA utilizados para inferência de emoções de um indivíduo no local de trabalho ou em instituições de ensino, exceto quando a sua utilização se justifique por razões médicas ou de segurança. Segundo a Comissão, o termo "local de trabalho" deve ser interpretado em sentido lato, incluindo qualquer espaço físico ou virtual específico em que os indivíduos desempenhem funções atribuídas pelo seu empregador ou pela organização a que estão filiados, por exemplo, no caso do trabalho independente. Em relação à "inferência das emoções", as Diretrizes também defendem uma interpretação ampla. No entanto, não está abrangida a inferência de estados físicos como cansaço ou dor ou aqueles sistemas que se limitam a detetar expressões ou gestos (como um sorriso ou movimento dos olhos), mas não identificam emoções ou intenções.
É crucial notar que os requisitos que definem cada prática são cumulativos e, em certos casos, o não cumprimento de qualquer um deles pode levar à classificação dos sistemas de IA como de risco elevado em vez de proibidos. Portanto, é essencial realizar uma análise detalhada e individualizada de cada um dos requisitos listados em relação a cada sistema de IA.
Medidas de conformidade
Desta forma, para garantir a conformidade com o Regulamento da IA e, em particular, com o artigo 5.º, as empresas devem considerar adotar as seguintes medidas:
- Realizar avaliações de risco minuciosas, analisando todos os requisitos detalhadamente para cada sistema de IA desenvolvido, colocado no mercado ou usado.
- Cumprir as normas técnicas para o desenvolvimento e utilização de sistemas de IA seguros e éticos.
- Adaptar contratos, instruções de utilização e outros materiais para garantir a conformidade com as proibições, incluindo informações sobre os termos de utilização e supervisão do sistema de IA.
- Prestar informações claras e precisas sobre como utilizar o sistema de IA de acordo com o Regulamento da IA, bem como sobre as suas limitações. Este aspeto deve estar relacionado com a obrigação de literacia no domínio desta tecnologia (artigo 4.º do Regulamento da IA) acima indicada.
- Garantir que o sistema de IA cumpre com o resto da normativa aplicável, nomeadamente em matéria de proteção de dados, laboral e defesa do consumidor.
Regime sancionatório
Note-se que o incumprimento destas obrigações pode resultar na aplicação de coimas com um máximo de até 35 milhões de euros ou 7% do volume de negócios anual global, consoante o montante que for mais elevado.
Fique a par das novidades
Subscrever