Contactos

O REGULAMENTO DE INTELIGÊNCIA ARTIFICIAL (AI ACT): PRÁTICAS DE IA PROIBIDAS

Conheça as práticas proibidas pelo Regulamento de Inteligência Artificial (AI Act), os riscos legais e como as empresas podem garantir a conformidade e evitar coimas até 35 milhões de euros.

Com a entrada em vigor a 1 de agosto de 2024 do Regulamento de Inteligência Artificial (AI Act), a União Europeia tornou-se pioneira na regulação da IA a nível global. Este regulamento introduz uma abordagem baseada no risco, promovendo a legalidade, segurança e proteção dos direitos fundamentais, ao mesmo tempo que incentiva o investimento e a inovação tecnológica.

No dia 2 de fevereiro de 2025, entraram em vigor os primeiros dois capítulos do AI Act, focando-se nas disposições gerais e nas práticas proibidas de IA. Estas regras aplicam-se a todas as empresas que operem na União Europeia e que produzam, distribuam, integrem ou utilizem sistemas de IA.

A partir de 2 de agosto de 2025, o incumprimento poderá resultar em coimas severas, que podem atingir os 35 milhões de euros ou 7% do volume de negócios anual, consoante o mais elevado.

1 – PRÁTICAS DE INTELIGÊNCIA ARTIFICIAL PROIBIDAS

O Regulamento de Inteligência Artificial categoriza como práticas proibidas todas as aplicações de IA que representem um risco inaceitável para a segurança e os direitos fundamentais dos cidadãos da UE.

A Comissão Europeia, a 4 de fevereiro de 2025, emitiu guidelines não vinculativas para ajudar as empresas a interpretarem as proibições previstas no artigo 5.º, n.º 1 do AI Act.

São proibidos sistemas de IA que recorram a:

  1. Manipulação Cognitiva e Subliminar (al. a)): sistemas que utilizam técnicas subliminares para influenciar comportamentos sem o consentimento informado;
  2. Exploração de Vulnerabilidades (al. b): explorar vulnerabilidades específicas de indivíduos devido à sua idade, incapacidade ou situação socioeconómica;
  3. Avaliação ou Classificação Social (al. c)): utilização de IA para avaliar o comportamento ou características de personalidade e classificar cidadãos com base nesses critérios;
  4. Avaliação de Risco de Infração (al. d)): sistemas que prevejam a probabilidade de uma pessoa cometer uma infração, promovendo a discriminação e prejuízos sociais;
  5. Criação de Bases de Dados de Reconhecimento Facial (al. e)): recolha de imagens da internet ou televisão para desenvolver bases de dados de reconhecimento facial;
  6. Inferência de Emoções em Contextos Específicos (al. f)): utilização de IA para detetar emoções no local de trabalho e em estabelecimentos de ensino, o que pode violar a privacidade e afetos psicológicos;
  7. Categorização Biométrica (al. g)): categorização de indivíduos com base em dados biométricos, como impressões digitais ou características faciais;
  8. Identificação Biométrica à Distância em Espaços Públicos (al. h)): monitorização em tempo real utilizando tecnologias de IA para identificar pessoas em espaços públicos, exceto em situações excecionais (ex.: segurança pública);
  9. Práticas Proibidas por Outros Dispositivos Europeus (al. i)): sistemas de IA cuja proibição específica esteja prevista noutras legislações europeias.

2 – EXCEÇÕES À APLICAÇÃO DO AI ACT

O AI Act prevê exceções para determinadas áreas de aplicação:

  1. Finalidades militares, segurança e defesa nacionais;
  2. Cooperação judiciária e policial internacional;
  3. Investigação e desenvolvimento científicos, desde que não comercializados;
  4. Uso pessoal e não profissional.

Estas exceções permitem um equilíbrio regulatório, assegurando que a inovação e o desenvolvimento tecnológico não são comprometidos.

3 – O QUE AS EMPRESAS PRECISAM DE FAZER PARA GARANTIR A CONFORMIDADE?

A regulação da IA já não é uma questão futura – é uma realidade presente. As empresas que produzam, implementem ou utilizem sistemas de IA devem adotar mecanismos de conformidade para evitar:

  1. Riscos regulatórios e sancionatórios;
  2. Impactos financeiros, como coimas até 35 milhões de euros;
  3. Danos reputacionais e perda de confiança no mercado.

A partir de 2 de maio de 2025, as empresas são obrigadas a ter os seus próprios códigos de conduta para a utilização responsável de IA.

As empresas devem, por isso, seguir as seguintes boas práticas para compliance com o AI Act:

  1. Programas de literacia e capacitação em IA: formação contínua das equipas sobre segurança, ética e legalidade na utilização de IA;
  2. Due Diligence aos Sistemas de IA: avaliar e classificar os riscos associados a cada sistema de IA utilizado;
  3. Criação de Políticas de Mitigação de Riscos: definir procedimentos para prevenir práticas proibidas e assegurar o cumprimento normativo;
  4. Auditoria e Monitorização Contínuas: acompanhar e rever regularmente os processos de IA, assegurando que se mantêm em conformidade com o AI Act.

CONCLUSÃO

O AI Act representa um marco regulatório que define novos padrões de segurança, legalidade e ética para a inteligência artificial.

As empresas que atuem na EU devem adaptar-se rapidamente, implementando programas de compliance robustos e políticas internas que assegurem a utilização responsável de IA.

Ao promover a transparência e a proteção dos direitos fundamentais, o AI Act não só mitiga riscos legais, mas também fortalece a confiança no uso de tecnologias avançadas, permitindo que a inovação e o crescimento empresarial prossigam em segurança.

Partilhar:

NEWSLETTER

Subscreva a nossa newsletter

Mantenha-se atualizado e informado com a Inteligência Jurídica. A newsletter que lhe traz conteúdos jurídicos relevantes que impactam o seu negócio.

A Ana Pimenta Advogados respeita a sua privacidade e recolhe, armazena e trata os dados pessoais por si fornecidos exclusivamente para a finalidade de envio de comunicações com assuntos jurídicos do seu interesse para o seu endereço de e-mail. A newsletter conterá informações jurídicas, como artigos escritos, vídeos informativos, podcasts, assim como convites para a inscrição em eventos e webinars de temas da sua preferência. Os dados pessoais que serão objeto de tratamento são unicamente o seu nome e endereço de e-mail. Tem o direito de retirar o seu consentimento a qualquer momento, através da opção “unsubscribe” presente no final de cada comunicação ou entrando em contacto com o escritório Ana Pimenta Advogados através do endereço de email rgpd@anapimentaadvogados.pt. Para saber mais, confira a nossa Política de Privacidade.