Com a entrada em vigor a 1 de agosto de 2024 do Regulamento de Inteligência Artificial (AI Act), a União Europeia tornou-se pioneira na regulação da IA a nível global. Este regulamento introduz uma abordagem baseada no risco, promovendo a legalidade, segurança e proteção dos direitos fundamentais, ao mesmo tempo que incentiva o investimento e a inovação tecnológica.
No dia 2 de fevereiro de 2025, entraram em vigor os primeiros dois capítulos do AI Act, focando-se nas disposições gerais e nas práticas proibidas de IA. Estas regras aplicam-se a todas as empresas que operem na União Europeia e que produzam, distribuam, integrem ou utilizem sistemas de IA.
A partir de 2 de agosto de 2025, o incumprimento poderá resultar em coimas severas, que podem atingir os 35 milhões de euros ou 7% do volume de negócios anual, consoante o mais elevado.
1 – PRÁTICAS DE INTELIGÊNCIA ARTIFICIAL PROIBIDAS
O Regulamento de Inteligência Artificial categoriza como práticas proibidas todas as aplicações de IA que representem um risco inaceitável para a segurança e os direitos fundamentais dos cidadãos da UE.
A Comissão Europeia, a 4 de fevereiro de 2025, emitiu guidelines não vinculativas para ajudar as empresas a interpretarem as proibições previstas no artigo 5.º, n.º 1 do AI Act.
São proibidos sistemas de IA que recorram a:
- Manipulação Cognitiva e Subliminar (al. a)): sistemas que utilizam técnicas subliminares para influenciar comportamentos sem o consentimento informado;
- Exploração de Vulnerabilidades (al. b): explorar vulnerabilidades específicas de indivíduos devido à sua idade, incapacidade ou situação socioeconómica;
- Avaliação ou Classificação Social (al. c)): utilização de IA para avaliar o comportamento ou características de personalidade e classificar cidadãos com base nesses critérios;
- Avaliação de Risco de Infração (al. d)): sistemas que prevejam a probabilidade de uma pessoa cometer uma infração, promovendo a discriminação e prejuízos sociais;
- Criação de Bases de Dados de Reconhecimento Facial (al. e)): recolha de imagens da internet ou televisão para desenvolver bases de dados de reconhecimento facial;
- Inferência de Emoções em Contextos Específicos (al. f)): utilização de IA para detetar emoções no local de trabalho e em estabelecimentos de ensino, o que pode violar a privacidade e afetos psicológicos;
- Categorização Biométrica (al. g)): categorização de indivíduos com base em dados biométricos, como impressões digitais ou características faciais;
- Identificação Biométrica à Distância em Espaços Públicos (al. h)): monitorização em tempo real utilizando tecnologias de IA para identificar pessoas em espaços públicos, exceto em situações excecionais (ex.: segurança pública);
- Práticas Proibidas por Outros Dispositivos Europeus (al. i)): sistemas de IA cuja proibição específica esteja prevista noutras legislações europeias.
2 – EXCEÇÕES À APLICAÇÃO DO AI ACT
O AI Act prevê exceções para determinadas áreas de aplicação:
- Finalidades militares, segurança e defesa nacionais;
- Cooperação judiciária e policial internacional;
- Investigação e desenvolvimento científicos, desde que não comercializados;
- Uso pessoal e não profissional.
Estas exceções permitem um equilíbrio regulatório, assegurando que a inovação e o desenvolvimento tecnológico não são comprometidos.
3 – O QUE AS EMPRESAS PRECISAM DE FAZER PARA GARANTIR A CONFORMIDADE?
A regulação da IA já não é uma questão futura – é uma realidade presente. As empresas que produzam, implementem ou utilizem sistemas de IA devem adotar mecanismos de conformidade para evitar:
- Riscos regulatórios e sancionatórios;
- Impactos financeiros, como coimas até 35 milhões de euros;
- Danos reputacionais e perda de confiança no mercado.
A partir de 2 de maio de 2025, as empresas são obrigadas a ter os seus próprios códigos de conduta para a utilização responsável de IA.
As empresas devem, por isso, seguir as seguintes boas práticas para compliance com o AI Act:
- Programas de literacia e capacitação em IA: formação contínua das equipas sobre segurança, ética e legalidade na utilização de IA;
- Due Diligence aos Sistemas de IA: avaliar e classificar os riscos associados a cada sistema de IA utilizado;
- Criação de Políticas de Mitigação de Riscos: definir procedimentos para prevenir práticas proibidas e assegurar o cumprimento normativo;
- Auditoria e Monitorização Contínuas: acompanhar e rever regularmente os processos de IA, assegurando que se mantêm em conformidade com o AI Act.
CONCLUSÃO
O AI Act representa um marco regulatório que define novos padrões de segurança, legalidade e ética para a inteligência artificial.
As empresas que atuem na EU devem adaptar-se rapidamente, implementando programas de compliance robustos e políticas internas que assegurem a utilização responsável de IA.
Ao promover a transparência e a proteção dos direitos fundamentais, o AI Act não só mitiga riscos legais, mas também fortalece a confiança no uso de tecnologias avançadas, permitindo que a inovação e o crescimento empresarial prossigam em segurança.





