EU AI Act já é lei — sua empresa cumpre? 

A primeira regulação integral de inteligência artificial do mundo já tem prazos ativos. A formação em literacia IA é obrigatória desde fevereiro de 2025 (Artigo 4). Os sistemas de IA de alto risco devem cumprir em agosto de 2026. As multas chegam a 35 M EUR ou 7% da faturação global. Apenas 25% das organizações tem um programa de governança IA implementado — e 88% já utiliza IA.

35M EUR Multa máxima EU AI Act
Ago 2026 Prazo IA alto risco
Scroll

O que inclui o nosso serviço

De inventário a conformidade documentada.

Formação em literacia IA: programa obrigatório (Art. 4) para todo o pessoal que utiliza ou supervisiona sistemas de IA
Inventário e classificação de sistemas IA: mapeamento de todos os usos de IA e classificação por nível de risco (mínimo, limitado, alto, inaceitável)
Avaliação de risco: análise de impacto em direitos fundamentais para sistemas de alto risco conforme o Anexo III
Documentação técnica: registo de dados de treino, métricas de desempenho, vieses detetados e medidas de mitigação
Preparação para avaliação de conformidade: preparamos a sua organização para auditorias de organismos notificados
Conformidade de chatbots e funcionalidades IA: transparência, identificação de conteúdo gerado e direitos do utilizador

Cronologia da EU AI Act: prazos já ativos

Saiba o que se aplica agora e o que vem a seguir.

Fevereiro 2025 (JÁ ATIVO): Literacia IA obrigatória para todo o pessoal (Art. 4) e proibição de práticas de IA inaceitáveis (manipulação subliminar, scoring social, vigilância biométrica massiva). Agosto 2025 (JÁ ATIVO): Obrigações para modelos de IA de propósito geral (GPAI) — transparência, documentação técnica, cumprimento de copyright. Agosto 2026: O prazo principal — requisitos completos para sistemas de IA de alto risco: gestão de riscos, qualidade de dados, transparência, supervisão humana, robustez. Agosto 2027: Obrigações para produtos regulados que integram IA (maquinaria, dispositivos médicos, brinquedos).

compliance/eu-ai-act-timeline.yaml
# EU AI Act — Prazos chave
fev_2025: # JÁ ATIVO
- Alfabetização IA (Art. 4)
- Práticas proibidas
ago_2025: # JÁ ATIVO
- Obrigações GPAI
ago_2026: # 6 MESES
- Sistemas IA de alto risco
ago_2027:
- Produtos regulados + IA
2 Prazos ativos
Ago 2026 Próximo
35M EUR Multa máx.

Resumo executivo

O que precisa de saber para agir.

A EU AI Act já tem dois prazos ativos: desde fevereiro de 2025 é obrigatória a formação em literacia IA (Art. 4) e estão proibidas as práticas de IA inaceitáveis. Desde agosto de 2025, os modelos GPAI têm obrigações de transparência. Agosto de 2026 é o prazo principal: os sistemas de IA de alto risco devem cumprir requisitos completos de gestão de riscos, qualidade de dados, transparência e supervisão humana.

As multas são as mais severas do panorama regulatório europeu: até 35 M EUR ou 7% da faturação global (mais do que o RGPD). Apenas 25% das organizações tem um programa de governança IA implementado, apesar de 88% já utilizar IA. O mercado de conformidade regulatória IA estima-se em 17.000 M EUR para 2030. Não agir agora é expor-se a sanções e perder vantagem competitiva face a concorrentes que já se estão a preparar.

35M EUR Multa máxima (7% faturação)
6 meses Até prazo IA alto risco
88% Empresas já usam IA

Resumo para CTO / equipa técnica

Requisitos técnicos e framework de conformidade.

A EU AI Act exige um sistema de gestão de riscos contínuo para IA de alto risco: documentação do dataset de treino (proveniência, qualidade, vieses), métricas de desempenho e equidade (fairness), logging de decisões automatizadas, mecanismos de supervisão humana (human-in-the-loop) e testes de robustez ante adversarial attacks.

Para chatbots e funcionalidades IA visíveis ao utilizador, a lei exige transparência clara: o utilizador deve saber que interage com IA, o conteúdo gerado por IA deve ser identificado como tal (incluindo deepfakes) e deve existir um mecanismo para solicitar intervenção humana. Os modelos GPAI requerem documentação técnica completa incluindo model cards.

É para si?

A EU AI Act afeta toda organização que utilize ou desenvolva sistemas de IA no mercado europeu.

Para quem

  • Empresas que usam chatbots, assistentes virtuais ou IA generativa no atendimento ao cliente.
  • Organizações que usam IA para decisões de RH (seleção, avaliação de desempenho).
  • Empresas financeiras que usam IA para scoring de crédito ou deteção de fraude.
  • Qualquer organização que utilize IA e tenha obrigação de literacia IA (Art. 4).
  • Fornecedores de software que integram modelos de IA nos seus produtos.
  • Empresas de saúde que usam IA para diagnóstico, triagem ou tratamento.

Para quem não

  • Sistemas de IA utilizados exclusivamente para investigação científica (isentos).
  • IA de código aberto com risco mínimo e sem uso comercial direto.
  • Sistemas de IA puramente militares ou de defesa nacional (fora do âmbito da EU AI Act).

Serviços de conformidade EU AI Act

Pacotes adaptados a cada fase do regulamento.

01

Formação em literacia IA

Obrigação já ativa (Art. 4). Programa formativo adaptado ao papel de cada colaborador: o que é IA, como funciona, riscos, uso ético e obrigações legais. Formato workshop presencial ou e-learning. Certificação de participação para documentação de conformidade.

02

Inventário e classificação de risco

Mapeamento completo de todos os sistemas de IA em uso (próprios e de terceiros). Classificação por nível de risco segundo o Anexo III: inaceitável, alto, limitado ou mínimo. Identificação de lacunas de conformidade e folha de rota priorizada.

03

Avaliação de impacto e documentação

Para sistemas de alto risco: avaliação de impacto em direitos fundamentais, documentação técnica conforme o Anexo IV (dados de treino, métricas, vieses, medidas de mitigação) e preparação do processo de conformidade.

04

Governança e monitorização IA

Desenho e implementação de um programa de governança IA: políticas internas, AI Risk Registry, comité de ética IA, workflows de aprovação para novos sistemas e monitorização contínua de desempenho e equidade.

05

Conformidade de chatbots e funcionalidades IA

Auditoria específica de chatbots, assistentes virtuais e funcionalidades de IA generativa: transparência, identificação de conteúdo gerado por IA, mecanismo de solicitação de intervenção humana e cumprimento de obrigações de sistemas de risco limitado.

Processo de conformidade

De inventário a conformidade documentada.

01

Inventário

Mapeamos todos os sistemas de IA na sua organização: chatbots, modelos preditivos, ferramentas de RH, scoring, automatizações. Incluímos IA de terceiros (APIs de OpenAI, Google, Azure AI) que utilizam.

02

Classificação

Classificamos cada sistema por nível de risco segundo o Anexo III. Identificamos obrigações específicas: transparência para risco limitado, requisitos completos para alto risco e verificação de que nenhum sistema entra em práticas proibidas.

03

Remediação

Implementamos as medidas técnicas e organizativas necessárias: documentação técnica, avaliação de impacto, políticas de governança, formação da equipa, mecanismos de supervisão humana e logging de decisões.

04

Documentação e monitorização

Preparamos o processo de conformidade completo: documentação técnica (Anexo IV), avaliação de impacto, registo na base de dados da UE (para alto risco) e sistema de monitorização contínua pós-implementação.

Riscos que mitigamos

Da exposição regulatória à conformidade verificada.

Multas por incumprimento (até 35 M EUR / 7% faturação)

Mitigação:

Programa completo de conformidade: inventário, classificação, documentação e monitorização. Processo de conformidade pronto para inspeção regulatória.

Incumprimento de literacia IA (obrigação já ativa)

Mitigação:

Programa de formação adaptado a cada papel com certificação de participação. Conteúdo atualizado conforme as diretrizes do Gabinete Europeu de IA.

Sistemas de IA de alto risco sem documentar

Mitigação:

Inventário exaustivo + documentação técnica conforme o Anexo IV: dados de treino, métricas de desempenho, análise de vieses e medidas de mitigação.

Chatbots e IA generativa sem transparência

Mitigação:

Auditoria de todas as interfaces IA: identificação clara de interação com IA, marcação de conteúdo gerado e mecanismo de solicitação de intervenção humana.

Experiência real em IA aplicada e conformidade

Na Kiwop levamos anos a desenvolver e integrar soluções de IA para empresas: chatbots inteligentes, RAG empresarial, integração de LLMs e automatização com IA. Esta experiência técnica de primeira mão permite-nos compreender a regulação desde a perspetiva do programador — não apenas do consultor jurídico. Sabemos o que implica cumprir porque construímos os sistemas que devem cumprir.

50+ Projetos IA entregues
2 Prazos EU AI Act ativos
6 Meses até prazo alto risco
Empresas com governança IA 25%

EU AI Act vs RGPD: o que muda e o que se acumula

A EU AI Act não substitui o RGPD — complementa-o.

Se a sua organização já cumpre o RGPD, tem uma base, mas a EU AI Act acrescenta requisitos específicos para sistemas de IA que o RGPD não cobre: classificação de risco, documentação técnica do modelo, avaliação de vieses algorítmicos, supervisão humana obrigatória e transparência específica de IA. As multas da EU AI Act são superiores ao RGPD: até 7% da faturação global vs 4% do RGPD. Ambas as normativas aplicam-se simultaneamente — um chatbot que processa dados pessoais deve cumprir as duas.

4% Multa máx. RGPD
7% Multa máx. EU AI Act
Empresas que cumprem RGPD 60%
Empresas que cumprem EU AI Act 25%

Perguntas frequentes

O que as empresas perguntam sobre a EU AI Act.

O que é a EU AI Act e quando se aplica?

A EU AI Act (Regulamento 2024/1689) é a primeira regulação integral de inteligência artificial do mundo. Aplica-se de forma escalonada: fevereiro 2025 (literacia IA + práticas proibidas), agosto 2025 (GPAI), agosto 2026 (IA de alto risco) e agosto 2027 (produtos regulados). Aplica-se a qualquer organização que forneça ou utilize IA no mercado da UE.

A minha empresa já tem obrigações ativas?

Sim, desde fevereiro de 2025. O Artigo 4 obriga todas as organizações que utilizem sistemas de IA a garantir a literacia IA do seu pessoal. Além disso, as práticas de IA proibidas (scoring social, manipulação subliminar, vigilância biométrica massiva) já não podem ser utilizadas. Se usam ChatGPT, Copilot ou qualquer IA — a formação é obrigatória.

Que sistemas de IA se consideram de alto risco?

O Anexo III define as categorias: IA em seleção e gestão de RH (triagem de CVs, avaliação de desempenho), scoring de crédito e seguros, administração de justiça, controlo de fronteiras, infraestruturas críticas, educação (admissões, avaliações) e saúde (diagnóstico, triagem). Se a sua IA influencia decisões que afetam direitos fundamentais de pessoas, provavelmente é de alto risco.

O que acontece com os chatbots e a IA generativa?

Os chatbots classificam-se como risco limitado com obrigações de transparência: o utilizador deve saber que interage com IA, o conteúdo gerado deve ser identificado como tal (incluindo deepfakes) e deve existir um mecanismo para solicitar intervenção humana. Se o chatbot processa dados pessoais, também se aplica o RGPD.

Quanto custam as multas?

As multas são as mais severas do panorama regulatório europeu: até 35 M EUR ou 7% da faturação global por uso de práticas proibidas. Para sistemas de alto risco sem cumprir: até 15 M EUR ou 3% da faturação. Para informação incorreta: até 7,5 M EUR ou 1%. Para PMEs, as multas calculam-se proporcionalmente.

Quanto custa preparar-se para cumprir?

Formação em literacia IA: desde 3.000 EUR (programa adaptado à organização). Inventário + classificação: desde 5.000 EUR. Programa completo de conformidade (inventário + documentação + governança): desde 15.000 EUR. O custo depende do número de sistemas IA, complexidade e dimensão da organização. Significativamente menor do que uma multa de 7% da faturação.

Preciso de certificação ISO 42001?

Não é obrigatório, mas é muito recomendável. A ISO 42001 é o padrão internacional para sistemas de gestão de IA e está alinhado com os requisitos da EU AI Act. Tê-la demonstra diligência devida perante reguladores e clientes. Preparamos a sua organização para a certificação como parte do programa de governança IA.

Como afeta empresas fora da UE?

Tal como o RGPD: a EU AI Act aplica-se a qualquer organização que forneça ou utilize sistemas de IA no mercado da UE, independentemente da sede. Se a sua empresa está nos EUA ou América Latina mas tem clientes ou utilizadores na UE, deve cumprir. Os importadores e distribuidores também têm obrigações específicas.

Qual é a diferença entre fornecedor e deployer?

O fornecedor é quem desenvolve ou encomenda o sistema de IA (mais obrigações: documentação técnica, conformidade, monitorização). O deployer é quem o utiliza no seu negócio (obrigações de supervisão humana, transparência, avaliação de impacto). Muitas empresas são deployers de IA de terceiros (OpenAI, Google, Microsoft) e têm obrigações próprias que não podem delegar ao fornecedor.

Investimento

Proposta adaptada ao âmbito dos seus sistemas de IA.

Formação em literacia IA: desde 3.000 EUR
Inventário + classificação de risco: desde 5.000 EUR
Programa completo de conformidade: desde 15.000 EUR
Sem permanência: cancelamento com 30 dias de pré-aviso

Agosto 2026 está a 6 meses — a formação IA já é obrigatória

75% das organizações que usam IA não têm programa de governança. As multas chegam a 7% da faturação global. Não espere pela inspeção: avalie a sua conformidade agora.

Avaliar conformidade EU AI Act
Sem compromisso Resposta em 24h Proposta personalizada
Última atualização: fevereiro de 2026

Auditoria
técnica inicial.

IA, segurança e desempenho. Diagnóstico com proposta faseada.

NDA disponível
Resposta <24h
Proposta faseada

A sua primeira reunião é com um Arquiteto de Soluções, não com um comercial.

Solicitar diagnóstico