A EU AI Act já é lei — a sua empresa cumpre?
A primeira regulação integral de inteligência artificial do mundo já tem prazos ativos. A formação em literacia IA é obrigatória desde fevereiro de 2025 (Artigo 4). Os sistemas de IA de alto risco devem cumprir em agosto de 2026. As multas chegam a 35 M EUR ou 7% da faturação global. Apenas 25% das organizações tem um programa de governança IA implementado — e 88% já utiliza IA.
O que inclui o nosso serviço
De inventário a conformidade documentada.
Cronologia da EU AI Act: prazos já ativos
Saiba o que se aplica agora e o que vem a seguir.
Fevereiro 2025 (JÁ ATIVO): Literacia IA obrigatória para todo o pessoal (Art. 4) e proibição de práticas de IA inaceitáveis (manipulação subliminar, scoring social, vigilância biométrica massiva). Agosto 2025 (JÁ ATIVO): Obrigações para modelos de IA de propósito geral (GPAI) — transparência, documentação técnica, cumprimento de copyright. Agosto 2026: O prazo principal — requisitos completos para sistemas de IA de alto risco: gestão de riscos, qualidade de dados, transparência, supervisão humana, robustez. Agosto 2027: Obrigações para produtos regulados que integram IA (maquinaria, dispositivos médicos, brinquedos).
Resumo executivo
O que precisa de saber para agir.
A EU AI Act já tem dois prazos ativos: desde fevereiro de 2025 é obrigatória a formação em literacia IA (Art. 4) e estão proibidas as práticas de IA inaceitáveis. Desde agosto de 2025, os modelos GPAI têm obrigações de transparência. Agosto de 2026 é o prazo principal: os sistemas de IA de alto risco devem cumprir requisitos completos de gestão de riscos, qualidade de dados, transparência e supervisão humana.
As multas são as mais severas do panorama regulatório europeu: até 35 M EUR ou 7% da faturação global (mais do que o RGPD). Apenas 25% das organizações tem um programa de governança IA implementado, apesar de 88% já utilizar IA. O mercado de conformidade regulatória IA estima-se em 17.000 M EUR para 2030. Não agir agora é expor-se a sanções e perder vantagem competitiva face a concorrentes que já se estão a preparar.
Resumo para CTO / equipa técnica
Requisitos técnicos e framework de conformidade.
A EU AI Act exige um sistema de gestão de riscos contínuo para IA de alto risco: documentação do dataset de treino (proveniência, qualidade, vieses), métricas de desempenho e equidade (fairness), logging de decisões automatizadas, mecanismos de supervisão humana (human-in-the-loop) e testes de robustez ante adversarial attacks.
Para chatbots e funcionalidades IA visíveis ao utilizador, a lei exige transparência clara: o utilizador deve saber que interage com IA, o conteúdo gerado por IA deve ser identificado como tal (incluindo deepfakes) e deve existir um mecanismo para solicitar intervenção humana. Os modelos GPAI requerem documentação técnica completa incluindo model cards.
É para si?
A EU AI Act afeta toda organização que utilize ou desenvolva sistemas de IA no mercado europeu.
Para quem
- Empresas que usam chatbots, assistentes virtuais ou IA generativa no atendimento ao cliente.
- Organizações que usam IA para decisões de RH (seleção, avaliação de desempenho).
- Empresas financeiras que usam IA para scoring de crédito ou deteção de fraude.
- Qualquer organização que utilize IA e tenha obrigação de literacia IA (Art. 4).
- Fornecedores de software que integram modelos de IA nos seus produtos.
- Empresas de saúde que usam IA para diagnóstico, triagem ou tratamento.
Para quem não
- Sistemas de IA utilizados exclusivamente para investigação científica (isentos).
- IA de código aberto com risco mínimo e sem uso comercial direto.
- Sistemas de IA puramente militares ou de defesa nacional (fora do âmbito da EU AI Act).
Serviços de conformidade EU AI Act
Pacotes adaptados a cada fase do regulamento.
Formação em literacia IA
Obrigação já ativa (Art. 4). Programa formativo adaptado ao papel de cada colaborador: o que é IA, como funciona, riscos, uso ético e obrigações legais. Formato workshop presencial ou e-learning. Certificação de participação para documentação de conformidade.
Inventário e classificação de risco
Mapeamento completo de todos os sistemas de IA em uso (próprios e de terceiros). Classificação por nível de risco segundo o Anexo III: inaceitável, alto, limitado ou mínimo. Identificação de lacunas de conformidade e folha de rota priorizada.
Avaliação de impacto e documentação
Para sistemas de alto risco: avaliação de impacto em direitos fundamentais, documentação técnica conforme o Anexo IV (dados de treino, métricas, vieses, medidas de mitigação) e preparação do processo de conformidade.
Governança e monitorização IA
Desenho e implementação de um programa de governança IA: políticas internas, AI Risk Registry, comité de ética IA, workflows de aprovação para novos sistemas e monitorização contínua de desempenho e equidade.
Conformidade de chatbots e funcionalidades IA
Auditoria específica de chatbots, assistentes virtuais e funcionalidades de IA generativa: transparência, identificação de conteúdo gerado por IA, mecanismo de solicitação de intervenção humana e cumprimento de obrigações de sistemas de risco limitado.
Processo de conformidade
De inventário a conformidade documentada.
Inventário
Mapeamos todos os sistemas de IA na sua organização: chatbots, modelos preditivos, ferramentas de RH, scoring, automatizações. Incluímos IA de terceiros (APIs de OpenAI, Google, Azure AI) que utilizam.
Classificação
Classificamos cada sistema por nível de risco segundo o Anexo III. Identificamos obrigações específicas: transparência para risco limitado, requisitos completos para alto risco e verificação de que nenhum sistema entra em práticas proibidas.
Remediação
Implementamos as medidas técnicas e organizativas necessárias: documentação técnica, avaliação de impacto, políticas de governança, formação da equipa, mecanismos de supervisão humana e logging de decisões.
Documentação e monitorização
Preparamos o processo de conformidade completo: documentação técnica (Anexo IV), avaliação de impacto, registo na base de dados da UE (para alto risco) e sistema de monitorização contínua pós-implementação.
Riscos que mitigamos
Da exposição regulatória à conformidade verificada.
Multas por incumprimento (até 35 M EUR / 7% faturação)
Programa completo de conformidade: inventário, classificação, documentação e monitorização. Processo de conformidade pronto para inspeção regulatória.
Incumprimento de literacia IA (obrigação já ativa)
Programa de formação adaptado a cada papel com certificação de participação. Conteúdo atualizado conforme as diretrizes do Gabinete Europeu de IA.
Sistemas de IA de alto risco sem documentar
Inventário exaustivo + documentação técnica conforme o Anexo IV: dados de treino, métricas de desempenho, análise de vieses e medidas de mitigação.
Chatbots e IA generativa sem transparência
Auditoria de todas as interfaces IA: identificação clara de interação com IA, marcação de conteúdo gerado e mecanismo de solicitação de intervenção humana.
Experiência real em IA aplicada e conformidade
Na Kiwop levamos anos a desenvolver e integrar soluções de IA para empresas: chatbots inteligentes, RAG empresarial, integração de LLMs e automatização com IA. Esta experiência técnica de primeira mão permite-nos compreender a regulação desde a perspetiva do programador — não apenas do consultor jurídico. Sabemos o que implica cumprir porque construímos os sistemas que devem cumprir.
EU AI Act vs RGPD: o que muda e o que se acumula
A EU AI Act não substitui o RGPD — complementa-o.
Se a sua organização já cumpre o RGPD, tem uma base, mas a EU AI Act acrescenta requisitos específicos para sistemas de IA que o RGPD não cobre: classificação de risco, documentação técnica do modelo, avaliação de vieses algorítmicos, supervisão humana obrigatória e transparência específica de IA. As multas da EU AI Act são superiores ao RGPD: até 7% da faturação global vs 4% do RGPD. Ambas as normativas aplicam-se simultaneamente — um chatbot que processa dados pessoais deve cumprir as duas.
Perguntas frequentes
O que as empresas perguntam sobre a EU AI Act.
O que é a EU AI Act e quando se aplica?
A EU AI Act (Regulamento 2024/1689) é a primeira regulação integral de inteligência artificial do mundo. Aplica-se de forma escalonada: fevereiro 2025 (literacia IA + práticas proibidas), agosto 2025 (GPAI), agosto 2026 (IA de alto risco) e agosto 2027 (produtos regulados). Aplica-se a qualquer organização que forneça ou utilize IA no mercado da UE.
A minha empresa já tem obrigações ativas?
Sim, desde fevereiro de 2025. O Artigo 4 obriga todas as organizações que utilizem sistemas de IA a garantir a literacia IA do seu pessoal. Além disso, as práticas de IA proibidas (scoring social, manipulação subliminar, vigilância biométrica massiva) já não podem ser utilizadas. Se usam ChatGPT, Copilot ou qualquer IA — a formação é obrigatória.
Que sistemas de IA se consideram de alto risco?
O Anexo III define as categorias: IA em seleção e gestão de RH (triagem de CVs, avaliação de desempenho), scoring de crédito e seguros, administração de justiça, controlo de fronteiras, infraestruturas críticas, educação (admissões, avaliações) e saúde (diagnóstico, triagem). Se a sua IA influencia decisões que afetam direitos fundamentais de pessoas, provavelmente é de alto risco.
O que acontece com os chatbots e a IA generativa?
Os chatbots classificam-se como risco limitado com obrigações de transparência: o utilizador deve saber que interage com IA, o conteúdo gerado deve ser identificado como tal (incluindo deepfakes) e deve existir um mecanismo para solicitar intervenção humana. Se o chatbot processa dados pessoais, também se aplica o RGPD.
Quanto custam as multas?
As multas são as mais severas do panorama regulatório europeu: até 35 M EUR ou 7% da faturação global por uso de práticas proibidas. Para sistemas de alto risco sem cumprir: até 15 M EUR ou 3% da faturação. Para informação incorreta: até 7,5 M EUR ou 1%. Para PMEs, as multas calculam-se proporcionalmente.
Quanto custa preparar-se para cumprir?
Formação em literacia IA: desde 3.000 EUR (programa adaptado à organização). Inventário + classificação: desde 5.000 EUR. Programa completo de conformidade (inventário + documentação + governança): desde 15.000 EUR. O custo depende do número de sistemas IA, complexidade e dimensão da organização. Significativamente menor do que uma multa de 7% da faturação.
Preciso de certificação ISO 42001?
Não é obrigatório, mas é muito recomendável. A ISO 42001 é o padrão internacional para sistemas de gestão de IA e está alinhado com os requisitos da EU AI Act. Tê-la demonstra diligência devida perante reguladores e clientes. Preparamos a sua organização para a certificação como parte do programa de governança IA.
Como afeta empresas fora da UE?
Tal como o RGPD: a EU AI Act aplica-se a qualquer organização que forneça ou utilize sistemas de IA no mercado da UE, independentemente da sede. Se a sua empresa está nos EUA ou América Latina mas tem clientes ou utilizadores na UE, deve cumprir. Os importadores e distribuidores também têm obrigações específicas.
Qual é a diferença entre fornecedor e deployer?
O fornecedor é quem desenvolve ou encomenda o sistema de IA (mais obrigações: documentação técnica, conformidade, monitorização). O deployer é quem o utiliza no seu negócio (obrigações de supervisão humana, transparência, avaliação de impacto). Muitas empresas são deployers de IA de terceiros (OpenAI, Google, Microsoft) e têm obrigações próprias que não podem delegar ao fornecedor.
Investimento
Proposta adaptada ao âmbito dos seus sistemas de IA.
Agosto 2026 está a 6 meses — a formação IA já é obrigatória
75% das organizações que usam IA não têm programa de governança. As multas chegam a 7% da faturação global. Não espere pela inspeção: avalie a sua conformidade agora.
Avaliar conformidade EU AI Act Auditoria
técnica inicial.
IA, segurança e desempenho. Diagnóstico com proposta faseada.
A sua primeira reunião é com um Arquiteto de Soluções, não com um comercial.
Solicitar diagnóstico

