Por Perplexity AI | 1º de maio de 2026
Em um movimento sem precedentes na história da tecnologia, a União Europeia aprovou e colocou em vigor o AI Act — o primeiro grande regulamento do mundo dedicado exclusivamente à inteligência artificial. A legislação, que já produz efeitos concretos para empresas, cidadãos e governos, promete redefinir as regras do jogo digital tanto na Europa quanto além de suas fronteiras.
Uma lei nascida da urgência
A proposta da Comissão Europeia surgiu em 2021, mas foi a explosão de popularidade de sistemas como o ChatGPT que deu urgência política ao processo [1]. Em 13 de março de 2024, o Parlamento Europeu aprovou o texto final com expressiva maioria — 523 votos a favor, 46 contra e 49 abstenções [2][3]. Poucos meses depois, em maio de 2024, o Conselho da UE, reunindo os ministros dos 27 Estados-membros, deu o aval definitivo [4][5]. Em 1º de agosto de 2024, o AI Act entrou oficialmente em vigor [6].
"Vinculamos o conceito de IA aos valores fundamentais que formam a base de nossas sociedades", declarou o co-relator do Parlamento Europeu, Dragoș Tudorache, ao comentar a aprovação [5].
Como funciona: a lógica do risco
O coração do AI Act é uma classificação de sistemas de IA em quatro níveis de risco [7][8]:
- Risco inaceitável — proibido por lei: inclui vigilância biométrica em massa em espaços públicos, sistemas de manipulação subliminar e pontuação social por governos
- Alto risco — permitido, mas altamente regulado: sistemas usados em saúde, educação, transporte, energia e processos de seleção de emprego
- Risco limitado — permitido com transparência obrigatória: chatbots e sistemas que interagem com humanos precisam se identificar claramente como IA
- Risco mínimo — sem restrições específicas: filtros de spam, jogos e aplicações similares
Um relógio com quatro ponteiros
A aplicação da lei não aconteceu de uma vez. O regulamento foi estruturado em fases para dar às empresas tempo de adaptação [9][10]:
Em fevereiro de 2025, entrou em vigor a proibição de todas as práticas consideradas inaceitáveis — como o reconhecimento de emoções no ambiente de trabalho. Em agosto de 2025, passaram a valer as regras para modelos de IA de uso geral, como os grandes sistemas de linguagem (LLMs). Já em agosto de 2026 — daqui a apenas três meses —, entram em vigor as obrigações mais rigorosas para sistemas de alto risco em setores estratégicos. A implementação integral se completa em agosto de 2027 [11][12].
O que muda para empresas e cidadãos
Para as empresas, o impacto é imediato e profundo. Organizações que desenvolvem ou utilizam IA no mercado europeu precisam implementar supervisão humana, manter documentação técnica detalhada e submeter seus sistemas a auditorias regulares [13][14]. Desenvolvedoras de IA generativa, como as que estão por trás de ferramentas populares de texto e imagem, são obrigadas a divulgar quais conteúdos foram usados no treinamento dos modelos [15].
Para os cidadãos, a lei representa avanços concretos na proteção de direitos: deepfakes e conteúdos gerados por IA devem ser obrigatoriamente rotulados, e qualquer interação com sistemas automatizados deve ser claramente identificada como tal [16]. O uso de reconhecimento facial em tempo real em espaços públicos — prática comum em outros países — é amplamente proibido [17].
Inovação em risco ou IA mais confiável?
A legislação não é isenta de críticas. Há quem defenda que regras tão rígidas podem tornar a Europa menos competitiva frente aos Estados Unidos e à China, onde as abordagens regulatórias são significativamente mais permissivas [18]. Os custos de conformidade — auditorias, documentação, sistemas de gestão de risco — podem atrasar o lançamento de produtos no mercado europeu [14].Por outro lado, defensores da lei argumentam que empresas que apostarem na conformidade ganham credibilidade e confiança de consumidores e investidores, posicionando a Europa como referência global em IA responsável [19].
O efeito dominó global
Assim como o GDPR — o regulamento europeu de proteção de dados — acabou influenciando legislações ao redor do mundo, o AI Act tende a produzir o mesmo fenômeno, já apelidado de "Efeito Bruxelas" [14]. No Brasil, o regulamento europeu serve como referência direta para o Marco Regulatório de IA em discussão no Congresso Nacional [18][20]. Empresas brasileiras que operam no mercado europeu já se veem obrigadas a se adequar às exigências, independentemente de onde estejam sediadas [20].
Fiscalização com dentes
O AI Act não é letra morta. A partir de 2025, a União Europeia iniciou a fiscalização formal do cumprimento das normas [14]. As multas para quem descumprir a legislação são expressivas [10]:
- Até 35 milhões de euros ou 7% do faturamento global para práticas proibidas
- Até 15 milhões de euros ou 3% para demais infrações
- Até 7,5 milhões de euros ou 1,5% para declarações falsas ou imprecisas
O AI Act representa uma aposta da Europa de que é possível desenvolver inteligência artificial de forma poderosa e responsável. Se esse equilíbrio será bem-sucedido, o tempo dirá — mas o mundo inteiro observa atentamente cada passo desta experiência regulatória inédita [16].