Um guia para líderes que precisam entender não apenas as regras, mas o que elas significam para pessoas e organizações
1 Por que este tema me importa
Na minha experiência trabalhando com dados e inteligência artificial, aprendi algo fundamental: por trás de cada regulação há uma história humana. Há trabalhadores preocupados com seus empregos, famílias impactadas por decisões algorítmicas de crédito, pacientes cujos diagnósticos dependem de sistemas de IA.
A governança mundial de IA fragmentou-se por enquanto em quatro modelos distintos: União Europeia, Brasil, China e Estados Unidos. Cada um reflete valores, medos e esperanças diferentes sobre o futuro que estamos construindo. Para os que lideram organizações, isso cria um cenário sem precedentes: o mesmo sistema de IA pode ser proibido na Europa, permitido com restrições no Brasil, sujeito a censura ideológica na China, e virtualmente desregulado nos EUA.
Gostaria de compartilhar o que aprendi analisando essas quatro abordagens, não como verdade absoluta, mas como um mapa inicial para navegarmos juntos esse território complexo.
2 União Europeia: O AI Act como Referência Global
A União Europeia lidera a regulação mundial de IA com o Regulation (EU) 2024/1689, publicado em julho de 20241. O que me chama atenção nessa abordagem é sua premissa fundamental: a tecnologia deve servir à dignidade humana, não o contrário.
2.1 A pirâmide de risco: uma forma de organizar preocupações
O coração do AI Act é sua classificação por níveis de risco2. Na prática, isso significa que sistemas de IA são avaliados pelo potencial de impacto nas vidas das pessoas:
Risco inaceitável (proibido): Sistemas de pontuação social, manipulação subliminar, reconhecimento facial em tempo real em espaços públicos, categorização biométrica por raça ou orientação sexual. Aqui a mensagem é clara: algumas aplicações simplesmente não deveriam existir3.
Alto risco: IA em recrutamento, avaliação de crédito, diagnósticos médicos, infraestrutura crítica, administração da justiça. Esses sistemas exigem documentação técnica extensiva, avaliação de conformidade e, crucialmente, supervisão humana obrigatória4. Pra mim é claro que isso vai adicionar mais complexidade a todo o processo e ao produto, mas também é claro para mim que decisões sobre emprego, saúde e liberdade merecem cuidado especial, e a accountability, ao fim e ao cabo, deve ser responsabilidade de algum ser humano, nunca de uma IA.
Risco limitado: Chatbots e deepfakes requerem transparência — os usuários precisam saber que estão interagindo com IA. Uma exigência que é bastante razoável para mim: as pessoas têm direito de saber quando uma IA está falando com elas 5.
Risco mínimo: Filtros de spam, videogames e aplicações similares não têm obrigações específicas6.
2.2 Penalidades e cronograma
As multas são as mais severas do mundo: até €35 milhões ou 7% do faturamento global anual para práticas proibidas, superando até o GDPR7. As proibições entraram em vigor em fevereiro de 2025, obrigações para IA de propósito geral (GPAI) em agosto de 2025, e a maioria das regras para alto risco aplica-se em agosto de 20268.
2.3 Onde vejo forças e preocupações
O AI Act oferece segurança jurídica e harmonização entre 27 Estados-membros, evitando fragmentação regulatória. Sua abordagem baseada em risco é considerada coerente e estruturada por especialistas, com potencial “Efeito Bruxelas” de se tornar padrão global9.
Entretanto, sei que há críticas por parte de pessoas e empresas. CEOs europeus pediram um “clock-stop” de 2 anos em julho de 2025, citando impossibilidade de conformidade total em 12 meses10. O AI Office estava com apenas 30 funcionários, o que é claramente insuficiente para a tarefa11. Apenas 3 dos 27 Estados-membros completaram a designação de autoridades competentes até fevereiro de 202612. A complexidade interoperacional com GDPR, Data Act, CRA e DORA cria camadas sobrepostas de compliance13.
É nossa responsabilidade garantir que a regulação proteja pessoas sem sufocar a inovação que também pode beneficiá-las. Esse equilíbrio é difícil, e a Europa ainda está aprendendo a calibrá-lo. Eu acredito que o caminho é bastante promissor, mas há alguns pontos a serem superados.
3 Brasil: Combinando Desenvolvimento com Responsabilidade
O Brasil adota uma abordagem que me parece particularmente interessante: combina o Plano Brasileiro de IA (PBIA), uma estratégia de desenvolvimento com R$ 23 bilhões em investimentos de 2024-202814, com o PL 2338/2023 como marco regulatório inspirado no modelo europeu15.
3.1 Uma arquitetura que reflete preocupações brasileiras
O PL 2338/2023, aprovado pelo Senado em dezembro de 2024 e aguardando parecer na Câmara dos Deputados16, adota classificação por níveis de risco similar à UE, mas com adaptações para o contexto brasileiro:
Risco excessivo (proibido): Armas autônomas, pontuação social pelo Poder Público, exploração de vulnerabilidades de crianças e idosos, produção de conteúdo de exploração sexual de menores17. São escolhas que refletem preocupações legítimas sobre proteção dos mais vulneráveis.
Alto risco (12 categorias): Identificação biométrica, diagnósticos médicos, veículos autônomos, administração da justiça, análise de crédito, recrutamento, infraestruturas críticas18.
Penalidades previstas: Multas de até R$ 50 milhões ou 2% do faturamento bruto, além de suspensão de atividades. A ANPD será a coordenadora do sistema regulatório19, aproveitando a experiência acumulada com a LGPD.
3.2 O Plano Brasileiro de IA: investindo no futuro
O PBIA distribui investimentos em cinco eixos20:
- Infraestrutura: Supercomputador entre os 5 mais potentes do mundo, nuvem soberana de R$ 1 bilhão
- Capacitação: 115 mil servidores públicos até 2026
- Serviços públicos: R$ 1,76 bilhão para melhoria de atendimento ao cidadão
- Inovação empresarial: Aproximadamente 60% do investimento total
- Governança: R$ 103 milhões para Observatório de IA e Centro de Transparência Algorítmica
3.3 Uma reflexão sobre execução
Pode ser que eu esteja sendo pessimista, mas críticos apontam que o investimento é consideravelmente baixo comparado a potências globais (a China investiu R$ 306 bilhões apenas em data centers em 202421). Sílvio Meira observou em março de 2025: “Estamos em março e, até agora, não começamos a investir no plano… O plano é bom. O que precisamos é tirá-lo do papel”22.
Essa é minha visão, baseada na minha experiência: planos são importantes, mas execução é o que transforma realidades. O Brasil tem uma oportunidade única de mostrar que é possível combinar desenvolvimento econômico com responsabilidade social em IA. Torço para que aproveitemos essa chance.
4 China: Agilidade com Controle Integrado
A China desenvolveu o framework regulatório de IA mais ágil do mundo, priorizando velocidade sobre abrangência23. Ao invés de uma lei única, construiu uma teia de regulamentos específicos por tecnologia: algoritmos de recomendação (2022), síntese profunda/deepfakes (2023), e IA generativa (2023), sendo a primeira jurisdição do mundo a regular IA generativa com normas vinculantes24.
4.1 Três elementos que distinguem a abordagem chinesa
Regulação por tecnologia (não por risco): Diferente da UE que classifica por nível de risco, a China regula por tipo de tecnologia: algoritmos de recomendação, tecnologias de síntese profunda, IA generativa, cada um com seu próprio conjunto de regras25.
Controle ideológico integrado: Todos os sistemas de IA devem “incorporar valores socialistas fundamentais” e aderir à “direção política correta”26. Chatbots chineses recusam responder sobre Tiananmen, Tibet, Taiwan e outros temas sensíveis27. A CAC realiza auditorias de compliance para verificar respostas a consultas politicamente sensíveis.
Sistema de registro obrigatório: 238 serviços de IA generativa foram registrados junto à CAC em 2024 (versus 64 em 2023)28. Algoritmos com “atributos de opinião pública” requerem registro em 10 dias úteis após início do serviço.
4.2 Enforcement ativo e severo
A Alibaba foi multada em CNY 18,2 bilhões por uso anticompetitivo de algoritmos em 202129. Em 2024, a campanha “Qinglang” resultou em fechamento de sites e contas por conteúdo considerado inadequado30. As emendas à Cybersecurity Law de janeiro de 2026 aumentaram multas para até RMB 10 milhões para entidades31.
O AI Plus Action Plan (agosto 2025) estabeleceu metas agressivas: penetração de IA em 70% dos setores-chave até 2027 e 90% até 203032. O DeepSeek demonstrou que a China mantém competitividade algorítmica apesar das restrições de chips americanas: o gap de performance entre modelos EUA-China diminuiu de 9,3% em 2024 para 1,7% em fevereiro de 202533.
4.3 Uma observação importante
O modelo chinês é eficiente em termos de velocidade regulatória e desenvolvimento tecnológico, mas o controle ideológico integrado levanta preocupações sérias sobre liberdade de expressão e autonomia individual. Eficiência não pode ser o único critério quando avaliamos sistemas que impactam direitos humanos.
5 Estados Unidos: Inovação como Prioridade
Os EUA adotaram uma virada dramática com a administração Trump. O America’s AI Action Plan (julho de 2025) identificou mais de 90 ações de política federal com uma filosofia explicitamente “innovation-first”34. A Executive Order 14110 de Biden, a peça de governança mais abrangente anterior, foi revogada no primeiro dia do novo mandato35.
5.1 A filosofia de “dominância global”
O presidente Trump declarou: “Alcançar e manter dominância tecnológica global inquestionável é um imperativo de segurança nacional”36. O plano organiza-se em três pilares:
- Pilar 1: Acelerar inovação removendo “red tape” e regulações onerosas
- Pilar 2: Construir infraestrutura americana (incluindo o Projeto Stargate de $500 bilhões com Oracle, OpenAI e SoftBank)37
- Pilar 3: Liderar diplomacia internacional e contrapor influência chinesa
O FTC Chairman Andrew Ferguson resumiu a filosofia: “Impor regulações abrangentes na incipciência de uma potencial revolução tecnológica seria tolice. Por enquanto, devemos nos limitar a fazer cumprir leis existentes”38.
5.2 A fragmentação federal-estadual
A tensão mais significativa é a proliferação de leis estaduais em contraste com a desregulação federal. Em 2025, 1.208 bills de IA foram introduzidos em todos os 50 estados, com 145 aprovados em lei39. Os destaques incluem:
Colorado AI Act: Primeiro estado com lei abrangente, multas de até $20.000 por violação, vigência adiada para junho de 202640.
California: 7 novas leis de IA em 2025, incluindo requisitos de transparência para desenvolvedores com receita superior a $500M41.
Texas RAIGA: Proíbe usos discriminatórios, bane pontuação social, cria sandbox regulatório de 36 meses42.
A Executive Order de dezembro de 2025 criou um AI Litigation Task Force para contestar judicialmente leis estaduais, mas a tentativa de moratória de 10 anos sobre regulações estaduais fracassou no Senado por 99-143.
5.3 Uma reflexão sobre abordagens
Gostaria de ouvir outras perspectivas sobre isso, mas me parece que a abordagem americana apresenta um paradoxo: ao evitar regulação federal, criou-se uma colcha de retalhos de leis estaduais que pode ser ainda mais complexa para empresas navegarem. Além disso, a ênfase em “dominância” levanta questões sobre se estamos priorizando competição sobre colaboração internacional em um tema que, por natureza, é global.
6 Análise Comparativa: O Que Podemos Aprender
6.1 Semelhanças que me surpreenderam
Apesar das diferenças filosóficas profundas, as quatro abordagens compartilham preocupações comuns:
| Elemento | UE | Brasil | China | EUA |
|---|---|---|---|---|
| Preocupação com discriminação algorítmica | ✓ | ✓ | ✓ | ✓ (estadual) |
| Requisitos de transparência | ✓ | ✓ | ✓ | ✓ (limitado) |
| Sandboxes regulatórios | ✓ | ✓ | ✓ | ✓ (estadual) |
| Exceções para P&D | ✓ | ✓ | ✓ | ✓ |
| Foco em competitividade | ✓ | ✓ | ✓ | ✓ |
Todas proíbem ou restringem pontuação social por autoridades públicas, reconhecem a necessidade de supervisão humana em decisões críticas, e buscam equilibrar inovação com proteção (embora calibrem esse equilíbrio de formas radicalmente diferentes44).
6.2 Diferenças fundamentais de filosofia
| Dimensão | UE | Brasil | China | EUA |
|---|---|---|---|---|
| Filosofia | Rights-centric | Híbrida (direitos + desenvolvimento) | Controle estatal + inovação | Innovation-first |
| Tipo de regulação | Horizontal obrigatória | Horizontal + setorial | Fragmentada por tecnologia | Setorial + autorregulação |
| Classificação | Baseada em risco (4 níveis) | Baseada em risco (4 níveis) | Por tipo de tecnologia | Sem sistema formal |
| Extraterritorialidade | Sim | Limitada | Sim (na prática) | Não |
| Multa máxima | 7% faturamento global | 2% faturamento bruto | RMB 10 milhões (~$1,4M) | Varia por setor |
| Autoridade central | AI Office + nacionais | ANPD | CAC + setoriais | Nenhuma (FTC setorial) |
6.3 Particularidades que merecem atenção
União Europeia: Única com proibições absolutas de práticas consideradas incompatíveis com direitos fundamentais. Também é única com regras específicas para GPAI/foundation models e requisito de avaliação de impacto em direitos fundamentais (FRIA)45.
Brasil: Única jurisdição emergente do Sul Global com marco regulatório comparável aos líderes mundiais. Combina regulação inspirada na UE com foco em inclusão social e melhoria de serviços públicos46.
China: Única com requisitos ideológicos explícitos (“valores socialistas fundamentais”). Primeira a regular IA generativa com normas vinculantes. Estabelece limites quantitativos de tolerância (5% de dados ilegais no treinamento, 10% de conteúdo “não seguro” na geração)47.
Estados Unidos: Única com fragmentação federal-estadual intencional. Única com postura explícita de contestar judicialmente regulações consideradas onerosas48.
7 Implicações Práticas para Líderes
7.1 O desafio central: compliance multi-jurisdicional
Empresas operando globalmente enfrentam um dilema estratégico fundamental: adotar o padrão mais rigoroso globalmente (geralmente o EU AI Act) ou segmentar operações por jurisdição. A primeira opção simplifica compliance mas pode limitar inovação; a segunda permite otimização mas aumenta complexidade operacional49.
Na minha experiência, aprendi que o “footprint regulatório” de cada produto de IA precisa ser mapeado considerando: onde o sistema é desenvolvido, onde é implantado, onde estão os usuários afetados. O EU AI Act aplica-se sempre que usuários na UE são afetados, independentemente de onde a empresa está sediada50.
7.2 Matriz de risco por setor
| Setor | Risco na UE | Risco no Brasil | Risco na China | Risco nos EUA |
|---|---|---|---|---|
| Saúde/Diagnóstico | ALTO | ALTO | ALTO (NMPA) | MÉDIO (FDA) |
| Finanças/Crédito | ALTO | ALTO | ALTO | MÉDIO-ALTO |
| RH/Recrutamento | ALTO | ALTO | MÉDIO | BAIXO-MÉDIO |
| Marketing/Varejo | LIMITADO | LIMITADO | MÉDIO | BAIXO |
| Segurança/Vigilância | PROIBIDO/ALTO | ALTO | LIBERADO | VARIA por estado |
7.3 Cinco ações que gostaria de sugerir
Baseado no que percebi analisando essas regulações, compartilho algumas recomendações, novamente não como verdade absoluta, mas como ponto de partida para reflexão:
1. Inventariar todos os sistemas de IA classificando-os conforme categorias de risco do EU AI Act: este é o denominador comum mais exigente e serve como baseline global.
2. Mapear exposição geográfica por sistema: identificando usuários/afetados em cada jurisdição para determinar quais regimes regulatórios se aplicam.
3. Implementar documentação técnica robusta conforme padrões do AI Act: mesmo que não obrigatória em outras jurisdições, demonstra due diligence e facilita compliance futuro.
4. Estabelecer supervisão humana em decisões de alto impacto (crédito, emprego, saúde): requisito comum em todas as jurisdições e proteção contra responsabilidade. Mais importante: é a coisa certa a fazer quando decisões afetam vidas.
5. Monitorar regulações estaduais americanas: Colorado, California, Texas e Illinois criam obrigações específicas que podem afetar operações antes de qualquer lei federal.
8 Uma Reflexão Final
O panorama regulatório global de IA em 2025/2026 apresenta complexidade sem precedentes, mas também oportunidade. Empresas que investirem em governança robusta de IA agora estarão melhor posicionadas para operar em qualquer jurisdição, adaptar-se a mudanças regulatórias e construir confiança com clientes e sociedade (que inclusive tende a ser mais importante).
A divergência entre filosofias (direitos fundamentais na Europa, desenvolvimento inclusivo no Brasil, controle estatal na China, inovação desregulada nos EUA) reflete valores sociais distintos que não convergirão no curto prazo. A gestão dessa divergência é, portanto, competência estratégica central para qualquer organização com ambições globais em IA.
Mas gostaria de terminar com algo que vai além de compliance: dados são sobre pessoas, não apenas números. Por trás de cada sistema de IA que construímos ou implantamos, há vidas sendo impactadas. Por trás de cada regulação que navegamos, há tentativas, imperfeitas e às vezes contraditórias, de proteger dignidade humana.
A questão não é apenas se sua empresa estará em compliance quando os reguladores começarem a fiscalizar. A questão é: que tipo de futuro estamos construindo juntos?
Como vocês têm abordado esses desafios em suas organizações? Que dilemas enfrentam? Vamos conversar sobre isso.
Este documento foi elaborado com base em pesquisa realizada em fevereiro de 2026. As regulações de IA estão em constante evolução. Assim, recomendo verificar as fontes originais para informações atualizadas.
9 Referências
European Parliament. (2024). Regulation (EU) 2024/1689 - The EU AI Act. Disponível em: https://artificialintelligenceact.eu/the-act/↩︎
EU Artificial Intelligence Act. (2025). High-level summary of the AI Act. Disponível em: https://artificialintelligenceact.eu/high-level-summary/↩︎
Trail-ml. (2025). EU AI Act: Risk-Classifications of the AI Regulation. Disponível em: https://www.trail-ml.com/blog/eu-ai-act-how-risk-is-classified↩︎
European Parliament. (2025). Interplay between the AI Act and the EU digital legislative framework. ECTI_STU(2025)778575. Disponível em: https://www.europarl.europa.eu/RegData/etudes/STUD/2025/778575/ECTI_STU(2025)778575_EN.pdf↩︎
European Parliament. (2025). EU AI Act: first regulation on artificial intelligence. Disponível em: https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence↩︎
European Commission. (2025). AI Act | Shaping Europe’s digital future. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai↩︎
Holistic AI. (2025). Penalties of the EU AI Act: The High Cost of Non-Compliance. Disponível em: https://www.holisticai.com/blog/penalties-of-the-eu-ai-act↩︎
EU Artificial Intelligence Act. (2025). Implementation Timeline. Disponível em: https://artificialintelligenceact.eu/implementation-timeline/↩︎
3CL Foundation. (2025). The EU AI Act and USA AI.gov Action Plan: A Legal Comparison. Disponível em: https://www.3cl.org/the-eu-ai-act-and-usa-ai-gov-action-plan-a-legal-comparison/↩︎
CEPA. (2025). Europe’s AI Act Stumbles Out of the Gate. Disponível em: https://cepa.org/article/europes-ai-act-stumbles-out-of-the-gate/↩︎
European Parliament. (2025). Making Europe an AI continent. Think Tank. Disponível em: https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2025)775923↩︎
EU Artificial Intelligence Act. (2025). Overview of all AI Act National Implementation Plans. Disponível em: https://artificialintelligenceact.eu/national-implementation-plans/↩︎
Bird & Bird. (2025). AI Act: From timelines to tensions - A mid-2025 round-up. Disponível em: https://www.twobirds.com/en/insights/2025/ai-act-from-timelines-to-tensions–a-mid-2025-round-up↩︎
GOV.BR - Ministério da Ciência, Tecnologia e Inovação. (2024). Plano Brasileiro de IA terá supercomputador e investimento de R$ 23 bilhões em quatro anos. Disponível em: https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/noticias/2024/07/plano-brasileiro-de-ia-tera-supercomputador-e-investimento-de-r-23-bilhoes-em-quatro-anos/ia_para_o_bem_de_todos.pdf/@download/file?↩︎
Wikipedia. (2025). Projeto de Lei 2338/2023. Disponível em: https://pt.wikipedia.org/wiki/Projeto_de_Lei_2338/2023↩︎
Rádio Senado. (2024). Senado envia à Câmara proposta que regulamenta uso da IA no Brasil. Disponível em: https://www12.senado.leg.br/radio/1/noticia/2024/12/10/senado-envia-a-camara-proposta-que-regulamenta-uso-da-ia-no-brasil↩︎
Juridico AI. (2025). PL 2338/2023: Regulamentação da Inteligência Artificial no Brasil. Disponível em: https://juridico.ai/direito-digital/pl-2338-2023-regulamentacao-ia-brasil/↩︎
SIDI. (2025). PL 2338/2023: the impacts of regulating Artificial Intelligence in Brazil. Disponível em: https://www.sidi.org.br/en/blog/the-impacts-of-regulating-artificial-intelligence-in-brazil↩︎
GOV.BR - Ministério da Gestão. (2025). PL do governo propõe sistema de governança para a inteligência artificial no país. Disponível em: https://www.gov.br/gestao/pt-br/assuntos/noticias/2025/dezembro/pl-do-governo-propoe-sistema-de-governanca-para-a-inteligencia-artificial-no-pais↩︎
GOV.BR - Ministério da Gestão. (2024). Novo Plano Brasileiro de Inteligência Artificial prevê o investimento de R$ 1,76 bi para melhoria de serviços públicos. Disponível em: https://www.gov.br/gestao/pt-br/assuntos/noticias/2024/julho/novo-plano-brasileiro-de-inteligencia-artificial-preve-o-investimento-de-r-1-76-bi-para-melhoria-de-servicos-publicos↩︎
FecomercioSP. (2024). Plano Brasileiro de Inteligência Artificial é positivo, mas precisa ser aprimorado para que execução seja factível. Disponível em: https://www.fecomercio.com.br/noticia/plano-brasileiro-de-inteligencia-artificial-e-positivo-mas-precisa-ser-aprimorado-para-que-execucao-seja-factivel↩︎
Campelo Filho Advocacia. (2025). Brasil não avança na implementação do Plano Brasileiro de Inteligência Artificial. Disponível em: https://campelofilhoadv.com.br/brasil-nao-avanca-na-implementacao-do-plano-brasileiro-de-inteligencia-artificial/↩︎
IAPP. (2025). Global AI Governance Law and Policy: China. Disponível em: https://iapp.org/resources/article/global-ai-governance-china↩︎
Carnegie Endowment for International Peace. (2025). China’s AI Policy at the Crossroads: Balancing Development and Control in the DeepSeek Era. Disponível em: https://carnegieendowment.org/research/2025/07/chinas-ai-policy-in-the-deepseek-era?lang=en↩︎
Reed Smith. (2024). Navigating the Complexities of AI Regulation in China. Disponível em: https://www.reedsmith.com/en/perspectives/2024/08/navigating-the-complexities-of-ai-regulation-in-china↩︎
The Diplomat. (2025). Aligning AI With China’s Authoritarian Value System. Disponível em: https://thediplomat.com/2025/02/aligning-ai-with-chinas-authoritarian-value-system/↩︎
RSF. (2025). Controlling information in the age of AI: how state propaganda and censorship are baked into Chinese chatbots. Disponível em: https://rsf.org/en/controlling-information-age-ai-how-state-propaganda-and-censorship-are-baked-chinese-chatbots↩︎
Chambers and Partners. (2025). Artificial Intelligence 2025 - China. Disponível em: https://practiceguides.chambers.com/practice-guides/artificial-intelligence-2025/china↩︎
IAPP. (2025). Global AI Governance Law and Policy: China - Enforcement section. Disponível em: https://iapp.org/resources/article/global-ai-governance-china↩︎
Lawfare. (2025). China’s AI Governance Ambitions and Their Implications for Free Expression. Disponível em: https://www.lawfaremedia.org/article/china-s-ai-governance-ambitions-and-their-implications-for-free-expression↩︎
CNBC. (2024). Socialist AI: Chinese regulators are reviewing GenAI models for ‘core socialist values’. Disponível em: https://www.cnbc.com/2024/07/18/chinese-regulators-begin-testing-genai-models-on-socialist-values.html↩︎
GOV.CN. (2025). AI Plus Action Plan. Disponível em: https://www.gov.cn/yaowen/liebiao/202507/content_7033929.htm↩︎
Carnegie Endowment for International Peace. (2025). China’s AI Policy at the Crossroads - DeepSeek analysis. Disponível em: https://carnegieendowment.org/research/2025/07/chinas-ai-policy-in-the-deepseek-era?lang=en↩︎
The White House. (2025). America’s AI Action Plan. Disponível em: https://www.whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf↩︎
Wikipedia. (2025). Executive Order 14110. Disponível em: https://en.wikipedia.org/wiki/Executive_Order_14110↩︎
The White House. (2025). White House Unveils America’s AI Action Plan. Disponível em: https://www.whitehouse.gov/articles/2025/07/white-house-unveils-americas-ai-action-plan/↩︎
Sidley. (2025). The Trump Administration’s 2025 AI Action Plan – Winning the Race: America’s AI Action Plan – and Related Executive Orders. Disponível em: https://datamatters.sidley.com/2025/07/30/the-trump-administrations-2025-ai-action-plan-winning-the-race-americas-ai-action-plan-and-related-executive-orders/↩︎
Brookings. (2025). The EU and U.S. diverge on AI regulation: A transatlantic comparison and steps to alignment. Disponível em: https://www.brookings.edu/articles/the-eu-and-us-diverge-on-ai-regulation-a-transatlantic-comparison-and-steps-to-alignment/↩︎
Dataversity. (2025). Comparing EU and U.S. State Laws on AI: A Checklist for Proactive Compliance. Disponível em: https://www.dataversity.net/articles/comparing-eu-and-u-s-state-laws-on-ai-a-checklist-for-proactive-compliance/↩︎
The White House. (2025). Ensuring a National Policy Framework for Artificial Intelligence. Executive Order. Disponível em: https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/↩︎
Dataversity. (2025). Comparing EU and U.S. State Laws on AI - California section. Disponível em: https://www.dataversity.net/articles/comparing-eu-and-u-s-state-laws-on-ai-a-checklist-for-proactive-compliance/↩︎
Sidley. (2025). The Trump Administration’s 2025 AI Action Plan - State laws section. Disponível em: https://datamatters.sidley.com/2025/07/30/the-trump-administrations-2025-ai-action-plan-winning-the-race-americas-ai-action-plan-and-related-executive-orders/↩︎
The White House. (2025). Ensuring a National Policy Framework for Artificial Intelligence - Federal preemption section. Disponível em: https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/↩︎
3CL Foundation. (2025). The EU AI Act and USA AI.gov Action Plan: A Legal Comparison - Comparative analysis. Disponível em: https://www.3cl.org/the-eu-ai-act-and-usa-ai-gov-action-plan-a-legal-comparison/↩︎
Chatham House. (2025). The EU’s new AI code of practice has its critics but will be valuable for global governance. Disponível em: https://www.chathamhouse.org/2025/08/eus-new-ai-code-practice-has-its-critics-will-be-valuable-global-governance↩︎
Migalhas. (2024). Plano brasileiro de IA 2024-2028: Diretrizes e governança jurídica. Disponível em: https://www.migalhas.com.br/depeso/421796/plano-brasileiro-de-ia-2024-2028-diretrizes-e-governanca-juridica↩︎
IAPP. (2025). Global AI Governance Law and Policy: China - Technical requirements. Disponível em: https://iapp.org/resources/article/global-ai-governance-china↩︎
Think Tank Europa. (2025). AI takes centre stage in EU tech policy and soon becomes the test of Europe’s sovereignty ambitions. Disponível em: https://thinkeuropa.dk/en/brief/2025-06-ai-takes-centre-stage-in-eu-tech-policy-and-soon-becomes-the-test-of-europes↩︎
MIT Sloan Management Review. (2025). Organizations Face Challenges in Timely Compliance With the EU AI Act. Disponível em: https://sloanreview.mit.edu/article/organizations-face-challenges-in-timely-compliance-with-the-eu-ai-act/↩︎
Aligne. (2025). EU AI Act Penalties: €35M Fines Are Just the Beginning. Disponível em: https://www.aligne.ai/blog-posts/eu-ai-act-penalties-eu35m-fines-are-just-the-beginning↩︎