Semana de quatro dias na OpenAI: um modelo para o futuro do trabalho?
A regulacao internacional de inteligencia artificial entrou em uma nova fase em 2026, com a implementacao efetiva do EU AI Act na Europa e o avanco de legislacoes em dezenas de paises. Pela primeira vez, um marco regulatorio abrangente comecou a produzir efeitos concretos sobre o desenvolvimento e a implantacao de sistemas de IA em escala global.
O EU AI Act classifica sistemas de IA em quatro niveis de risco: minimo, limitado, alto e inaceitavel. Sistemas de risco inaceitavel — como pontuacao social e vigilancia biometrica em massa — sao simplesmente proibidos. Sistemas de alto risco, usados em saude, educacao, justica e seguranca, estao sujeitos a requisitos rigorosos de documentacao, transparencia e supervisao humana.
As multas previstas sao significativas: ate 7% do faturamento global anual para as violacoes mais graves, ou 35 milhoes de euros, o que for maior. Para comparacao, o GDPR — a lei de protecao de dados europeia — preve multas de ate 4% do faturamento global. O sinal enviado pelo legislador europeu e claro: IA e um assunto serio demais para ser deixado apenas a autorregulacao do mercado.
Para empresas brasileiras que operam na Europa ou processam dados de cidadaos europeus, o EU AI Act ja e uma realidade. A conformidade exige mapeamento de todos os sistemas de IA em operacao, classificacao de risco, documentacao tecnica e, para sistemas de alto risco, avaliacao de impacto algoritmico.
O Brasil, que ainda discute seu proprio marco legal, pode se beneficiar da experiencia europeia para evitar erros e adaptar solucoes a realidade nacional. Mas o tempo urge: quanto mais tempo o Congresso leva para aprovar uma lei abrangente, mais sistemas de IA sao implantados sem a devida regulacao.