
A inteligência artificial (IA) já não é apenas uma promessa tecnológica — é uma força que transforma o modo como vivemos, trabalhamos e tomamos decisões. Suscita um misto de emoções: entusiasmo face a ganhos exponenciais de eficiência, reinvenção de modelos de negócio e automação inteligente; e receio legítimo com riscos de privacidade, manipulação, viés algorítmico, propriedade intelectual, deepfakes, fraudes e ciberataques. É neste equilíbrio instável entre inovação e risco que se desenha o debate global, em que a liderança tecnológica tem sido dos EUA e China e a liderança regulatória da União Europeia (UE).
É possível inovar com regras ou as regras são inevitavelmente um travão? Quais regras?
O Regulamento (UE) 2024/1689, de 13 de junho de 2024, conhecido como “AI Act”, estabelece normas harmonizadas para a colocação no mercado e uso de sistemas de IA na UE, aplicando-se a fornecedores, importadores, distribuidores, utilizadores e terceiros. Define requisitos em governação, gestão de risco (como dados, treino e incidentes), documentação, rastreabilidade, transparência e avaliação de conformidade, adaptados ao nível de risco. A abordagem assenta numa hierarquia, não explícita, de quatro níveis: risco inaceitável e proibido (que inclui manipulação subliminar, exploração de vulneráveis, social scoring e identificação biométrica remota em tempo real); risco elevado (que abrange biometria, infraestruturas críticas, educação, emprego, serviços essenciais (crédito, apoios sociais, aplicação da lei, fronteiras, asilo e justiça) sujeitos a exigências de gestão de risco como governo de dados, qualidade, conformidade, supervisão humana e mitigação de enviesamentos, entre outras; risco limitado (como IA generativa, chatbots ou sistemas de recomendação), obrigados a garantir transparência; e risco mínimo (como filtros de spam e algoritmos de videojogos), estes sem obrigações específicas. Prevê coimas elevadas, até 35 milhões de euros ou 7% da faturação global em caso de exercício de práticas proibidas. A aplicação é faseada: desde fevereiro de 2025 proíbem-se práticas de risco inaceitável; em agosto de 2025, prestadores de modelos de IA de finalidade geral têm de cumprir requisitos de transparência, documentação técnica, rastreabilidade, entre outros; em agosto de 2026, fornecedores e utilizadores de IA de alto risco ficam obrigados a avaliações de conformidade, sistemas de gestão da qualidade, supervisão humana, prevenção de enviesamentos e rastreabilidade de dados. Estas obrigações aplicam-se também a bancos, seguradoras e gestoras de fundos que usem IA em decisões como crédito, fraude, scoring ou sinistros.
Nos EUA, berço da IA generativa que despoletou o interesse global pela IA, não há ainda uma lei federal específica e abrangente. A Califórnia adotou normas que obrigam empresas que desenvolvam e/ou forneçam IA generativa a divulgar dados de treino, identificar conteúdos gerados por IA e, em certos casos, disponibilizar ferramentas gratuitas de deteção. No Colorado, empresas que criem ou usem IA em decisões com grande impacto (como crédito, habitação ou emprego) têm de realizar avaliações de impacto, detalhar finalidade, dados, riscos e medidas mitigadoras e garantir documentação técnica, aviso aos afetados e informação sobre direitos de contestação. Em Nova Iorque, discute-se legislação que imponha auditorias contra discriminação a empresas que desenvolvem sistemas de IA; obrigações de transparência e supervisão a fornecedores; e, para utilizadores, o dever de informar os visados, justificar decisões automatizadas, garantir recurso e divulgar relatórios periódicos. No Texas, propõe-se que empresas com IA em decisões consequenciais adotem modelos de governação para proteger consumidores. Estes exemplos ilustram a abordagem fragmentada e descentralizada dos EUA à regulação da IA, que se faz também judicialmente. Os tribunais ganham protagonismo na definição dos limites legais da IA, sobretudo quanto ao uso de conteúdos protegidos por direitos de autor no treino de modelos fundacionais. Casos como The New York Times v. OpenAI e Westlaw v. Ross Intelligence questionam se o “fair use” cobre a extração massiva de dados editoriais e jurisprudenciais. É ainda incerto se estas decisões afetarão instituições, inclusive financeiras, que usem IA para análise documental, automatização de relatórios ou atendimento.
A UE pioneira na regulação, enfrenta dilemas quanto à inovação. Embora o AI Act preveja a criação de sandboxes regulamentares para permitir a experimentação de sistemas de IA, sobretudo os de alto risco, em ambiente supervisionado, o acesso a estes mecanismos necessita de demonstração de garantias de natureza ética, mitigação de riscos e objetivos de interesse público, bem como, da aprovação de autoridades nacionais competentes que, em Portugal, pode envolver 14 entidades com a coordenação da ANACOM, podendo assim comprometer a acessibilidade, a celeridade e ser mais um entrave do que um motor de inovação. Uma realidade para a qual instituições, inclusive as financeiras, interessadas em testar sistemas inovadores de scoring, onboarding ou análise preditiva dentro dos sandboxes europeus terão que se preparar.
A UE adota uma abordagem ex ante, centrada no princípio da precaução e num modelo normativo uniforme, independente da maturidade tecnológica. Os EUA seguem um modelo ex post, baseado na responsabilização a posteriori, com forte intervenção judicial e reguladores setoriais. Paradoxalmente, embora a UE tente definir as regras, são os EUA que detêm os principais protagonistas: OpenAI, Anthropic, Meta, Microsoft ou Google. A Europa, com um vasto mercado de utilizadores e instituições, poderá impor as suas normas via “Brussels Effect”, mas arrisca-se a ser reguladora sem peso real na inovação, sobretudo perante mercados alternativos atrativos e sem soluções tecnológicas internas fortes. Este desalinhamento entre quem regula e quem inova levanta dilemas. Por mais necessário que seja para proteger direitos e prevenir danos sociais, a regulação não pode asfixiar o dinamismo tecnológico. Exigências desproporcionadas ou processos morosos podem afastar investimento e inibir o crescimento de um ecossistema europeu competitivo. Por outro lado, a ausência de regras, como em muitas áreas dos EUA, pode alimentar opacidade, riscos sistémicos e perda de confiança. O desafio está no equilíbrio: garantir ética e segurança sem travar a invenção e inovação.
A regulação da IA não é apenas um exercício jurídico, mas uma estratégia de posicionamento geopolítico e económico num mundo onde a tecnologia deixou de ser neutra. A verdadeira questão talvez não resida apenas em quem regula melhor, mas em quem molda com mais inteligência o próprio destino tecnológico. A IA avança: treinada, lançada, rentabilizada. O que está em jogo não é apenas a forma como a regulamos, mas a quem pertence o futuro que ela irá moldar. Se a Europa quiser deixar de ser apenas um mercado e passar a ser um protagonista, terá de correr riscos e não apenas regulá-los.