Em 1º de agosto de 2024 entrou em vigor o Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, que estabelece regras harmonizadas sobre inteligência artificial, o denominado Regulamento de Inteligência Artificial (AI Act). Embora sua plena aplicação esteja prevista para os próximos anos, o AI Act já se consolida como um marco normativo global. Estruturado a partir de uma abordagem baseada em riscos, o regulamento busca assegurar a segurança, a transparência e o respeito aos direitos fundamentais. Por meio de revisão bibliográfica e documental, este trabalho analisa as obrigações impostas aos sistemas de risco elevado pelo AI Act, avaliando se os mecanismos de conformidade e fiscalização previstos são suficientes para garantir a proteção dos direitos fundamentais das pessoas potencialmente afetadas por seu uso. Parte-se da hipótese de que a efetividade desses instrumentos ainda é incerta no que se refere à garantia da proteção dos direitos fundamentais, sobretudo em razão da elevada complexidade técnica dos sistemas de inteligência artificial, das assimetrias entre grandes corporações e pequenos desenvolvedores e da rápida evolução tecnológica, que impõe desafios constantes à atualização e à adequação das normas vigentes. Diante da complexidade e da dinamicidade dos riscos envolvidos, conclui-se que a efetividade da proteção dos direitos fundamentais dependerá da adoção de instrumentos complementares e de revisões periódicas que assegurem respostas normativas mais ágeis e substanciais, capazes de evitar a obsolescência do AI Act frente às constantes transformações tecnológicas.