Numa primeira versão, haveria uma instituição que cuidaria da aplicação da legislação. Na última versão do relatório, a ANPD (Autoridade Nacional de Proteção de Dados) fica na coordenação. O SIA (Sistema Nacional de Regulação de Inteligência Artificial) classificará os usos de IA de alto risco (inclusive, podendo mudar as classificações), além de interagir com especialistas, um comitê técnico e autoridades setoriais.
Transparência: "estou falando com uma IA?"
Inspirado no AI Act, legislação europeia sobre o tema, o projeto brasileiro é baseado no risco potencial das inteligências artificiais com a lógica de direitos das pessoas.
O conceito de transparência se estende para várias áreas. Ainda que um chatbot de atendimento seja um uso sem grandes riscos, com a lei as pessoas deverão ter alguma ideia sobre se as decisões que foram tomadas sobre elas foram baseadas em inteligência artificial, e quais critérios foram utilizados.
Direito: "Ué, por que esse sistema tomou essa decisão?"
Os sistemas de inteligência artificial deverão ter supervisão humana, quando possível, e as pessoas têm direito à explicação, no caso de uso de IA considerado de alto risco (mais abaixo, há alguns exemplos).