Numa primeira versão, haveria uma instituição que cuidaria da aplicação da legislação. Na última versão do relatório, a ANPD (Autoridade Nacional de Proteção de Dados) fica na coordenação. O SIA (Sistema Nacional de Regulação de Inteligência Artificial) classificará os usos de IA de alto risco (inclusive, podendo mudar as classificações), além de interagir com especialistas, um comitê técnico e autoridades setoriais.
Transparência: "estou falando com uma IA?"
Inspirado no AI Act, legislação europeia sobre o tema, o projeto brasileiro é baseado no risco potencial das inteligências artificiais com a lógica de direitos das pessoas.
O conceito de transparência se estende para várias áreas. Ainda que um chatbot de atendimento seja um uso sem grandes riscos, com a lei as pessoas deverão ter alguma ideia sobre se as decisões que foram tomadas sobre elas foram baseadas em inteligência artificial, e quais critérios foram utilizados.
Direito: "Ué, por que esse sistema tomou essa decisão?"
Os sistemas de inteligência artificial deverão ter supervisão humana, quando possível, e as pessoas têm direito à explicação, no caso de uso de IA considerado de alto risco (mais abaixo, há alguns exemplos).

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 ano atrás
25
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/q/g/ZdFATORB6obJ0jhDAzyg/aplicativo-golpe.png)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/7/G/oamV8qRfeAmA34TmKLLQ/universal-tower-defense-codes-dezembro-2025.jpg)


:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro