Especialistas defendem proteção de dados processados por inteligência artificial

Seminário é promovido de forma remota por comissão de juristas que elabora proposta sobre regulação da IA
Roque de Sá/Agência Senado

Especialistas defendem proteção de dados processados por inteligência artificial

Da Agência Senado | 10/06/2022, 13h31

A comissão de juristas que analisa os projetos de lei sobre inteligência artificial (IA) retomou nesta sexta-feira (10) o seminário internacional com a participação de especialistas na área. Durante a manhã, eles analisaram os temas de proteção de dados e técnicas regulatórias baseadas em risco. Os painéis sobre mercados e sistemas de responsabilização, previstos para começar às 14h, serão transmitidos pelo canal da TV Senado no YouTube. O seminário foi iniciado na quinta (9).

O debate sobre proteção de dados e regulação de IA começou com a apresentação de Gabriela Zanfir, representante do Future of Privacy Forum (Estados Unidos). Para ela, o processamento automatizado de dados pessoais deve ser desenvolvido “para servir à raça humana”.

— O que isso quer dizer? A meta da proteção de dados é garantir que a informação relacionada ao indivíduo seja coletada e utilizada a partir de meios automatizados e algorítmicos de tal forma que todos os seus demais direitos fundamentais sejam protegidos. Precisamos proteger esses dados pessoais. Mesmo que decisões automatizadas atuem em larga escala, é preciso assegurar que essas decisões sejam tomadas de forma justa. Que as liberdades pessoais sejam protegidas, como o direito a privacidade, segurança, não discriminação e liberdade de reunião — afirmou.

Professor da Universidade Politécnica de Turim (Itália), Alessandro Mantelero destacou a importância de uma abordagem de proteção de dados baseada em riscos. Ele afirmou que ferramentas de coleta e processamento de informações pessoais não podem sobrepor o interesse econômico aos direitos individuais.

— A avaliação de risco significa que você precisa avaliar o risco antes que ele ocorra. É preciso desenvolver uma inteligência artificial que seja orientada e motivada pelos direitos humanos. O interesse meramente econômico não pode prevalecer sobre a proteção de dados pessoais. É um tipo de hierarquia entre os interesses. Não quer dizer que você não pode fazer negócios ou não pode ter proteção de interesses econômicos. Mas o foco deve ser os direitos humanos — argumentou.

A advogada Teki Akuetteh Falconer, da Africa Digital Rights’ Hub (Gana), alertou para uma série de “lacunas e questões éticas” que precisam ser consideradas no desenvolvimento de ferramentas de IA. Ela defendeu a atuação conjunta de especialistas de várias áreas para que direitos individuais sejam assegurados.

— Talvez haja lacunas com relação a direitos econômicos e com relação a discriminação também, o que nos demanda a construção de estruturas. É preciso trazer engenheiros e especialistas em privacidade e em direitos humanos. Vamos precisar trazer os especialistas de inteligência artificial, de forma a sermos capazes de construir uma estrutura dedicada para lidar com os desafios neste momento. Precisamos compreender o ecossistema dentro de nossa jurisdição — disse.

O debate contou ainda com a participação de Robin Wetherill, representante da Comissão Federal de Comércio dos Estados Unidos. Ela sublinhou que o avanço da tecnologia observado nas últimas décadas precisa ser acompanhado de medidas de moderação que protejam consumidores e crianças, por exemplo.

— Desenvolvemos recomendações para que os desenvolvedores tenham em mente a segurança de proteção de dados para determinar quando manter e quando se livrar de uma informação. É preciso considerar a sensibilidade da informação na hora de se desenvolver produtos de reconhecimento facial e serviços relacionados, por exemplo. O relatório recomenda que sinais digitais que utilizam reconhecimento facial não devem ser aplicados em locais onde crianças de reúnem. Eles não podem coletar dados faciais de crianças — mencionou.

Técnicas regulatórias

O painel sobre técnicas regulatórias e abordagem baseada em risco começou com a apresentação de Eike Graf, representante da Comissão Europeia. Ele defendeu que a legislação aplicada sobre direitos fundamentais seja estendida à gestão de dados por meio de inteligência artificial.

— Se já existem algumas regras, devemos trazer adendos a elas. Regras trabalhistas e leis do consumidor são relevantes para a utilização em sistemas de inteligência artificial. O uso de um sistema de IA está sujeito a direitos e obrigações. Se houver algum problema na utilização de tecnologias, deve-se evitar a prática, se necessário. Os direitos que temos para proteger os direitos fundamentais obviamente continuam a ser aplicados em diversas outras instâncias. A questão é onde devemos, devido à opacidade ou à complexidade, fazer um esforço extra para manter os direitos que já estão dispostos, assim como propor deveres extras — sugeriu.

Para Pam Dixon, fundadora do World Privacy Forum, o mundo assiste a uma aceleração em temas como inteligência artificial e machine learning — campo da engenharia que estuda o aprendizado automático de certas rotinas por máquinas e computadores. Ela defendeu um sistema regulatório específico para dar conta desse novo cenário.

— O mundo diante de nós é outro, totalmente diferente de dez anos atrás. Ao pensarmos sobre regulações para esses sistemas, pensamos que são sistemas visíveis para nós. Porém, cada vez mais estamos indo em direção a um mundo em que eles não serão apenas invisíveis. Eles serão como os encanamentos das casas: você sabe que está lá e você consegue ligar a torneira. Mas você não vai necessariamente conseguir ver os canos. Estamos seguindo rapidamente para isso. Quando isso acontecer, será necessário um controle regulatório distinto — afirmou.

O seminário contou ainda com a participação de Courtney Lang, representante do Conselho Industrial de Tecnologia e Informação (ITI) com sede nos Estados Unidos. Ela defendeu que os critérios usados para a definição de situação de risco no processamento de dados pessoais por meio de inteligência artificial sejam definidos em conjunto por governos e empresas de tecnologia.

— Os riscos precisam ser mitigados para o uso específico da IA. Isso ajudará a evitar resultados indesejados. Devemos trabalhar com acionistas e olhar quais seriam os maiores riscos para aplicação dessas regulamentações. Seria, claro, papel do governo estabelecer essas regras, mas também dos acionistas, que devem decidir o que seria um sistema de alto risco em inteligência artificial — afirmou.

A comissão temporária de juristas foi criada no Senado por ato do presidente da Casa, senador Rodrigo Pacheco. Formado por 18 especialistas, o colegiado tem até agosto para sugerir uma minuta de substitutivo para reunir os Projetos de Lei (PLs) 5.051/2019, 21/2020 e 872/2021. As matérias estabelecem princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil.

Fonte: Agência Senado

Notícias

Contrato de namoro: Bobagem ou blindagem patrimonial?

Contrato de namoro: Bobagem ou blindagem patrimonial? Izabella Vasconcellos Santos Paz O artigo aborda a importância do contrato de namoro como proteção patrimonial em relacionamentos informais. terça-feira, 23 de dezembro de 2025 Atualizado às 13:24 "Os tempos são líquidos porque tudo muda tão...

STJ julga caso inédito de adoção unilateral com manutenção de poder familiar

Família STJ julga caso inédito de adoção unilateral com manutenção de poder familiar 4ª turma fixou solução inovadora proposta pelo ministro Buzzi. Da Redação sexta-feira, 6 de dezembro de 2019 Atualizado em 7 de dezembro de 2019 16:30 A 4ª turma do STJ concluiu na quinta-feira, 5, julgamento que...

Inclusão do cônjuge do devedor na execução: até onde vai a conta do casamento?

Opinião Inclusão do cônjuge do devedor na execução: até onde vai a conta do casamento? Lina Irano Friestino 19 de dezembro de 2025, 9h25 A decisão do STJ no REsp 2.195.589/GO reforça algo que, no fundo, já estava escrito na lógica do regime de bens: casar sob comunhão parcial significa dividir não...

Contrato e pacto antenupcial pela perspectiva de gênero

Contrato e pacto antenupcial pela perspectiva de gênero Autor: Rodrigo da Cunha Pereira | Data de publicação: 16/12/2025 O Direito das Famílias e Sucessões está cada vez mais contratualizado. Isto é resultado da evolução e valorização da autonomia privada, que por sua vez, vem em consequência do...

Autocuratela o novo instrumento que redefine autonomia no futuro

Autocuratela o novo instrumento que redefine autonomia no futuro Marcia Pons e Luiz Gustavo Tosta Autocuratela, agora regulamentada pelo CNJ, permite que qualquer pessoa escolha seu curador antecipadamente, reforçando autonomia e prevenindo conflitos familiares. terça-feira, 9 de dezembro de...