O conteúdo desse portal pode ser acessível em Libras usando o VLibras

Frameworks de Inteligência Artificial como Habilitadores de Privacidade, Segurança e Proteção a Dados

Resumo: O avanço das tecnologias baseadas em inteligência artificial (IA) tem impulsionado a digitalização e a automação em diversos setores, gerando benefícios expressivos, mas também expondo desafios significativos relacionados à privacidade, segurança e proteção de dados. O processamento de grandes volumes de informações, muitas vezes sensíveis, levanta preocupações sobre vazamentos, acessos não autorizados e conformidade com regulamentações, como a Lei Geral de Proteção de Dados (LGPD) e o Regulamento Geral sobre a Proteção de Dados (GDPR). Neste contexto, este projeto propõe a investigação e o desenvolvimento de frameworks de IA que atuem como habilitadores de privacidade e segurança, promovendo garantias de confidencialidade, integridade e controle sobre os dados manipulados.

O projeto será estruturado em três eixos principais. O primeiro eixo abordará técnicas de aprendizado de máquina e aprendizado federado com mecanismos de proteção, como privacidade diferencial e criptografia homomórfica. O objetivo é permitir a realização de treinamentos descentralizados sem expor dados brutos, reduzindo riscos de vazamentos e acessos indevidos. Além disso, serão avaliadas abordagens híbridas que combinem múltiplas técnicas de segurança para aprimorar a resiliência dos modelos.

O segundo eixo investigará métodos de explicabilidade e auditoria algorítmica para garantir transparência e confiabilidade na tomada de decisões baseada em IA. Serão exploradas técnicas de interpretabilidade que permitam compreender como os modelos processam informações sensíveis, além da implementação de mecanismos para rastrear e mitigar potenciais vieses discriminatórios. Esses aspectos são essenciais para a adoção ética e responsável da IA em aplicações críticas, como saúde, finanças e segurança cibernética.

Por fim, o terceiro eixo do projeto tratará da integração desses frameworks com arquiteturas de software seguras, considerando aspectos como controle de acesso, anonimização e conformidade regulatória. Serão desenvolvidos protótipos de APIs e middleware que incorporem nativamente princípios de segurança, possibilitando a criação de sistemas inteligentes mais robustos e confiáveis.

Os resultados esperados incluem a formulação de diretrizes para o desenvolvimento seguro de aplicações baseadas em IA, a criação de ferramentas que viabilizem a adoção prática dessas técnicas e a publicação de estudos que contribuam para o avanço do estado da arte em segurança e privacidade em IA. Dessa forma, este projeto busca não apenas mitigar riscos associados ao uso da IA, mas também fomentar sua aplicação de maneira responsável, ética e alinhada às necessidades de proteção de dados na sociedade digital.

Data de início: 01/04/2025
Prazo (meses): 24

Participantes:

Papelordem decrescente Nome
Pesquisador RODOLFO DA SILVA VILLACA
Vice-Coordenador VINICIUS FERNANDES SOARES MOTA
Acesso à informação
Transparência Pública

© 2013 Universidade Federal do Espírito Santo. Todos os direitos reservados.
Av. Fernando Ferrari, 514 - Goiabeiras, Vitória - ES | CEP 29075-910

Conteúdo acessível em Libras usando o VLibras Widget com opções dos Avatares Ícaro, Hosana ou Guga. Conteúdo acessível em Libras usando o VLibras Widget com opções dos Avatares Ícaro, Hosana ou Guga.