
Tectalks: Tecnisys promove lives sobre Banco de dados e Big Data
29 de novembro de 2019
WSO2 Identity Server em relação a LGPD – Lei Geral de Proteção de Dados
12 de dezembro de 2019A Lei Geral de Proteção de Dados (LGPD) – Lei 13.709/2018 entrará em vigor em agosto de 2020 e trará consigo muitos oportunidades e desafios para as organizações no que tange a segurança de dados pessoais em um ambiente de Big Data.
Para os otimistas, essa é uma excelente oportunidade para criar programas de compliance, conseguir investimentos em produtos e serviços, antes não priorizados, e adequar o ambiente as melhores práticas de segurança.
Já os desafios se concentram na necessidade de controle de acesso, auditoria, rastreabilidade e integridade dos dados. Para isso, temos frameworks essenciais para a implementação e manutenção da LGPD em um cluster Hadoop.
Entre esses frameworks, destaque para o Apache Ranger, o qual o controle de acesso aos dados e serviços através de políticas de segurança a nível de usuário e grupo. O Ranger também fornece a auditoria de acessos e ações realizadas dentro do cluster.
O Apache Atlas e o Apache Knox também não ficam de fora dessa lista. O primeiro possibilita o gerenciamento de metadados, a rastreabilidade e, em parceria com o Apache Ranger, o mascaramento de dado. Já o segundo garante a segurança em perímetro do ambiente centralizando o acesso aos serviços do cluster em um único ponto, reduzindo assim, o risco de ataques e acessos indevidos.
A seguir detalhamos a importância de tais frameworks e as configurações recomendadas para um ambiente de Big Data, em conformidade com a LGPD.
Apache Ranger
O Apache Ranger é um dos frameworks do ecossistema Hadoop cruciais para a implementação e manutenção da LGPD em um ambiente de Big Data. Através desse framework é possível manter uma segurança fina e centralizada por meio de políticas de operação e acesso à dados a nível de componentes.
Com o Apache Ranger padronizamos o método de autorização de um cluster Hadoop, podendo os usuários e grupos gerenciados serem carregados e sincronizados do próprio domínio da organização (LDAP), uma segurança a mais para o ambiente.
Outro recurso de destaque do Apache Ranger é o seu serviço de gerenciamento de chaves de criptografia (Ranger Key Management Service – KMS), as quais podem ser utilizadas para criptografar dados no HDFS.
A auditoria centralizada também é ponto forte do Apache Ranger. Sua interface web possui uma seção exclusiva para auditoria, a qual permite ao administrador visualizar os acessos e as ações de todos os usuários nos componentes do cluster de Big Data.
Apache Atlas
O Apache Atlas fornece serviços de governança de dados essenciais para um ambiente de Big Data em conformidade com a LGPD.
Através do Apache Atlas é possível classificar entidades e definir propriedades (metadados) para os ativos de dados da organização, como EXPIRES_ON e SENSITIVE. A partir dessa classificação (tags), e a integração com o Apache Ranger, o administrador de dados pode habilitar controles de acesso e mascaramento de dados sensíveis. Por exemplo, determinado grupo de usuários só poderia visualizar os 5 primeiros dígitos de um CPF armazenado no cluster de Big Data.
Além disso, na interface web do Apache Atlas é possível visualizar de forma simples e fácil a linhagem e correlação do dado dentro ambiente de Big Data, sendo possível identificar por quais componentes um dado passou.
Apache Knox
O Apache Knox é outro framework que não pode ficar de fora da lista. O Knox funciona como um gateway e proxy para os serviços Hadoop e suas interfaces gráficas. Dessa forma, é possível acessar tais serviços por trás de um firewall sem precisar expor suas portas.
O recurso de SSO (Single Sign-On) do Knox, integrado ao serviço de LDAP (OpenLDAP ou AD) da organização, possibilita centralizar a operação de autenticação, agregando assim mais segurança ao ambiente de Big Data.
Conexões Seguras (SSL)
Em conformidade com a LGPD, a transmissão de dados pessoais deve ser sempre realizada de forma segura. Sendo assim, a configuração de uma conexão segura (Secure Sockets Layer – SSL) entre um servidor e um cliente é de extrema importância no ambiente de Big Data.
Diversos frameworks do ecossistema Hadoop, inclusive o Apache Knox, possibilitam o uso de chaves de criptografia em suas conexões, garantindo assim a autenticidade ponta-a-ponta.
Kerberos
A autenticação de usuários é um ponto chave na manutenção da LGPD. Em um ambiente de Big Data elevamos a segurança desse processo com o MIT Kerberos, um padrão confiável de autenticação de usuário e recursos.
Resumidamente, um cluster Hadoop “kerberizado” utiliza-se de tickets para validar e propagar a identidade de usuários dentro do ambiente.
Impersonificação (Impersonation)
Mesmo autenticado, um usuário pode realizar requisições a um serviço como se fosse outro. Essa é uma falha grave na LGPD que pode inclusive invalidar toda a segurança do processo de autenticação.
Em um cluster Hadoop, por padrão, componentes como o Apache Zeppelin, executam as suas tarefas com o seu próprio usuário do serviço. Logo, em conformidade com a LGPD, é importante configurar o recurso de impersonificação desses componentes, fazendo com que suas ações sejam executadas dentro do cluster pelo usuário que o acessou.
Autor: Davy Machado, especialista na Tecnisys.