Skip to main content
ArtigosProteção de DadosPublicações

O impacto do ChatGPT na privacidade de dados

O assunto das últimas semanas é a Inteligência Artificial (IA), principalmente desde o sucesso do ChatGPT. Em resumo, a Inteligência Artificial é uma tecnologia que permite à uma máquina, que na prática seria o computador, replicar habilidades humanas.

O ChatGPT (“Generative Pre-Trained Transformer”) é um dos tipos de inteligência artificial que, em uma livre tradução significa gerador de bate-papo pré-treinado. Foi desenvolvido pela organização americana OpenAI, para gerar textos em linguagem semelhante à de um humano. Na prática, ele se parece muito com um aplicativo de mensagem instantânea, ou seja, o usuário escreve mensagens na caixa de texto e o Chat começa a responder com base em Inteligência Artificial.

Uma grande questão é como equilibrar o crescimento da utilização da IA com a garantia ao direito de privacidade. O Artigo 20º da LGPD estabelece regras para o uso de tecnologias como a IA de forma a evitar prejuízos à privacidade das pessoas, tais como a proibição de discriminação ou tratamento desigual baseado em dados pessoais processados por sistemas de IA.

Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.

  • § 1º O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial.
  • § 2º Em caso de não oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais.”

Na avaliação de especialistas, um dos pontos de atenção é a questão do plágio. Muitos usuários do chat, usam a plataforma para fazer trabalhos escolares, por exemplo, e acabam se utilizando de textos sem fazer qualquer tipo de referência ou créditos ao autor.

Quando falamos na utilização da ferramenta por uma empresa, cuidados ainda maiores devem ser tomados. O fluxo intenso de dados, exige maior transparência e monitoramento por parte das empresas e seus controladores, além de garantir que a utilização da plataforma seja compatível às normas de privacidade da empresa.

Os dados enviados para o Chat GPT podem ser processados em servidores que não estão localizados no Brasil devido a tecnologias proprietárias, segredos industriais ou patentes da empresa americana OpenAI, sujeitando-se diretamente às legislações de proteção de dados ou até mesmo decisões judiciais de quebra de sigilo, se necessário.

Outro ponto que merece atenção, é com relação aos temas de questão moral. Em uma análise jurídica, normalmente esses assuntos esbarram em dados pessoais sensíveis definidos na LGPD no artigo 5, inciso 2. O processamento de grande volume de dados sensíveis, requer proteção especial de acordo com a LGPD

“Art. 5º Para os fins desta Lei, considera-se:

II – dado pessoal sensível: dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural;”

Nos casos em que possa eventualmente afetar ou impactar a dignidade humana. o Chat GPT se nega a responder. E essas questões devem ser bem estruturadas e, sua definição de alcance e conteúdo monitorado. 

É fato que a ferramenta Chat GPT veio para ficar! Uma prova disso é que a Microsoft anunciou o lançamento do Microsoft 365 Copilot, um assistente de trabalho que utiliza Inteligência Artificial (IA) avançada para otimizar a eficiência dos usuários.

Não há dúvidas que a utilização e avanços da utilização da Inteligência Artificial requer amplo conhecimento e avaliação, em especial no gerenciamento dos riscos que se impõem para os titulares de dados e controladores e claro, para a Autoridade Nacional de Proteção de Dados (ANPD) que, terá um grande volume de trabalho.

Mariana Ferraz Barboza Lima é Bacharel em Direito pela Universidade Presbiteriana Mackenzie. Possui experiência em Contencioso Cível e Compliance, passando pelas áreas de LGPD, Direito Civil, Direito Tributário. Coordenadora da área de LGPD e Compliance na ZMR Advogados.

Mariana Ferraz Barboza Lima

Autor Mariana Ferraz Barboza Lima

Mais publicações de Mariana Ferraz Barboza Lima

Deixe uma resposta

×