Por uma tecnologia ética

Inovação traz questionamentos e desafios que mostram a importância das Ciências Humanas na área

Por Carol Correia – Fonte: www.ufrj.br

Assistentes virtuais, câmeras de vigilância, relógios que monitoram atividades físicas, aplicativos de supermercado: esses e outros avanços tecnológicos podem garantir vidas mais dinâmicas e confortáveis, mas quais são as implicações éticas, sociais e democráticas envolvidas na inovação?

A pandemia da covid-19 intensificou o uso dos dispositivos para diversas funções, sejam de trabalho, estudo ou lazer, e trouxe à tona debates sobre o tema. Em 11/4, durante aula inaugural do Programa de Pós-Graduação em Ciência da Informação – parceria entre a UFRJ e o Instituto Brasileiro de Informação em Ciência e Tecnologia (Ibict) –, a cientista da computação, pesquisadora e hacker antirracista Nina da Hora mostrou que a sociedade vem enfrentando cenários cada vez mais desafiadores em busca de uma tecnologia mais ética e segura.

Um dos artigos mais desejados do momento, a Alexa, assistente virtual criada e gerenciada pela Amazon, entrou em voga nas últimas semanas devido a declarações sobre a possibilidade de ser usada como escuta ativa dentro das residências. Esse é apenas um exemplo de como os dados dos cidadãos vêm sendo ameaçados, já que não existe uma indicação clara de como as informações obtidas por dessas aplicações são usadas.

Muitas vezes a maior dificuldade em combater o uso indevido dos dados vem da conveniência que as empresas propõem ao anunciar seus produtos. Soluções para seu dia ser mais eficiente e barato, seus problemas resolvidos apenas na tela do celular ou, até mesmo, entretenimento em um único clique. Tudo isso atrai uma sociedade forçada a buscar uma maneira mais ágil de viver, e que acaba não enxergando os riscos de ceder suas informações.

Nina da Hora durante palestra | Foto: Moisés Pimentel

Da Hora cita empresas especializadas em testes de DNA, que vendem seu produto para que o cliente saiba informações, muitas vezes apenas a título de curiosidade, sobre seu código genético. “Teste de DNA para o sul global mexe com o emocional das pessoas porque é direcionado para ancestralidade e origens, já que foi um povo colonizado”, explica.

Embora o Brasil tenha aprovado em 2018 a Lei Geral de Proteção de Dados (LGPD) – que dispõe sobre o tratamento de dados pessoais com o objetivo de proteger os direitos fundamentais de privacidade e liberdade –, a evolução e o acompanhamento das tecnologias são ineficientes.

Racismo e a inteligência artificial: um problema latente

A inteligência artificial (IA) é um ramo da tecnologia que tenta se aproximar do entendimento do cérebro humano, com aprimoramentos constantes e interpretações para chegar a soluções. A corrente de estudos de IA a que Da Hora se vincula busca entender o que significa inteligência antes mesmo de entrar na palavra artificial – percebendo um processo humano e social no pensamento.

“Precisamos pensar quais são os aspectos sociais presentes na IA. A neutralidade, por exemplo, não existe. Há um entendimento de que ela existe por causa dos dados, mas não há a possibilidade de questionar de onde o dado está vindo, como e por quem ele foi coletado.”

Casos como o de Raoni Barbosa, cientista de dados da IBM, são um marco desse processo. Preso injustamente após ter seu rosto confundido com o de um miliciano com base no reconhecimento de imagem, o homem negro passou dias na prisão até que fosse libertado. Falhas como essa mostram que os sistemas de controle são frágeis e, sobretudo, racistas. “A inteligência artificial tem mostrado problemas, por exemplo, com o reconhecimento facial e implicações jurídicas relacionadas, principalmente, ao racismo.”

Segundo a pesquisadora, o Vale do Silício – região no Estados Unidos que concentra as maiores empresas de tecnologia e inovação – quer que as pessoas resolvam o racismo de maneira individual, ignorando a existência de legislações e movimentos sociais que garantem a defesa da população. Assim, as grandes corporações tiram o corpo de campo mesmo que utilizem e manipulem as informações contidas na rede.

“A sociedade é racista, mas você vai parar nessa conclusão? O que vamos fazer? A educação antirracista deve ser para quem? O impacto vai muito além de trocar a base de dados e consertar o algoritmo: é emocional e social. Está ferindo de modo muito incisivo as pessoas. Que democracia está sendo construída?”, finaliza.

Assista à palestra completa no canal do PPGCI.