Artigo: Não há neutralidade, e agora IA?

Não há neutralidade, e agora IA?

A noção de IA compreende um amplo conjunto de tecnologias que permitem que indivíduos e organizações integrem e analisem dados e usem esse insight para melhorar ou automatizar a tomada de decisões. Embora a maior atenção tenha sido dada aos aspectos positivos que as empresas percebem com a adoção e uso da IA, há uma preocupação crescente em torno das consequências negativas e não intencionais de tais tecnologias. Ao adotar uma lente mais crítica sobre a IA buscando expandir a compreensão de como a IA deve ser implementada na prática e como minimizar ou evitar resultados negativos.   

Gostamos de pensar dados e números como neutros e indiscutíveis, mas, a verdade é que cada informação é resultado de um contexto, pensamentos e comportamentos em que foi construído. Nem sempre estas construções são visíveis nos resultados, os vieses embutidos se tornam o produto e fica difícil diferenciar. Por exemplo, o uso da imagem do ator negro americano, Michael B Jordan, no sistema de reconhecimento facial da segurança pública do Ceará. Como a foto dele foi parar ali? Qual a metodologia por trás desta implementação? O algoritmo que não tem transparência e que estava ajudando a determinar “culpados” foi treinado com um conjunto de dados com vieses e intencões desconhecidas. Parece que a máquina está “pensando” mas há mãos humanas por trás de todo o processo.   

Em 1950, Alan Turing se perguntava se as máquinas poderiam pensar, na verdade ele escreveu um artigo tentando mostrar sua tentativa em entender como as máquinas agem e não como elas pensam, ele fez a famosa pergunta “Can machines think?” após lançar o imitation game. Essa história é interessante por colocar a Inteligencia artificial no lugar mais imperecível possível, com decisões e algoritmos obscuros. Se a tecnologia não é neutra, os dados que são usados para treinar um modelo reflete o mundo, eles vão refletir também a sociedade e qualquer sistema de IA treinado com estes dados, apenas vai reforçar e reproduzir mais rápido estes vieses.   

A imagem mostra uma pessoa usando uma máscara com "x" nos olhos

Atualmente as tecnologias estão sendo utilizadas como fontes para tomadas de decisões importantes na sociedade, como se elas fossem incapazes de errar. Baseadas em grandes bases de dados que na maioria das vezes são criadas a partir da raspagem de dados, técnica que se popularizou no início do século, mas que recentemente, começou a ser investigada como uma técnica perigosa para a privacidade e a cibersegurança.  Foi considerada uma estratégia inventiva por muito tempo, principalmente para processamento de imagens e processamento de linguagem natural. A preocupação em relação à privacidade e vigilância, este tipo de estratégia começou a ser vista como invasiva e perigosa, por isso leis como a GDPR ( regulamento de proteção de dados da Europa)  e LGPD (regulamento de proteção de dados do Brasil) nasceram para tentar proteger o que restou da nossa privacidade.  

A boa notícia é que pesquisadores e especialistas em ética estão trabalhando juntos para desenvolver técnicas que possam mitigar os impactos negativos de dados tendenciosos e gerar impactos mais positivos por meio da IA ​​responsável. Ao mesmo tempo, muitas empresas estão adotando uma estratégia de IA conscientemente projetada e que reflete suas intenções. É importante ressaltar que essas organizações estão construindo pipelines com base na conscientização do contexto histórico e social relevante que mais importa. 

 Se tratando de um problema global, vale pensar até que ponto somos neutros nas construções e usos de tecnologias, se você pudesse propor uma melhoria, qual seria?