Baeza-Yates alerta para falta de ética e más práticas em IA

Um dos principais nomes na área, pesquisador e professor da Northeastern University, EUA, defendeu regulação e cautela no desenvolvimento de soluções baseadas em IA durante live da Conexão Rio-Campinas

É preciso ter mais conscientização e atenção aos limites do uso da Inteligência Artificial (IA). A recomendação vale tanto para desenvolvedores como para usuários de soluções baseadas em IA, que deverá passar por uma série de regulamentações nos próximos anos. A avaliação é do diretor de pesquisas do Instituto de Inteligência Artificial Experimental da Universidade Northeastern, Ricardo Baeza-Yates, que foi o palestrante do último Conexão Rio-Campinas, parceria entre o Departamento de Informática (DI) da PUC-Rio e o Instituto de Computação (IC) da Universidade de Campinas (Unicamp). O projeto promove palestras e debates  sobre vários aspectos de computação e tecnologias, bem como seus impactos na sociedade.

Para Baeza-Yates, nunca teremos uma IA ética sem humanos éticos

“Nós nunca teremos uma Inteligência Artificial ética sem humanos éticos. Os sistemas de IA são tão somente um espelho de nós. Como diz Yuval Harari, quando avançamos nas tecnologias de computação e IA nós estamos ‘brincando de Deus’, e por isso temos que ser bem responsáveis na forma de implementar e treinar os nossos sistemas”, defendeu o pesquisador chileno-catalão, uma das principais autoridades em ética na Inteligência Artificial do mundo. 

Durante a palestra virtual, que teve também a participação do diretor do DI, Markus Endler, e do professor do IC Anderson Rocha, Baeza-Yates defendeu que essa responsabilidade deve vir de todos os lados. “Se o usuário estiver atento a isso, se o sistema estiver atento e se o desenvolvedor também, tudo será bem melhor”, completou. 

Um dos primeiros passos dessa atenção constante, para o pesquisador, deve ser a avaliação sobre a qualidade e possíveis vieses dos dados que que são usados para treinar os algoritmos. Ao usar dados tendenciosos para criar algoritmos, os desenvolvedores vão gerar também percepções tendenciosas por parte dos usuários, que poderão ser amplificadas a partir do próprio  algoritmo ou técnica e IA empregada.

O pesquisador, que já ocupou a vice-presidência do setor de pesquisas do Yahoo Labs, em Barcelona, na Espanha, e na Califórnia, nos Estados Unidos, disse ainda que prevê uma série de regulamentações no campo da IA ao longo dos próximos anos, principalmente nos Estados Unidos e na Europa. 

Ele apresentou alguns exemplos de decisões judiciais já em vigor que apontam para essa tendência, como a de um tribunal da França que, em 2020, proibiu uma escola na cidade de Nice e outra na de Marselha de usarem a biometria facial para o reconhecimento dos alunos por vídeo. O caso, embora isolado, é um bom exemplo do que deve ser avaliado por usuários para o uso de um sistema baseado utilizando Inteligência Artificial, na visão de Baeza-Yates. 

“Temos que usar sempre o consenso e a proporcionalidade. Nesse caso, a solução não era proporcional ao problema em questão, que neste caso era verificar a presença dos alunos. Não precisamos filmar tudo e o tempo todo nas escolas”, argumentou. 

No caso dos Estados Unidos, o pesquisador citou leis já existentes, como a Lei de Responsabilização Algorítmica, que a Câmara dos Deputados do país aprovou também em 2019. A matéria estabelece regras de transparência e responsabilidade a entidades comerciais que utilizam algoritmos para coletar e processar dados pessoais de consumidores. 

Na conversa virtual, Baeza-Yates alertou para a fraca regulamentação jurídica existente na América Latina, com exceções em países como Colômbia, Costa Rica, Brasil e Argentina. E defendeu uma coordenação dentro da região para garantir ferramentas justas e também investimentos. “Se as regulamentações forem diferentes, as empresas irão a outro lugar”. 

O diretor do DI questionou durante a live se a série de desafios apresentados pelo pesquisador não seriam uma “consequência natural por estarmos desenvolvendo tantos sistemas de forma tão veloz e olhando sempre para os lucros, sem tempo para pensar com a profundidade adequada nos efeitos do uso desses sistemas”. 

“Talvez as empresas de tecnologia e seus desenvolvedores deveriam dedicar mais tempo para pensar se seus sistemas são justos e isentos, se podem eventualmente prejudicar pessoas, e se estão alcançando as predições adequadas. O problema é que, atualmente, temos que fazer as predições ao mesmo tempo”, completou Endler. Para Baeza-Yates, um dos caminhos é que engenheiros aprendam mais sobre ética em tecnologias.

O Conexão Rio-Campinas promove palestras e debates online mensais com grandes nomes da Ciência da Computação e pesquisadores do DI da PUC-Rio e do IC/Unicamp. Se você perdeu a live com Ricardo Baeza-Yates, o vídeo completo está disponível no canal de YouTube do Instituto de Computação.