Estupidez artificial: o problema que ninguém anteviu

Pesquisadora em laboratório dos EUA que emprega sistemas de inteligência artificial para buscar novos materiais. SLAC

Qualquer motorista que veja um sinal de “pare” onde um engraçadinho colou um adesivo dizendo “o ódio” sabe que continua sendo um sinal de “pare” e que é preciso parar. Já um carro autônomo será incapaz de reconhecê-lo em mais de 60% das vezes, e passará batido.

Os sistemas de visão artificial confundem uma tartaruga de brinquedo com um rifle, e pessoas negras com gorilas. Esses dispositivos foram treinados para enxergar padrões, e bastam mudanças sutis de simetria para desnorteá-los, como demonstra o estudo dos sinais de trânsito publicado em abril por especialistas de várias universidades dos EUA.

As pessoas também evoluíram ao longo de milênios para enxergar padrões. “Somos feitos para identificar rostos, e os vemos nas nuvens, nas manchas da parede, fazemos isso continuamente”, explica José Manuel Molina, do grupo de inteligência artificial aplicada da Universidade Carlos III de Madri. Um humano conhece o contexto dessa imagem, sabe que se parece com um rosto, mas que na verdade é uma nuvem. Por outro lado, a experiência de vida de um algoritmo de visão se limita à base de dados com milhares de imagens com as quais é repetidamente treinado. “Os algoritmos foram desenhados para resolver problemas muito concretos, mas não para compreender o que está acontecendo ao seu redor, só veem sinais e aplicam sempre a mesma solução sempre. As máquinas são totalmente autistas, e lhes dar uma compreensão de seu entorno é muito complicado”, resume Molina.
Exemplos de sinais modificados para enganar os sistemas de visão artificial. DAWN SONG / BERKELEY

Essas falhas estão mudando a vida das pessoas. O sistema de inteligência artificial Compas usado para assessorar juízes nos EUA tem um viés e tende a desaconselhar a libertação dos negros mais frequentemente que a dos brancos. O algoritmo analisa 173 variáveis – nenhuma delas é a raça – e apresenta uma probabilidade de reincidência numa escala de 0 a 10. “A causa destes problemas é que as bases de dados com as quais estes algoritmos funcionam são da polícia, e nelas há importantes vieses racistas”, diz Ramón López de Mántaras, especialista em inteligência artificial do Conselho Superior de Pesquisas Científicas da Espanha (CSIC, na sigla em espanhol). Um estudo publicado neste ano sugere que o sistema tem uma margem de erro equiparável à de pessoas sem conhecimentos jurídicos. O problema não é tanto a máquina, e sim o risco de o juiz lhe delegue suas decisões.

Num nível muito menos grave, a aparente estupidez artificial espreita qualquer um que use a Internet, com anúncios onipresentes de coisas que já compraram ou que não lhe interessam. Uma vez mais, a culpa não é da máquina, e sim da falta de contexto. “Se procurarmos um produto na Internet, essa informação é pública e fica gravada, mas quando o compramos a transação é privada, o algoritmo não sabe que você fez a compra, é preciso ensiná-lo. Não é um erro, ele continua a lhe mostrar o que acha que vai lhe interessar, o continuará fazendo isso até que passe seu tempo de esquecimento”, explica Molina.
 Tartarugas identificadas como rifles pelo sistema de visão artificial. ANISH ATHALYE

Neste caso, as bases de dados somos nós. Os assistentes domésticos de diálogo e os sistemas de análise de cookies na Internet são treinados e aprendem com nosso uso da rede. Às vezes, “o algoritmo detecta um padrão que não existe e começa a se comportar de uma forma concreta, por exemplo mostrando um anúncio no qual clicamos por engano uma ou duas vezes”, conta Carlos Castillo, especialista em inteligência artificial da Universidade Pompeu Fabra, de Barcelona. “Estes erros são como superstições que as máquinas adquirem. Temos que entender que os sistemas de computação podem se equivocar, o importante é saber por que e como corrigi-los. Na Europa entrou em vigor uma regulação neste aspecto que nos permite ver quais perfis automáticos foram criados a nosso respeito, alterá-los, apagá-los e saber que informação sobre nós está sendo compartilhada, embora pouca gente se dê ao trabalho de fazer isso”, explica.

As empresas donas dos algoritmos raramente divulgam detalhes de seu funcionamento. É o que acontece com o algoritmo de recomendação de vídeos do YouTube, explica o doutor em inteligência artificial Guillaume Chaslot, que trabalhou no Google (empresa dona do YouTube) entre 2010 e 2013. O canal de vídeo on-line “ganha um cêntimo de euro por hora”, relata. “A cada dia, em todo mundo, são assistidas um bilhão de horas, com o que se ganha muito dinheiro. O algoritmo que recomenda outros vídeos depois de uma reprodução tem como principal objetivo maximizar o tempo de permanência. O que acontece é que o algoritmo acaba recomendando vídeos sobre teorias conspiratórias, discursos de ódio, racistas ou sexistas, porque esses são os que têm um tempo de permanência maior. Em dois ou três cliques você pode acabar vendo um destes vídeos, mas tudo depende de cada usuário. O algoritmo é tão complexo que não pode rastrear cada uma das decisões individuais que tomou para recomendar um conteúdo. Claro que tudo isto é um acidente não pretendido pelos programadores.”

As empresas donas dos algoritmos raramente divulgam detalhes de seu funcionamento


“Desde 2017 estamos introduzindo formas de melhorar o acesso à informação na Espanha, incluindo uma prateleira de notícias de última hora na página de início do YouTube e a prateleira de melhores notícias no buscador, que oferece conteúdo de fontes noticiosas verificadas depois de um evento importante”, diz Katherine Vargas, porta-voz do Google . “Além disso, anunciamos mais de meia dúzia de novas funcionalidades no último ano e um investimento global de 25 milhões de dólares [93,6 milhões de reais] para editores de notícias que produzam vídeos on-line para criar uma melhor experiência com as notícias”, acrescenta.

Chaslot acredita que “melhorou-se muito o sistema de busca, mas nem tanto o de recomendação”. O engenheiro criou um sistema de inteligência artificial que está continuamente assistindo o YouTube e seguindo as recomendações, de forma que é possível consultar os vídeos mais sugeridos de cada dia, entre os quais abundam conteúdos de rigor duvidoso. Chaslot é assessor do Centro para a Tecnologia Humana, formado por engenheiros e executivos saídos da indústria tecnológica e que tentam denunciar e reverter os efeitos negativos da tecnologia. “Atualmente estamos vivendo as consequências de que haja grandes empresas controlando as maiores plataformas de inteligência artificial, e não apenas investimentos dos governos e da sociedade civil para promover usos mais positivos”, alerta.

Soma-se à amplificação de conteúdos radicais nas redes sociais uma tendência a supervalorizar as capacidades das máquinas. “Imaginamos que haja um pequeno cérebro humano dentro do computador, mas não, é só programação e matemática”, explica Meredith Broussard, ex-programadora, professora de jornalismo na Universidade de Nova York e autora do livro Artificial Unintelligence(“estupidez artificial”). “Um sistema de visão artificial vê uma imagem, situa uma retícula de pixels sobre ela e busca padrões entre os pontos. Se enxergar arcos e formas ovaladas, dirá que é um rosto, mesmo que na realidade esteja olhando para um nabo. Por isso é importante ensinar às pessoas a desenvolverem programas de aprendizagem computacional. Em princípio soa a magia, mas é só escrever códigos. Quando veem isso, se sentem enganadas”, ressalta.

Broussard fala da “crença difundida entre a maioria dos programadores de que as soluções tecnológicas são sempre melhores que as humanas”. “Os pioneiros deste campo diziam que o mundo da alta tecnologia seria glorioso e livre. Demoramos muito tempo a questioná-los. Mesmo agora é difícil para muitos aceitarem que o que imaginavam há 20 anos sobre como seria a tecnologia era um erro.”

Em julho de 2017, muitos acharam que o inevitável tinha acontecido. O Facebook havia desligado dois robôs de bate-papo porque tinham desenvolvido uma linguagem secreta para se comunicar, sem que seus programadores soubessem. Uma de suas conversas era:

– Bob : Eu posso eu eu o resto...

– Alice: Bolas têm zero para mim para mim para mim para mim para mim para mim para.

O objetivo dos programadores era criar algoritmos capazes de negociar com humanos, e para isso foram treinados para distribuir três tipos de objetos entre si: chapéus, bolas e livros. O objetivo principal era chegar a negociações bem-sucedidas, então os robôs começaram a usar repetições de palavras sem levar em conta sua coerência. Chegavam a acordos válidos segundo os parâmetros fixados pelos programadores, mas a conversa era incompreensível para os humanos, como revelou a Wired. “Foi um erro de programação. Nenhuma máquina tem intenções nem nunca as terá. Podem se acostumar a jogar Go e derrotar um campeão, mas não sabem que estão jogando. Se puséssemos essa mesma máquina para distinguir fotos de cães e gatos, esqueceria tudo o que aprenderam anteriormente. Só podem fazer uma coisa de cada vez”, salienta Mántaras. “É verdade que há alguns anos ninguém podia antever que a inteligência artificial estaria tão na moda e se falaria tanto dos problemas potencialmente associados a ela, mas faz já 42 anos que [o informático do MIT] Joseph Weizenbaum escreveu que nunca deveríamos deixar que os computadores tomassem decisões importantes, porque nunca terão qualidades humanas como a compaixão e a sabedoria”.

Fonte desse artigo: 
Author Image

Site: Coletividade Evolutiva
O Coletividade Evolutiva é uma mídia independente e pluralista, porque damos espaço a todas as correntes de pensamento e grupos sociais. Mas estamos comprometidos em servi-los e dar voz aos setores mais vulneráveis da sociedade. Saber Mais