"Inteligência artificial (IA)": semelhante à humana É enganoso e perigoso

A IA que imita o comportamento humano representa uma ampla gama de riscos sem precedentes


A máquina chamada de Robô Sophia

As empresas de tecnologia estão desenvolvendo e implantando sistemas de inteligência artificial (IA) que imitam enganosamente o comportamento humano para vender agressivamente seus produtos e serviços, dispensar conselhos médicos e de saúde mental duvidosos e prender pessoas em relacionamentos psicologicamente dependentes e potencialmente tóxicos com máquinas, de acordo com um novo relatório do Citizen.

A IA que imita o comportamento humano representa uma ampla gama de riscos sem precedentes que exigem ação imediata dos reguladores, bem como novas leis e regulamentos, segundo o relatório.

"O setor de tecnologia está implantando imprudentemente sistemas de IA disfarçados de pessoas que podem sequestrar nossa atenção, explorar nossa confiança e manipular nossas emoções", disse Rick Claypool, pesquisador da Public Citizen e autor do relatório. Já as grandes empresas e os maus atores não resistem a usar esses falsos humanos para manipular os consumidores. Legisladores e reguladores devem intensificar e enfrentar essa ameaça antes que seja tarde demais."

Elementos enganosos de design antropomórfico destacados no relatório estão enganando as pessoas para que acreditem falsamente que os sistemas de IA possuem consciência, compreensão e senciência. 

Essas características vão desde IA usando pronomes em primeira pessoa, como "eu" e "eu", até expressões de emoção e opinião, até avatares semelhantes a humanos com rostos, membros e corpos. Pior ainda, a IA pode ser combinada com tecnologias emergentes e frequentemente não reveladas – como software de reconhecimento facial e emocional – para turbinar suas capacidades manipulativas e comerciais.

As empresas estão liberando IA antropomórfica em audiências de milhões ou bilhões de usuários com pouco ou nenhum teste, supervisão e responsabilidade – inclusive em lugares que ninguém espera, como o drive-thru em restaurantes de fast food, às vezes sem qualquer divulgação aos clientes.

A IA vem com vantagens internas potencialmente perigosas que colocam os usuários em risco. Isso inclui um senso exagerado de sua confiabilidade e autoridade, sua capacidade de estender a atenção e o engajamento do usuário, sua coleta de informações pessoais sensíveis que podem ser exploradas para influenciar o usuário e o envolvimento psicológico com os usuários emulando emoções.

Os muitos estudos citados no relatório – incluindo marketing, tecnologia, pesquisas psicológicas e jurídicas – mostram que, quando a IA possui traços antropomórficos, ela agrava todas essas vantagens, que as empresas e os maus atores já estão explorando.

Esses recursos de design podem ser removidos ou minimizados para desencorajar os usuários de confundir sistemas de IA com pessoas vivas e respirando. Por exemplo, um chatbot de IA pode se referir ao seu sistema na terceira pessoa ("este modelo") em vez da primeira pessoa ("eu"). Em vez disso, as empresas de tecnologia estão deliberadamente maximizando todos esses recursos para promover seus objetivos de negócios e aumentar os lucros.

O relatório conclui com recomendações políticas para abordar os perigos e riscos, incluindo:

  • Proibir a falsificação de seres humanos em transações comerciais, tanto online quanto offline;
  • Restringir e regular técnicas enganosas de antropomorfização;
  • Proibir a IA antropomórfica de comercializar, direcionar ou coletar dados sobre crianças;
  • Proibir a IA de explorar vulnerabilidades psicológicas e dados sobre os usuários;
  • Exigir lembretes, isenções de responsabilidade e marcas d'água proeminentes, robustos e repetidos indicando que os consumidores estão se envolvendo com sistemas de IA implantados para fins persuasivos deve ser obrigado a divulgar seus objetivos;
  • Monitoramento e reporte de informações agregadas de uso;
  • Altos padrões de segurança de dados;
  • Testes rigorosos para atender a rígidos padrões de segurança;
  • Escrutínio e testes especiais para todos os sistemas de IA relacionados à saúde – especialmente aqueles destinados ao uso por populações vulneráveis, incluindo crianças, idosos, minorias raciais e étnicas, indivíduos psicologicamente vulneráveis e indivíduos LGBTQ+; e
  • Penalidades severas para infratores da lei, incluindo proibi-los de desenvolver e implantar sistemas de IA.

Fonte: Citizen
Anúncio
Anúncio
Anúncio
Uma pequena pausa antes de continuar


Este site usa cookies e outros serviços para melhorar sua experiência. Ao usar nosso site, você concorda com nossa Política de Privacidade e Termos.