Pesquisadores de Stanford: a inteligência artificial pode determinar a lealdade política de uma pessoa

0
foto: Shutterstock / Divulgação.

Michal Kosinski e seus colegas ‘usaram um algoritmo de reconhecimento facial de código aberto’ para determinar a afiliação política de uma pessoa

Um grupo de pesquisadores da Universidade Stanford da Califórnia publicou um artigo no qual afirma ser possível ensinar um computador a reconhecer as tendências políticas de uma pessoa, simplesmente examinando seu rosto. No mesmo artigo, eles alertaram sobre a possível aplicação da tecnologia na vida real.

A equipe de pesquisa foi liderada por Michal Kosinski, que criou um programa famoso em 2017 que pretendia dotar as máquinas com a capacidade de determinar com precisão a heterossexualidade e a homossexualidade, novamente a partir de pistas faciais.

Com base no suposto sucesso de seu anterior programa de aprendizagem de máquinas, Kosinski “usou um algoritmo de reconhecimento facial de código aberto”, desta vez para determinar a afiliação política de uma pessoa através de “imagens faciais naturalistas”. Para ensinar seu computador a fazer distinções entre conservadores e liberais, Kosinski introduziu mais de 1 milhão de imagens de indivíduos, juntamente com detalhes de suas tendências políticas, no sistema. A equipe do Kosinski conseguiu reunir essas informações livremente a partir de sites de encontros e através do Facebook.

O artigo, publicado nos Relatórios Científicos da Nature Research, afirma que a máquina previu corretamente a orientação política em 72% das vezes, o que é “notavelmente melhor que o acaso (50%), precisão humana (55%), ou um questionário de personalidade de 100 itens (66%)”. ”A máquina faz sua determinação convertendo “imagens faciais em descritores de rosto”, correspondendo a 2.048 recursos que o computador pode então classificar em comparação com os milhões de conjuntos de dados de rosto já armazenados em sua memória.

Alguns dos descritores comuns ligados ao conservadorismo dificilmente são sutis: “pessoas brancas, pessoas mais velhas e homens são mais propensos a serem conservadores”, afirma o relatório. Entretanto, ao buscar distinções nas tendências políticas dentro deste grupo, o sistema ainda mantém uma alta taxa de sucesso, cerca de 68% de exatidão, indicando que “os rostos contêm muito mais pistas de orientação política do que apenas idade, sexo e etnia”.

De acordo com as notas de Kosinski, as pistas faciais que revelam as crenças políticas de uma pessoa incluem “orientação para a cabeça e expressão emocional”. Ele também descobriu que os liberais “tendiam a olhar para a câmera mais diretamente, eram mais propensos a expressar surpresa e menos propensos a expressar repulsa”. Kosinski não divulgou mais detalhes sobre em quais identificadores faciais o sistema confiava.

Inteligência artificial (IA) e fins nefastos

Os pesquisadores apresentaram suas descobertas com uma nota de cautela, sinalizando suas preocupações com relação ao uso do programa para fins nefastos: “[Nossas descobertas têm implicações críticas para a proteção da privacidade e das liberdades civis. Câmeras de CFTV onipresentes e bancos de dados gigantes de imagens faciais, variando de perfis de redes sociais públicas a registros de carteiras de identidade nacionais, tornam assustadoramente fácil identificar indivíduos, bem como rastrear sua localização e interações sociais”.

“Além disso”, eles alertam, “ao contrário de muitos outros sistemas biométricos, o reconhecimento facial pode ser usado sem o consentimento ou conhecimento dos indivíduos”.

As implicações, no entanto, são de longo alcance, pois parece que “as imagens sociais podem ser facilmente (e dissimuladamente) tomadas por um oficial da lei ou obtidas de arquivos digitais ou tradicionais, incluindo redes sociais, plataformas de encontros, sites de compartilhamento de fotos e bancos de dados governamentais”, para pelo menos uma das quais a maioria das pessoas terá, em algum momento, carregado uma imagem de si mesmas.

“Elas costumam ser facilmente acessíveis; As fotos de perfil do Facebook e LinkedIn, por exemplo, são públicas por padrão e podem ser acessadas por qualquer pessoa sem o consentimento ou conhecimento de uma pessoa. Assim, as ameaças à privacidade representadas pela tecnologia de reconhecimento facial são, de muitas maneiras, sem precedentes.”

Embora os autores admitam que muitos não sentirão que a precisão relatada do sistema representa uma ameaça à privacidade, eles acrescentam que suas “estimativas improváveis ​​constituem um limite superior do que é possível”, o que significa que o sistema poderia continuar a aprender e aprimorar suas “habilidades” atuais.

Os pesquisadores alertam que “mesmo previsões modestamente precisas” podem ter grandes efeitos quando aplicadas de forma suficientemente ampla: “[E] mesmo uma estimativa grosseira das características psicológicas de um público pode aumentar drasticamente a eficiência da persuasão em massa. Esperamos que acadêmicos, legisladores, engenheiros e cidadãos tomem conhecimento. ”

Kosinski acrescentou seu próprio aviso pessoal, afirmando que sua pesquisa está apenas trazendo à tona as possibilidades da inteligência artificial. “Não atire no mensageiro”, disse ele. “No meu trabalho, estou alertando contra algoritmos de reconhecimento facial amplamente usados. Preocupantemente, esses fisionomistas da IA estão agora sendo usados para julgar os traços íntimos das pessoas”.

Fonte: Life Site News

DEIXE UMA RESPOSTA

Por favor registre seu comentário
Por favor, digite seu nome aqui