Homens de verdade não dizem “que lindo”. Psicologistas usam linguagem do Tweeter para analisar estereótipos

O que há em um tweet? Do gênero à educação, as palavras usadas nas mídias sociais carregam impressões para os outros. Usando tweets publicamente disponíveis, psicólogos sociais e cientistas da computação do Centro de Psicologia Positiva da Universidade de Pensilvânia, Alemanha e Austrália estão nos ajudando a analisar os estereótipos formados por escolhas de palavras no canal de mídia social Twitter. Utilizando o processamento de linguagem natural (PNL), uma forma de inteligência artificial, os pesquisadores mostram onde os estereótipos vão de “plausível” para errado.

realmendonts

Em uma série de estudos, os participantes foram convidados a categorizar os autores de tweets com base unicamente no conteúdo de seus posts nas mídias sociais. Nesses estudos, as pessoas fizeram julgamentos sobre o sexo, a idade, o nível de educação ou a orientação política de um escritor, com base apenas nas palavras usadas em posts públicos feitos no Twitter.

Os pesquisadores utilizaram técnicas de PNL para analisar e isolar os estereótipos utilizados pelas pessoas para categorizar as pessoas por gênero, idade, nível de educação e orientação política. Embora os estereótipos e as suposições das pessoas fossem frequentemente corretos, havia muitos casos em que as pessoas chegaram a conclusões erradas.

“Estes estereótipos imprecisos tendem a ser exagerados “, diz o autor principal Jordan Carpenter (agora na Duke University), “por exemplo, as pessoas tinham uma ideia pré-concebida de que as pessoas que não frequentaram a faculdade são mais propensas a falar palavrões do que as pessoas com doutorado, o que é falso. ”

Estereótipos em mídias sociais

Concentrando-se nas imprecisos, a pesquisa revela como estereótipos múltiplos podem afetar uns aos outros.

“Uma das nossas descobertas mais interessantes é o fato de que, quando as pessoas tiveram dificuldade em determinar a orientação política de alguém, elas pareciam reverter (sem auxílio) os estereótipos de gênero, assumindo que as pessoas femininas eram liberais e as pessoas do sexo masculino eram conservadoras,” afirma Carpenter.

Os dados também mostraram que as pessoas assumem que a linguagem relacionada à tecnologia era sinal de um escritor masculino. No entanto, este estereótipo levou fortemente a conclusões falsas: quase todas as mulheres que postaram sobre a tecnologia foram erroneamente creditadas como sendo homens”, diz Carpenter.

No exemplo acima, o estereótipo é exagerado e “excessivamente saliente nos julgamentos das pessoas sobre homens e mulheres”, escrevem os autores.

Inteligência Artificial e Pesquisa de Estereótipos

“Um aspecto importante desta pesquisa é que ela inverte a maneira como muitas pesquisas de estereótipos foram feitas no passado”, diz Daniel Preotiuc-Pietro, co-autor e cientista da computação do Positive Psychology Center.

Em vez de começar com vários grupos e perguntar às pessoas que comportamentos eles associam com eles, os pesquisadores começaram com um conjunto de comportamentos e pediu às pessoas para declarar a identidade do grupo. Eles também “consideravam os estereótipos como uma “web” lexical: as palavras que associamos a um grupo são, elas mesmas, nosso estereótipo desse grupo”, escreve Preotiuc-Pietro.

Esse arranjo permitiu que a equipe usasse os métodos de Processamento de Linguagem Natural (PNL) para iluminar os estereótipos das pessoas sem nunca pedir diretamente a ninguém que as endossasse explicitamente.

“Esta é uma maneira inovadora em torno do problema que as pessoas muitas vezes resistem abertamente afirmando seus estereótipos, quer porque elas querem apresentar-se como imparcial ou porque elas não estão conscientemente ciente de todos os estereótipos que elas usam”, diz Carpenter.

O campo da PNL é um ramo geral da Inteligência Artificial que lida com a compreensão automática da linguagem escrita. A PNL produziu muitas aplicações familiares usadas diariamente, incluindo verificação ortográfica, texto preditivo, assistentes virtuais como Siri, e sugerindo notícias relacionadas, para citar apenas alguns exemplos.

“À medida em que os pesquisadores trabalham em conjunto mais e mais frequentemente, é emocionante ser capaz de usar ambos os métodos de ciência da computação e psicologia de formas que contribuem para ambos os campos”, resume Preotiuc-Pietro.

Fonte

  1. Jordan Carpenter et al. Real Men Don’t Say “Cute:” Using Automatic Language Analysis to Isolate Inaccurate Aspects of Stereotypes. Social Psychological and Personality Science, November 2016 DOI: 10.1177/1948550616671998

 

    Deixe um comentário

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

    This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

    × Podemos te ajudar?