O que há em um tweet? Do gênero à educação, as palavras usadas nas mídias sociais carregam impressões para os outros. Usando tweets publicamente disponíveis, psicólogos sociais e cientistas da computação do Centro de Psicologia Positiva da Universidade de Pensilvânia, Alemanha e Austrália estão nos ajudando a analisar os estereótipos formados por escolhas de palavras no canal de mídia social Twitter. Utilizando o processamento de linguagem natural (PNL), uma forma de inteligência artificial, os pesquisadores mostram onde os estereótipos vão de “plausível” para errado.
Em uma série de estudos, os participantes foram convidados a categorizar os autores de tweets com base unicamente no conteúdo de seus posts nas mídias sociais. Nesses estudos, as pessoas fizeram julgamentos sobre o sexo, a idade, o nível de educação ou a orientação política de um escritor, com base apenas nas palavras usadas em posts públicos feitos no Twitter.
Os pesquisadores utilizaram técnicas de PNL para analisar e isolar os estereótipos utilizados pelas pessoas para categorizar as pessoas por gênero, idade, nível de educação e orientação política. Embora os estereótipos e as suposições das pessoas fossem frequentemente corretos, havia muitos casos em que as pessoas chegaram a conclusões erradas.
“Estes estereótipos imprecisos tendem a ser exagerados “, diz o autor principal Jordan Carpenter (agora na Duke University), “por exemplo, as pessoas tinham uma ideia pré-concebida de que as pessoas que não frequentaram a faculdade são mais propensas a falar palavrões do que as pessoas com doutorado, o que é falso. ”
Estereótipos em mídias sociais
Concentrando-se nas imprecisos, a pesquisa revela como estereótipos múltiplos podem afetar uns aos outros.
“Uma das nossas descobertas mais interessantes é o fato de que, quando as pessoas tiveram dificuldade em determinar a orientação política de alguém, elas pareciam reverter (sem auxílio) os estereótipos de gênero, assumindo que as pessoas femininas eram liberais e as pessoas do sexo masculino eram conservadoras,” afirma Carpenter.
Os dados também mostraram que as pessoas assumem que a linguagem relacionada à tecnologia era sinal de um escritor masculino. No entanto, este estereótipo levou fortemente a conclusões falsas: quase todas as mulheres que postaram sobre a tecnologia foram erroneamente creditadas como sendo homens”, diz Carpenter.
No exemplo acima, o estereótipo é exagerado e “excessivamente saliente nos julgamentos das pessoas sobre homens e mulheres”, escrevem os autores.
Inteligência Artificial e Pesquisa de Estereótipos
“Um aspecto importante desta pesquisa é que ela inverte a maneira como muitas pesquisas de estereótipos foram feitas no passado”, diz Daniel Preotiuc-Pietro, co-autor e cientista da computação do Positive Psychology Center.
Em vez de começar com vários grupos e perguntar às pessoas que comportamentos eles associam com eles, os pesquisadores começaram com um conjunto de comportamentos e pediu às pessoas para declarar a identidade do grupo. Eles também “consideravam os estereótipos como uma “web” lexical: as palavras que associamos a um grupo são, elas mesmas, nosso estereótipo desse grupo”, escreve Preotiuc-Pietro.
Esse arranjo permitiu que a equipe usasse os métodos de Processamento de Linguagem Natural (PNL) para iluminar os estereótipos das pessoas sem nunca pedir diretamente a ninguém que as endossasse explicitamente.
“Esta é uma maneira inovadora em torno do problema que as pessoas muitas vezes resistem abertamente afirmando seus estereótipos, quer porque elas querem apresentar-se como imparcial ou porque elas não estão conscientemente ciente de todos os estereótipos que elas usam”, diz Carpenter.
O campo da PNL é um ramo geral da Inteligência Artificial que lida com a compreensão automática da linguagem escrita. A PNL produziu muitas aplicações familiares usadas diariamente, incluindo verificação ortográfica, texto preditivo, assistentes virtuais como Siri, e sugerindo notícias relacionadas, para citar apenas alguns exemplos.
“À medida em que os pesquisadores trabalham em conjunto mais e mais frequentemente, é emocionante ser capaz de usar ambos os métodos de ciência da computação e psicologia de formas que contribuem para ambos os campos”, resume Preotiuc-Pietro.
- Jordan Carpenter et al. Real Men Don’t Say “Cute:” Using Automatic Language Analysis to Isolate Inaccurate Aspects of Stereotypes. Social Psychological and Personality Science, November 2016 DOI: 10.1177/1948550616671998