O jornalismo científico é uma das principais formas de o público compreender os resultados e os impactos sociais dos estudos científicos. Isto inclui periódicos online como Mad in America ou Mad in Brasil, notícias impressas e de TV, rádio, podcasts e muitas outras formas. Portanto, qualquer preconceito na informação que os jornalistas científicos apresentam ao público tem sérias consequências para o que o público em geral considera ser verdade.
Em um novo estudo, Julia Bottesini, Christie Aschwanden, Mijke Rhemtulla e Simine Vazire exploraram quais características dos estudos quantitativos influenciam a probabilidade dos jornalistas de relatar sobre eles e a crença de que a pesquisa seja digna de confiança. Os autores destacaram a importância de haver “cães de guarda” para a ciência – porteiros entre a informação disponível e a compreensão da verdade por parte do público. Eles sugerem que os “vigilantes internos” são os “vigilantes externos”, enquanto os jornalistas da ciência são igualmente necessários. Eles escrevem:
“Eles são os “vigilantes externos primários” que podem monitorar cientistas e instituições científicas em busca de práticas problemáticas e chamar a atenção para reivindicações duvidosas sem muito medo de prejudicar as suas perspectivas de carreira… Entretanto, para que os jornalistas científicos desempenhem este importante papel, eles precisam ter acesso e saber como utilizar informações relevantes ao decidir se devem confiar em uma descoberta de pesquisa e se e como relatar sobre ela”.
História da Crítica no Jornalismo Científico
Bottesini e colegas escrevem que inicialmente a escrita científica tendia a enquadrar o processo científico, a sua exatidão e os seus impactos com extrema positividade. Entretanto, as décadas de 1960 e 70 viram aumentos graduais em perspectivas mais diversas, críticas e reconhecimento dos danos causados pelo processo científico e pelo “progresso”. Os autores não afirmam explicitamente de quem vieram estas diversas perspectivas, mas os anos 60 e 70 foram quando as mulheres, as pessoas de minorias raciais e os americanos brancos de baixa renda obtiveram acesso ao ensino superior e aos campos científicos.
Apesar das representações dos estudos se tornarem mais equilibradas, jornalistas e cientistas ainda tinham razões para criticar, nos anos 90, que os jornalistas estavam muito ligados aos cientistas que eles apresentavam. Por exemplo, John Crewdson se referiu aos jornalistas como “líderes de torcida animada” para a ciência. Ele afirmou claramente que “ao aceitar relatórios de pesquisa sem verificação adequada, os redatores científicos prestam um mau serviço ao público” em um artigo de 1993. Os autores do presente estudo argumentam:
“Os jornalistas científicos têm agora mais oportunidades de se tornarem bons cães de guarda da ciência que podem ajudar o público a consumir a pesquisa científica através de uma lente crítica e chamar a atenção do público para uma pesquisa mais rigorosa”. Um público mais informado com acesso a informações científicas mais matizadas é um benefício social de se ter jornalistas científicos mais críticos”.
Os seguintes são alguns dos benefícios das críticas que os autores sugerem:
- A ciência poderia perder credibilidade sem contexto, advertências e informações sobre suas limitações
- Se os jornalistas científicos falsamente implicarem que todas as descobertas são completa e igualmente válidas, as inevitáveis nuances e diferenças nos resultados baseados no contexto corroeriam a confiança do público na ciência.
- O jornalismo acurado ajuda a garantir que uma ciência melhor receba mais atenção, levando a mais recompensas sociais e financeiras para os cientistas que realizam um trabalho igualmente rigoroso e ponderado.
- Ele ajuda a manter os cientistas honestos. Os cientistas são seres humanos com preconceitos que são incentivados pelo financiamento da pesquisa para exagerar as realizações. O conhecimento do trabalho será analisado à medida que for transmitido ao público incentivando os pesquisadores a serem mais precisos em suas reivindicações.
O Estudo Atual
O estudo de Bottesini, Aschwanden, Rhemtulla e Vazire explorou fatores que influenciam a reportagem e a crítica dos jornalistas científicos aos estudos e como os jornalistas determinam que os estudos sejam confiáveis ou dignos de notícia. Usando descrições de 1 parágrafo de estudos fictícios de psicologia comportamental, eles manipularam quatro variáveis dentro de cada vinheta de estudo pelas razões abaixo (como explicitamente compartilhadas pelos autores):
- O tamanho da amostra do estudo: quanto maior o tamanho da amostra, mais precisa é uma estimativa provável.
- A representatividade da amostra do estudo impacta a generalização do estudo para outras populações. Se ao estudo faltam populações inteiras que estão mais representadas no mundo real, não há evidência de que os resultados se aplicarão a populações que foram deixadas de fora. Consequentemente, bons jornalistas científicos devem favorecer estudos com amostras mais representativas das populações do mundo real correspondentes.
- O valor de p associado à descoberta: valores de p mais próximos de 0 indicam que os resultados de um estudo são mais prováveis de serem descobertas reais de um fenômeno do que ruído nos dados. Isto sugere que bons jornalistas científicos deveriam favorecer estudos com valores de p mais baixos.
- O prestígio institucional do pesquisador que conduziu o estudo: baseado na teoria de que os jornalistas podem ter preconceitos e encontrar cientistas desconhecidos com mais probabilidade de serem credíveis quando associados a instituições de elite
Foram apresentadas aos verdadeiros jornalistas oito vinhetas selecionadas aleatoriamente dentre as 16 utilizadas no estudo. Os jornalistas foram então solicitados a avaliar a confiabilidade de cada estudo (4 perguntas) e a novidade (2 perguntas). Isto foi seguido por três perguntas abertas (como eles normalmente avaliam os resultados da pesquisa, como eles avaliaram as informações apresentadas dentro deste estudo, e se eles tinham palpites sobre quais características dos estudos fictícios que os pesquisadores estavam tentando testar). Uma análise de poder mostrou poder suficiente para detectar um efeito real ao apresentar oito vinhetas a 150-200 participantes, e exemplos das vinhetas podem ser encontrados aqui: https://osf.io/xej8k.
Dados os argumentos do autor sobre a importância das amostras dos estudos para sua credibilidade, seus relatórios sobre a sua própria amostra e sua representatividade são surpreendentemente insuficientes. Sua amostra final de 181 jornalistas científicos era predominantemente feminina (76,8%; 19,3% homens, 2,8% não-binários, e 1,1% preferiram não dizer). Embora os autores não tenham relatado isto, as mulheres estavam ligeiramente sobrerepresentadas em comparação com a população geral de jornalistas científicos. Os jornalistas representavam uma variedade de disciplinas (ciências da vida, saúde e medicina, ciências gerais, ciências psíquicas, psicologia, ciências sociais, estilo de vida e bem-estar, e outras) e meios (predominantemente notícias on-line e notícias impressas).
Podemos provavelmente assumir com segurança que os jornalistas eram predominantemente brancos. Ainda assim, os pesquisadores não apresentaram nenhuma informação sobre a raça ou etnia de sua amostra, ao contrário dos padrões básicos estabelecidos pela Associação Americana de Psicologia. Isto é uma omissão tremenda, dada a conspícua sub-representação e a contínua manutenção de pessoas de cor em psicologia e outras ciências sociais.
Os brancos e asiáticos estão super-representados na escrita científica. Em contraste, negros, latinos, sudoeste asiático e norte-africanos (SWANA) estão sub-representados em comparação com o público em geral (com base em uma combinação de estimativas de 2021 e dados da organização de escritores científicos com o censo dos EUA). Saber quais as visões culturais etnorraciais que os jornalistas podem ter representado é essencial para interpretar as seguintes conclusões.
Os Resultados e o Contexto Ausente
O tamanho da amostra foi a única variável que ostensivamente impactou as classificações de confiabilidade e de notícia dos jornalistas. Os pesquisadores descobriram que a representatividade da amostra, o prestígio da universidade e o valor p estatístico da descoberta tiveram pouco impacto na confiança dos jornalistas nos estudos fictícios nem no valor da retransmissão dos mesmos. Todos os estudos fictícios fizeram alegações de que o estudo era aplicável à população em geral, independentemente da representatividade da amostra. Isto significa que os jornalistas deveriam ter encontrado estudos com amostras menos representativas para serem menos confiáveis em suas afirmações.
Esta tabela foi tirada diretamente de seu artigo e mostrou a porcentagem de respostas a cada uma das três perguntas abertas para cada um dos quatro fatores que os pesquisadores testaram:
Tabela 1. Percentual de participantes jornalistas científicos que identificaram cada uma das quatro variáveis manipuladas em suas respostas a cada uma das três perguntas abertas (respondidas depois que os participantes classificaram as oito vinhetas fictícias).
Questão Tamanho da amostra Tipo de amostra Valor-P Prestígio Uni
Question | Tamanho da Amostra | Tipo de Amostra | p-valor | Uni prestígio |
Que características você considera quando avalia a confiança de um artigo científico? | 66.9% | 27.1% | 30.9% | 16.0% |
Que característica você pesou ao julgar a confiança dos resultados apresentados? | 79.0% | 34.3% | 38.1% | 9.4% |
Antes que nós digamos a você quais (as caracterísiticas nós ressaltamos), você acha que conhece algumas delas? | 83.2% | 38.7% | 64.7% | 30.3% |
Os sujeitos geralmente concordaram que um melhor tamanho da amostra, representatividade da amostra e valores de p poderiam aumentar a validade e a notoriedade dos estudos, mas não o prestígio universitário. Entretanto, quando perguntados sobre sua familiaridade com cada fator, as pessoas também responderam com menos familiaridade com a afiliação institucional como uma métrica para a confiabilidade ou a notícia.
Os autores também realizaram uma “exploração subjetiva e não sistemática dos tópicos levantados pelos participantes” para cada uma das três perguntas abertas – quando existem múltiplos métodos bem estabelecidos e sistemáticos de análise de dados qualitativos.
As características que os jornalistas normalmente consideram, em geral, incluem o prestígio da revista de publicação e comentários de outros pesquisadores. As características que pesaram sobre as vinhetas incluíam o desenho ou métodos do estudo e a plausibilidade ou relevância das descobertas e reivindicações. Os temas que os jornalistas achavam que os pesquisadores estavam avaliando incluíam o desenho do estudo e a percepção étnica do pesquisador fictício com base no sobrenome.
Bottesini, Aschwanden, Rhemtulla e Vazire afirmam ter analisado se a etnia implícita do pesquisador nas vinhetas desempenhou um papel nas avaliações. Entretanto, todos os sobrenomes atribuídos a pessoas de cor eram de origem asiática, latina e SWANA, com total exclusão dos sobrenomes africanos e afro-americanos.
Além disso, os autores afirmam que sobrenomes como Carter (e, presumivelmente, Davis e Lewis) seriam “improváveis de serem percebidos como não brancos ou como hispânicos”. No entanto, muitos afro-americanos possuem atualmente esses sobrenomes devido às práticas de nomeação de escravos para pessoas que eles sequestraram da África durante os 300 anos de comércio transatlântico de escravos. Consequentemente, jornalistas conscientes disso podem ter percebido esses nomes como pertencentes a pesquisadores negros. Isto destaca outra maneira pela qual as informações demográficas etnorraciais sobre os próprios jornalistas foram cruciais para interpretar estes resultados.
O que não considerar
De modo geral, deve-se manter os resultados deste estudo de forma leve, e mais pesquisas devem ser feitas para verificar o quanto estes resultados se aplicam aos jornalistas científicos em geral. Bottesini e colegas apresentam um excelente caso para a importância dos padrões dos jornalistas científicos para o que o público vê como a “verdade”. Entretanto, há deficiências significativas na falta de reportagens sobre demografia racial, principalmente recrutando jornalistas dentro de uma das redes de autores e não reconhecendo a amplitude de métodos qualitativos rigorosos disponíveis nas ciências sociais. Por exemplo, os autores às vezes dizem que os estudos experimentais foram considerados mais confiáveis do que os estudos “observacionais” ou “correlacionais”. Além disso, vários métodos de observação qualitativa não foram testados nem mencionados pelos jornalistas.
Os autores concluem que os jornalistas preferem estudos com um tamanho de amostra maior que 500, estudos experimentais em vez de estudos correlacionais, revistas de maior prestígio e valores de p que são estatisticamente significativos. Os jornalistas desta amostra priorizam valores de p significativos no nível 0,05 geralmente sem priorizar estudos com valores de p próximos a 0. Isto sugere que muitos jornalistas como os deste estudo podem não ter a perícia estatística ou podem não empregar plenamente seus conhecimentos para avaliar a validade dos estudos.
Entretanto, Bottesini e colegas reconhecem que seus resultados podem refletir parcialmente o que os jornalistas pensam que devem usar para avaliar a pesquisa, ao invés do que eles realmente usam. Portanto, eles sugerem mais estudos qualitativos e observacionais sobre como os jornalistas avaliam a pesquisa para aumentar a relevância dos conceitos estudados para o que os jornalistas tendem a fazer de fato. Isto inclui estudos sobre como os jornalistas são ensinados sobre como avaliar a pesquisa.
Bottesini e colegas lamentam a presença de “muita conversa e pouca ação” sobre como melhorar a representatividade das amostras. Eles sugerem que a falta de ação pode ser parcialmente devido à falta de conseqüências.
“Achados baseados em amostras que não são muito representativos da população que os pesquisadores afirmam estar estudando (por exemplo, “estudantes universitários”) foram classificados como confiáveis e dignos de notícia como achados de estudos onde a amostra e a população são mais parecidas (por exemplo, “pessoas de uma amostra nacional”).
Dado o esforço extra freqüentemente necessário para recrutar amostras mais representativas, se as conseqüências forem triviais, pelo menos até a exposição da mídia e as críticas dos jornalistas, isto poderia ajudar a perpetuar o status quo”.
Estas descobertas destacam a necessidade de pesquisa sobre os padrões dos jornalistas científicos, mas cometem alguns dos mesmos erros que os autores invocam. A ciência rigorosa exige reportagem e compreensão de como nossas amostras se relacionam com a demografia do mundo real e a demografia das populações específicas pesquisadas (neste caso, os jornalistas). Ser um “bom cão de guarda” e entregar a verdade ao público requer não apenas compreensão estatística e interpretações contextualizantes, mas também consciência de como a história afeta as percepções e reportagens de todas as informações demográficas relevantes.
****
Bottesini, J. G., Aschwanden, C., Rhemtulla, M., & Vazire, S. (2022, July 19). How Do Science Journalists Evaluate Psychology Research? https://doi.org/10.31234/osf.io/26kr3 (Link)
[trad. e edição Fernando Freitas]