Understanding misinformation and fighting for information - Thèses ENS Accéder directement au contenu
Thèse Année : 2021

Understanding misinformation and fighting for information

Comprendre la désinformation et promouvoir l'information fiable

Résumé

Americans are more worried about misinformation than about sexism, racism, terrorism, and climate change. Fears over misinformation on social media are overblown. Misinformation represents a minute proportion of the news that people consume online (~ 1%), and a small minority of people account for most of the misinformation consumed and shared online. People, on average, are good at detecting fake news and identifying reliable sources of information. People do not believe everything they see and read on the internet. Instead, they are active consumers of information who domesticate technologies in unexcepted ways. It’s very unlikely that social media exacerbates the misinformation problem, that fake news contributes to important political events or that falsehoods spread faster than the truth. Yet, some fake news stories do go viral, and understanding why, despite their inaccuracy, they go viral is important. In a series of experiments, we identified a factor that, alongside accuracy, drives the sharing of true and fake news: the ‘interestingness-if-true’ of a piece of news, e.g. if alcohol was a cure against COVID-19, the pandemic would end in an unprecedented international booze-up. In three experiments (N = 904), participants were more willing to share news they found more interesting-if-true, as well as news they deemed more accurate. They rated fake news less accurate but more interesting-if-true than true news. People may not share news of questionable accuracy by mistake, but instead because the news has qualities that compensate for its potential inaccuracy, such as being interesting-if-true. Despite these qualities, why are most people are reluctant to share fake news? To benefit from communication, receivers should trust less people sharing fake news. And the costs of sharing fake news should be higher than the reputational benefits of sharing true news. Otherwise we would end up trusting people misleading us half of the time. Four experiments (N = 3,656) support this hypothesis: sharing fake news hurts one’s reputation in a way that is difficult to fix, even for politically congruent fake news. Most participants asked to be paid to share fake news (even when politically congruent), and asked for more when their reputation was at stake. During the second part of my PhD, I tested solutions to inform people efficiently. I found that discussing in small groups the scientific evidence on Genetically Modified (GM) food safety and the usefulness of vaccines changed people’s minds in the direction of the scientific consensus. To scale up the power of discussion, we created a chatbot that emulated the most important traits of discussion. We found that rebutting the most common counterarguments against GMOs with a chatbot led to more positive attitudes towards GMOs than a non-persuasive control text and a paragraph highlighting the scientific consensus. However, the dialogical structure of the chatbot seemed to have mattered more than its interactivity. During the pandemic, we deployed a chatbot to inform the French population about COVID- 19 vaccines. Interacting a few minutes with this chatbot, which answered the most common questions about COVID-19 vaccines, increased people’s intention to get vaccinated and had a positive impact on their attitudes towards the vaccines. In the end, people are not stupid. When provided with good arguments, they change their mind in the direction of good arguments. Most people avoid sharing misinformation because they care about their reputation. We do not live in a post-truth society in which people disregard the truth. Overall, we should probably be more concerned about the large portion of people who do not trust reliable sources and are uninformed because they do not follow the news, rather than the minority of people who trust unreliable sources and are misinformed.
Les fausses nouvelles affolent. Les Américains sont plus préoccupés par la désinformation que par le sexisme, le racisme, et le changement climatique. Ces craintes sont très largement exagérées. La désinformation ne représente qu'une infime portion des nouvelles consommées en ligne (~ 1 %) et une petite minorité de gens est à l'origine de la majorité des fausses informations consommées et partagées en ligne. En moyenne, les gens sont capables de reconnaître les fausses nouvelles et d'identifier les sources d'information fiables. Les gens ne croient pas tout ce qu'ils voient et lisent sur l'internet. Il est peu probable que les réseaux sociaux exacerbent le problème de la désinformation, que les fausses nouvelles aient contribué à des événements politiques importants ou que les fausses nouvelles se répandent plus vite que la vérité. Cependant, certaines fausses nouvelles sont virales, et il est intéressant de comprendre pourquoi, malgré leur manque de fiabilité, ces fausses nouvelles deviennent virales. Au cours d'une série d'expériences, nous avons identifié un facteur qui motive le partage des vraies et des fausses nouvelles : "l'intérêt-si-vrai" d'une nouvelle, e.g. si l’alcool était un remède contre la COVID-19 il suffirait de faire la fête pour se protéger du virus. Au cours de trois expériences en ligne (N = 904), les participants étaient plus disposés à partager des nouvelles qu'ils trouvaient plus intéressantes-si-vraies, ainsi que des nouvelles qu'ils jugeaient plus fiables. Ils considéraient les fausses nouvelles comme moins fiables mais plus intéressantes-si-vraies que les vraies nouvelles. Les gens pourraient partager des fausses nouvelles non pas par erreur, mais plutôt parce que ces nouvelles possèdent des qualités qui compensent pour leur manque de fiabilité, comme le fait d'être intéressantessi- vraies. Malgré ces qualités, pourquoi la plupart des gens sont-ils réticents à partager des fausses nouvelles ? Quatre expériences (N = 3 656) montrent que le partage de fausse nouvelle nuit à la réputation de son transmetteur d'une manière difficile à compenser par le partage de vraies nouvelles. La plupart des participants demandèrent à être payés pour partager des fausses nouvelles, et ce montant était d’autant plus important que leur réputation était en jeu. Durant le deuxième parti de mon doctorat j’ai mesuré l’efficacité d’interventions pour informer efficacement les gens. J’ai montré que discuter en petits groupes des preuves scientifiques portant sur la sûreté des organismes génétiquement modifiés (OGM) et de l'utilité des vaccins, influençait l’opinion des gens en direction du consensus scientifique. Pour étendre le pouvoir persuasif de la discussion, nous avons développé un chatbot simulant les caractéristiques les plus importantes d’une discussion. Interagir avec ce chatbot réfutant les contre-arguments les plus courants contre les OGMs entraîna des attitudes plus positives à l'égard des OGMs que plusieurs conditions de contrôle (N = 1306). Pendant la pandémie, nous avons déployé un chatbot répondant aux questions les plus courantes sur les vaccins COVID-19. Interagir quelques minutes avec ce chatbot augmenta l'intention des gens de se faire vacciner et eu un impact positif sur leurs attitudes envers les vaccins. Au final, les gens ne sont pas stupides. Lorsqu'on leur présente de bons arguments, ils changent d'avis en direction de ces bons arguments. La plupart des gens évitent de partager des fausses nouvelles par souci pour leur réputation. L’ère de la « post-vérité » n’existe pas, la fiabilité de l’information est aussi importante aujourd’hui que par le passé. Dans l'ensemble, il est probablement plus important de se préoccuper du grand nombre de gens qui ne font pas confiance aux sources fiables et ne sont pas informés parce qu'ils ne suivent pas l'actualité, plutôt que de la minorité de gens qui font trop confiance aux sources douteuses et sont mal informées.
Fichier principal
Vignette du fichier
Yesilaltay_2021_These.pdf (3.85 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-03531771 , version 1 (18-01-2022)

Identifiants

  • HAL Id : tel-03531771 , version 1

Citer

Sacha Yesilaltay. Understanding misinformation and fighting for information. Cognitive Sciences. Université Paris sciences et lettres, 2021. English. ⟨NNT : 2021UPSLE004⟩. ⟨tel-03531771⟩
336 Consultations
594 Téléchargements

Partager

Gmail Facebook X LinkedIn More