Pourquoi les gens sont-ils antiscience, et que pouvons-nous faire contre cela ?
Pourquoi les gens sont-ils antiscience, et que pouvons-nous faire contre cela ?
Traduction de l’article « Why are peopleantiscience, and what can we do about it »,
publié par PNAS le 3 février 2022 ,
traduit par Vincent à l’aide de Google.
Du refus de la vaccination au déni du changement climatique, les opinions anti-scientifiques menacent l'humanité. Lorsque différentes personnes reçoivent la même preuve scientifique, pourquoi certains l'acceptent alors que d'autres la rejettent ? En nous appuyant sur diverses données et modèles émergents qui ont exploré la psychologie de l'antiscience, nous spécifions quatre bases fondamentales de principes clés guidant les attitudes antiscientifiques. Ces principes sont fondés sur des décennies de recherche sur les attitudes, la persuasion, l'influence sociale, l'identité sociale et le traitement de l'information. Ils s'appliquent à divers domaines des phénomènes antiscientifiques. Plus précisément, les attitudes antiscience sont plus susceptibles d'émerger lorsqu'un message scientifique provient de sources perçues comme manquant de crédibilité ; lorsque les destinataires adoptent l'appartenance sociale ou l'identité de groupes aux attitudes anti-scientifiques ; lorsque le message scientifique lui-même contredit ce que les destinataires considèrent comme vrai, favorable, précieux ou moral ; ou lorsqu'il y a un décalage entre la livraison du message scientifique et le style épistémique du destinataire. La politique déclenche ou amplifie de nombreux principes sur les quatre bases, ce qui en fait une force particulièrement puissante dans les attitudes antiscience. Guidés par les principes clés, nous décrivons des stratégies contre-actives fondées sur des preuves pour accroître l'acceptation de la science par le public.
--------------------
Sources : https://www.pnas.org/doi/10.1073/pnas.2120755119 (télécharger)
Aviva Philipp-Mullera , Spike W.S. Leeb,c et Richard E. Pettya Edité par Timothy Wilson, Université de Virginie, Charlottesville, VA ; reçu le 3 février 2022 ; accepté le 19 mai 2022
--------------------
Du refus de se faire vacciner contre le COVID-19 (1) à l'ignorance de l'aggravation du changement climatique (2), le rejet des informations scientifiques coûte des vies aujourd'hui et continuera de le faire à l'avenir. Il suffit de regarder les données de sondages récents pour trouver des cas de rejet public de preuves scientifiques ou de refus de solutions avec un haut niveau de consensus parmi les scientifiques. Par exemple, un sondage de septembre 2021 a révélé que seulement 61 % des Américains considéraient le COVID-19 comme une menace majeure pour la santé publique (3). Un autre sondage récent a révélé que 40 % des Américains ne pensent pas que le changement climatique constitue une menace majeure (4). D'autres exemples abondent dans le monde (5). Le rejet des preuves scientifiques n'est cependant pas un phénomène nouveau. Lorsque la théorie des germes a été proposée au 19e siècle, un mouvement anticontagionniste a rejeté l'idée que la maladie pouvait se propager par de minuscules germes. Les découvertes scientifiques antérieures, telles que la nature héliocentrique du système solaire, se sont heurtées à une forte opposition. Mais pourquoi? Des premiers exemples aux exemples contemporains, quels sont les principes psychologiques qui expliquent les opinions antiscience des gens ? Autrement dit, lorsque différentes personnes reçoivent la même preuve scientifique, pourquoi certains continuent-ils à l'accepter et à l'intégrer comme un fait, alors que d'autres la rejettent comme invalide ou non pertinente ?
De nombreux chercheurs se sont penchés sur les antécédents des opinions antiscientifiques. Les modèles existants ont identifié des facteurs qui prédisent la méfiance à l'égard d'innovations ou de théories scientifiques spécifiques (6, 7) ou d'attitudes antiscience en général [par exemple, les Attitudes racines et les modèles de Jiu Jitsu (8)]. Ces modèles et d'autres mentionnés tout au long de notre article offrent des informations importantes. Mais un paradigme théorique qui a été largement ignoré dans la littérature antiscience, malgré sa pertinence substantielle, est la perspective classique sur les attitudes et la persuasion (9). C'est surprenant, car les points de vue antiscience représentent une crise d'attitudes due à la fois à une persuasion efficace par des sources antiscience et à une persuasion inefficace par des sources scientifiques ou « professionnelles ». C'est aussi une occasion manquée, car les travaux classiques sur la persuasion ont mis en évidence un certain nombre de processus explicatifs et de stratégies correctives, dont beaucoup sont très applicables au problème des attitudes antiscience. Le but de notre article est de rendre ces connexions explicites et constructives. Nous le faisons en reliant les découvertes et les modèles contemporains de la littérature antiscience aux principes clés de décennies de recherche sur les attitudes, la persuasion, l'influence sociale, l'identité sociale et l'acceptation par rapport au rejet de l'information au sens large. Établir ces connexions confère le double avantage scientifique d'organiser notre compréhension des phénomènes antisciences et de délimiter comment les composants classiques des processus de persuasion formulés au 20e siècle sont impactés par les nouvelles formes de dynamique sociale au 21e siècle (par exemple, des effets de réseau social vastes et rapides dans diffusion de fausses informations sur les réseaux sociaux).
Pourquoi les gens sont-ils antiscience ? Un cadre inclusif
Tableau 1 : Principes clés à l'origine des attitudes antiscience et stratégies de neutralisation pour y faire face
Base des principes clés |
Principes clés guidant les attitudes antiscience |
Stratégies contre-actives pour aborder les principes clés |
Base 1. Source du message scientifique |
Lorsque les sources d'information scientifique (par exemple, les scientifiques) sont perçues comme 1) inexpertes, 2) indignes de confiance ou 3) biaisées, elles manquent de crédibilité et leurs messages sont ignorés ou rejetés. |
1, i) Améliorer la validité perçue et réelle des travaux des
scientifiques 1, ii) Légitimer le débat scientifique de fond 2) Transmettre de la chaleur et des objectifs prosociaux dans la communication scientifique et utiliser un langage accessible 3) Faire comprendre que la source n'est pas antagoniste au destinataire, par exemple en fournissant des messages à double face qui indiquent clairement le côté pour lequel il existe des preuves plus solides |
Base 2. Destinataire du message scientifique |
Lorsque l'information scientifique active l'identité sociale d'une personne en tant que membre d'un groupe 1) qui a des attitudes anti-scientifiques ou 2) qui a été sous-représenté dans la science ou exploité dans le travail scientifique, elle déclenche le favoritisme endogroupe et l'antipathie exogroupe. |
1) Activation de l'identité partagée ou supérieure 2) S'engager et collaborer avec les communautés marginalisées |
Base 3. Le message scientifique lui-même |
Lorsque les informations scientifiques contredisent ce que les gens 1) croient être vrai, 2) évaluent comme favorable ou 3) moralisent, ils éprouvent une dissonance cognitive, qui est plus facilement résolue en rejetant l'information scientifique qu'en changeant les croyances, attitudes ou valeurs existantes. |
1, i) Formation au raisonnement scientifique 1, ii) Prébunking 2, i) Des arguments solides 2, ii) Affirmation de soi 3, i) Recadrage moral 3, ii) Accroître la naturalité perçue et la pureté morale des innovations scientifiques |
Base 4. Inadéquation entre la délivrance du message scientifique et le style épistémique du destinataire |
Lorsque l'information scientifique est fournie d'une manière qui ne correspond pas à son 1) niveau d'interprétation, 2) l'orientation réglementaire, 3) le besoin de fermeture ou 4) le besoin de cognition, elle a tendance à être rejetée. |
1-4) Faire correspondre la diffusion d'informations scientifiques avec le style épistémique du destinataire (par exemple, encadrer les messages comme des gains approchants pour les destinataires axés sur la promotion mais comme évitant des pertes pour les destinataires axés sur la prévention) |
Des groupes distincts de processus mentaux de base peuvent expliquer quand et pourquoi les gens ignorent, banalisent, nient, rejettent ou vénèrent l'information scientifique - une variété de réponses qui pourraient collectivement être étiquetées comme « antiscience ». Pour organiser ces processus, nous proposons un cadre inclusif qui spécifie quatre bases fondamentales des attitudes antiscience (tableau 1, première colonne). Essentiellement, les gens sont enclins à rejeter les messages scientifiques lorsqu'ils proviennent d'une source qu'ils ne trouvent pas crédible (base 1), lorsqu'ils, en tant que destinataires du message scientifique, s'identifient à des groupes sociaux qui ont des attitudes anti-scientifiques (base 2), lorsque le message scientifique lui-même contredit leurs croyances ou attitudes connexes (base 3), ou lorsqu'il est livré d'une manière qui ne correspond pas à leurs approches motivationnelles et cognitives du traitement de l'information (base 4). Chacune de ces bases implique des antécédents ou des prédicteurs spécifiques et suscite différentes nuances de réaction psychologique (tableau 1, deuxième colonne) ; ils indiquent également différentes stratégies de contre-attaque (tableau 1, troisième colonne). Malgré leurs différences d'orientation, les quatre bases sont unifiées de manière révélatrice dans laquelle l'information scientifique entre en conflit avec le contenu ou le style de pensée existant des gens. De tels conflits sont difficiles à avaler et faciles à désavouer, faisant de la communication efficace de l'information scientifique un problème épineux, mais qui devient plus surmontable une fois ses fondements sous-jacents élucidés.
Dans les sections suivantes, nous introduisons chaque base d'attitudes antiscientifiques en soulignant les principes clés, en identifiant les modèles pertinents et en passant en revue les découvertes illustratives et les exemples concrets, de la vaccination de type domaine fortement étudiée à celles moins étudiées comme la nanotechnologie. Ensuite, à travers la lentille conceptuelle des quatre bases, nous expliquons pourquoi la politique a des effets particulièrement puissants sur les attitudes antiscience. Ensuite, nous présentons une variété de stratégies contre-actives pour accroître l'acceptation de la science en ciblant les quatre bases. Enfin, nous concluons avec les apports théoriques de notre cadre.
Base 1 : Source du message scientifique.
Les profanes ne découvrent pas les faits sur la réalité de manière isolée, sans apports extérieurs. Au lieu de cela, ils s'appuient sur des sources d'informations scientifiques - des scientifiques ou, plus fréquemment pour la plupart des gens, des journalistes, des responsables de la santé, des politiciens ou des leaders d'opinion clés - pour construire leur compréhension du monde. En général, plus une source est perçue comme crédible, plus les gens sont susceptibles d'accepter ses informations et d'être persuadés par celles-ci.
Malheureusement, de nombreuses personnes perçoivent les scientifiques, supposés être la source originale d'informations scientifiques, comme manquant de crédibilité (10). Pourquoi ?
La crédibilité de la source repose sur trois piliers : l'expertise (c'est-à-dire posséder des compétences et des connaissances spécialisées), la fiabilité (c'est-à-dire être honnête) et l'objectivité (c'est-à-dire avoir des perspectives impartiales sur la réalité) (11). Les trois sont nécessaires.
Lorsque les scientifiques (ou toute personne transmettant des informations scientifiques) sont perçus comme inexpérimentés, indignes de confiance ou biaisés, la crédibilité est entachée et ils perdent leur efficacité à transmettre des informations scientifiques et à changer les opinions.
Bien que les scientifiques soient généralement perçus comme ayant une compétence et une expertise élevées (12), cette perception se heurte à des défis croissants. Les préoccupations concernant la valeur de vérité et la robustesse des découvertes scientifiques dans de multiples domaines, des sciences médicales aux sciences sociales (13, 14), ont reçu une attention médiatique (15). La perception profane de la crédibilité des scientifiques peut même être ébranlée par des caractéristiques essentielles à la mission même de la science : des débats légitimes ont lieu au sein des domaines scientifiques, avec différents scientifiques défendant des perspectives, des théories, des hypothèses, des conclusions et des recommandations différentes, parfois contradictoires. [À titre d'exemple actuel au moment où nous écrivons, les scientifiques diffèrent dans leurs recommandations sur l'opportunité et le moment de déployer le deuxième rappel pour COVID-19 (16).] En principe, ces signes indiquent un écosystème scientifique sain. Dans la pratique, les contradictions entre scientifiques, en particulier dans le contexte des problèmes de réplicabilité, menacent les perceptions profanes de la crédibilité des scientifiques (17).
La fiabilité des scientifiques est également menacée par des forces multisociales. La méfiance à l'égard des élites (c'est-à-dire celles qui ont une influence sociétale) est en hausse (18), et les scientifiques dont la voix est diffusée dans la sphère publique sont souvent employés par les médias et les institutions des élites. La méfiance à l'égard des organisations gouvernementales est également en hausse (19), ce qui laisse présager une méfiance envers les scientifiques qui recommandent des innovations qui nécessiteraient une plus grande réglementation gouvernementale (20). De plus, les scientifiques ont été stéréotypés comme étant de caractère froid et insensible (12, 21), ce qui sape la volonté du public de leur faire confiance (21).
L'objectivité des scientifiques a également été remise en question. Les scientifiques de certains domaines sont dépeints et perçus comme présentant des perspectives biaisées contre les valeurs chrétiennes (22) et conservatrices (23). En effet, de nombreux individus religieux rejettent la science, en partie à cause de la perception que les scientifiques sont athées (24). Plus généralement, lorsque les scientifiques pensent avoir un intérêt direct (par exemple, des incitations monétaires) à persuader leur public, ils sont perçus comme biaisés et indignes de confiance (25). Pendant la pandémie de COVID-19, une désinformation généralisée a caractérisé des responsables importants de la santé publique comme faisant la promotion du vaccin en raison de leur investissement financier dans diverses sociétés pharmaceutiques (26). En bref, les scientifiques peuvent être perçus comme inexperts, indignes de confiance ou partiaux, ce qui menace leur crédibilité aux yeux du public.
Base 2 : Destinataire du message scientifique
Les gens varient selon leur intérêt et leur volonté d'écouter différents types d'informations (27, 28). Une force puissante qui façonne les types d'informations que les individus s'exposent pour rechercher activement est leur identité sociale. Des recherches approfondies sur la théorie de l'identité sociale ont montré que les groupes sociaux auxquels les individus appartiennent ou ressentent un lien exercent une forte influence sur leur réponse à l'information perçue comme pertinente pour l'identité (29). Par exemple, les jeunes adultes sont plus susceptibles de rechercher des informations positives (vs négatives) sur les jeunes adultes (leur endogroupe), et les personnes âgées sont plus susceptibles de rechercher des informations négatives sur les jeunes adultes (leur exogroupe) (30).
Les identités sociales jouent un rôle dans les attitudes et les comportements antiscience. Ceux qui ont été sous-représentés dans la science ou qui ont été historiquement exploités dans des expériences scientifiques [par exemple, les Noirs et les Autochtones (31) sont plus sceptiques à l'égard de la science (32). En plus des groupes démographiques, les gens peuvent s'identifier à des groupes d'intérêt qui façonnent les attitudes antiscience. Par exemple, ceux qui s'identifient fortement comme des joueurs vidéo sont plus susceptibles de rejeter les preuves scientifiques concernant les méfaits des jeux vidéo (33). Ces résultats sont globalement cohérents avec les recherches et les modèles de communication scientifique qui décrivent comment les gens ont tendance à rejeter les informations scientifiques incompatibles avec leur identité. Les travaux sur la cognition culturelle ont mis en évidence la façon dont les gens déforment les découvertes scientifiques pour les adapter aux valeurs qui comptent pour leurs identités culturelles (34, 35). Dans le même ordre d'idées, les travaux sur la cognition protectrice de l'identité montrent que les gens rejettent de manière sélective les évaluations des risques qui menacent leur identité (36), car les hommes blancs sont plus susceptibles que les autres groupes raciaux et de genre de rejeter les données concernant le risque des armes à feu parce que les armes à feu font plus partie intégrante de leur identité culturelle (37).
Au-delà des effets de l'identification à des groupes démographiques ou culturels spécifiques qui peuvent entrer en conflit avec des découvertes scientifiques spécifiques, certaines personnes s'identifient à des groupes qui, ensemble, ignorent et bloquent la pensée, les recommandations et les preuves scientifiques en général (38, 39). Cette sorte d'identité est souvent liée à d'autres identités personnellement significatives, en particulier politiques [et religieuses (39)], thème que nous développerons brièvement. Une nuance importante, cependant, est que, bien que les scientifiques puissent caractériser certains groupes sociaux comme antiscience, l'individu qui s'identifie à ces groupes peut ne pas se considérer comme désavouant explicitement ou consciemment la science. Ils pourraient même se considérer comme des pro-sciences, en ce sens qu'ils croient que leurs propres points de vue sont plus scientifiquement fondés que ceux des scientifiques traditionnels (40). En quel sens sont-ils donc antiscience ? En ce sens que, s'ils rejettent la prépondérance des preuves scientifiques et préfèrent à la place des positions favorables avec peu de soutien ou pseudoscientifiques, alors ils agissent de facto à l'encontre du fonctionnement de la science, ils sont contre l'approche scientifique de la création de connaissances et les connaissances créées par elle.
En plus d'être contre l'information scientifique, les individus peuvent être contre les personnes qui fournissent ou promeuvent l'information scientifique. Il s'agit malheureusement d'un aspect commun de l'identité sociale, à savoir l'antipathie envers ceux qui ne partagent pas cette identité et font donc partie de l'exogroupe (41). Par exemple, ceux qui s'identifient comme sceptiques du changement climatique nourrissent des sentiments hostiles envers les croyants du changement climatique (42). Pour les individus qui adoptent une identité associée à des attitudes antiscience, les scientifiques sont membres de l'exogroupe. Les gens ont tendance à rejeter ce que les membres de l'exogroupe ont à dire, parfois allant jusqu'à la violence qui peut survenir même en l'absence de raisons substantielles pour rejeter le message du membre de l'exogroupe si ce n'est qu'il vient de l'exogroupe (43). Ces forces de l'identité sociale reflètent pourquoi de nombreuses personnes qui s'identifient fortement aux groupes antiscience semblent rejeter avec véhémence les messages scientifiques et approchent fréquemment les scientifiques avec hostilité, menaçant même leur vie (44).
Une dynamique similaire est évidente dans la montée marquée des théories du complot liées au COVID-19 (par exemple, pandémique était un canular ou les vaccins contenaient des micropuces). Ces théories du complot se regroupent souvent autour de groupes sociaux particuliers et sont promues avec la plus grande véhémence par ceux qui se sentent fortement identifiés à leur communauté pseudoscientifique(45). Ces dernières années, les théories du complot ont conduit à des comportements très visibles tels que les manifestations anti-masques et anti-vaccins.
Grâce aux médias sociaux, les groupes antiscience peuvent désormais mobiliser les militants et les adeptes plus rapidement qu'auparavant.
Au-delà du contexte de la COVID-19, des groupes sociaux qui rejettent la science traditionnelle ont émergé autour des traitements non validés de la maladie de Lyme (46) et de l'opposition à se faire vacciner ou à faire vacciner ses enfants en général (47).
Base 3 : Le message scientifique lui-même.
Les gens ne pensent pas et ne se comportent pas toujours conformément à ce que la science suggère. La raison en est qu'ils ne connaissent pas les preuves scientifiques [c'est-à-dire le modèle de déficit (48)]. Parfois, lorsque les gens découvrent simplement le consensus scientifique, leurs pensées et leurs sentiments suivent [c'est-à-dire le mode de croyance passerelle (49)]. D'autres fois, cependant, lorsque l'information scientifique contredit les croyances existantes des gens sur ce qui est factuellement vrai, ils peuvent rejeter même les preuves scientifiques les plus solides, car entretenir des cognitions contradictoires est aversif. Le phénomène est connu sous le nom de dissonance cognitive (50), qui se produit lorsqu'une personne est exposée à des informations qui entrent en conflit avec ses croyances, attitudes ou comportements existants.
La dissonance provoque un malaise. Compte tenu de ce sentiment d'aversion, les gens sont motivés à résoudre la contradiction et à éliminer l'inconfort de plusieurs façons, par exemple en rejetant les nouvelles informations, en banalisant le sujet, en rationalisant qu'il n'y a pas de contradiction ou en révisant la pensée existante (51).
De manière critique, les gens ont tendance à résoudre la dissonance en utilisant le chemin de moindre résistance. Pour une personne qui a fumé toute sa vie, il est beaucoup plus facile de rejeter ou de banaliser les preuves scientifiques sur les risques du tabagisme pour la santé que de modifier son habitude enracinée. Avec la dissonance, l'intransigeance des croyances existantes ressemble à l'adhésivité des comportements existants : il est plus facile de rejeter une information scientifique que de réviser tout un système de croyances existantes accumulées et intégrées dans une vision du monde au fil des ans, souvent renforcée par le consensus social. La croyance existante peut être basée sur des informations scientifiques valides, des informations scientifiques précédemment acceptées mais maintenant obsolètes, ou de la désinformation scientifique. À titre d'exemple de dissonance découlant de la croyance en des informations scientifiques périmées, pendant des milliers d'années, c'était une croyance répandue que la Terre était le centre de l'univers et que le soleil tournait autour de la Terre (52). Pour une personne qui avait toujours cru que le soleil tournait autour de la Terre, il était beaucoup plus facile de rejeter la notion d'héliocentrisme copernicien que de réviser le modèle géocentrique de l'univers qui était auparavant accepté et ressenti subjectivement comme suffisamment cohérent, et donc sans besoin évident de révision.
En plus de rejeter les nouvelles informations issues des progrès scientifiques et des mises à jour, les individus peuvent avoir des croyances qui contredisent les preuves scientifiques en raison de la propagation d'informations erronées. Ces dernières années ont vu une prolifération de fausses nouvelles (53), catalysées par les médias sociaux, qui facilitent la diffusion rapide d'informations, qu'elles soient vraies ou non. Malheureusement, les fausses nouvelles se propagent « de manière significative - plus loin, plus rapidement, plus profondément et plus largement » que les vraies nouvelles sur les plateformes de médias sociaux, car les fausses nouvelles suscitent souvent des réactions émotionnelles plus fortes et rencontrent plus de nouveautés que de vraies, qui sont des attributs qui augmentent le comportement de partage (54). Bien que certaines personnes puissent partager des informations erronées simplement en raison d'un manque d'attention à la véracité (et non en raison de l'approbation du contenu (55), le partage étendu de fausses nouvelles entre les personnes les rend susceptibles d'être acceptées, en raison de la dynamique de l'identité sociale décrite précédemment, ce qui peut entraîner des acceptation rapide des croyances pseudoscientifiques ou antiscientifiques.
Une fois que la désinformation s'est propagée, il est difficile de la corriger (56), et il y a souvent une influence continue de la désinformation même après qu'elle a été rétractée. Les corrections émises par les sources médiatiques sont généralement inefficaces pour réduire la croyance dans la désinformation. En fait, les corrections renforcent parfois la croyance en la rendant plus saillante (56). Malheureusement, la désinformation sur de nombreux sujets scientifiques a été largement diffusée, comme les risques exagérés et infondés des vaccins (y compris les temps pré-COVI), le déni du changement climatique et le rejet des preuves de l'évolution (57).
La désinformation scientifique est particulièrement difficile à corriger lorsqu'elle fournit une explication causale à un phénomène
Corriger la désinformation laisserait un vide dans le modèle mental des gens sur la raison pour laquelle un événement ou une situation s'est produit (58) et causerait de l'inconfort (59). Les gens comblent souvent cette lacune avec de la désinformation pour donner un sens au problème en question. Revenant à l'exemple de l'héliocentrisme, dire à un géocentrique que la Terre n'est en fait pas le centre de l'univers laisserait un vide dans son modèle mental expliquant pourquoi le soleil semble clairement tourner autour de la Terre, un vide facile à combler en réaffirmant sa croyance causale existante. Des dynamiques cognitives similaires ont longtemps été observées dans la pseudoscience (60) et continuent aujourd'hui d'entraîner le rejet de l'information scientifique.
Non seulement les gens possèdent des croyances quant à savoir si les choses sont vraies ou fausses, mais ils évaluent également les choses comme souhaitables ou indésirables (attitudes) (9), importantes ou non importantes (valeurs) (61) et bonnes ou mauvaises (morale) (62). Les points de vue moraux sont en contradiction avec des types particuliers d'informations scientifiques, ce qui entraîne un rejet motivé par la morale. Par exemple, les personnes qui souscrivent à la signification morale de la naturalité et de la pureté sont enclines à résister aux technologies et aux innovations scientifiques considérées comme une altération de la nature. Les vaccins (63) et les aliments génétiquement modifiés (64) malgré leurs avantages documentés, sont souvent rejetés en raison de la perception qu'ils ne sont pas naturels. Ce groupe d'intuitions morales sur la naturalité et la pureté est fortement lié aux différences individuelles d'aversion pour « jouer à Dieu », une aversion qui prédit une volonté plus faible de financer la NSF et moins de dons monétaires aux organisations soutenant de nouvelles procédures scientifiques (65).
Les attitudes enracinées dans les notions de bien et de mal (par exemple, ne pas manger de viande comme une question morale plutôt que comme une préférence de goût) sont particulièrement fortes (66) et ont tendance à être plus extrêmes, persistantes dans le temps, résistantes au changement et prédictives du comportement (67). Par exemple, les personnes ayant des attitudes moralisées envers le recyclage sont plus résistantes aux informations contre-attitudinales concernant l'efficacité du recyclage (68). Pour résoudre la dissonance à partir d'informations contradictoires, rejeter les nouvelles informations scientifiques est souvent le chemin de moindre résistance que les attitudes moralisées existantes de la révision. De même, lorsque la désinformation est cohérente avec les attitudes existantes, il est difficile de la corriger (69). Pour les personnes qui aiment conduire des véhicules puissants mais énergivores, la désinformation telle que « le changement climatique est un canular » serait une attitude cohérente, tandis que la correction scientifique de cette désinformation serait une attitude incohérente et donc sujette au rejet.
Base 4 : Décalage entre la livraison du message scientifique et le style épistémique du destinataire.
Par exemple, lorsque les gens interprètent un problème en termes abstraits/de haut niveau (vs. concrets/de bas niveau), les informations scientifiques concrètes (vs. abstraites) sur le problème ne correspondent pas à leur niveau d'interprétation et ont tendance à être rejetées.
Les gens interprètent généralement la question du changement climatique en termes abstraits/de haut niveau (par exemple, dégradation de l'environnement mondial), car les conséquences du changement climatique apparaissent comme psychologiquement éloignées (71) et la distance favorise une interprétation abstraite (72). Ainsi, lorsque des produits respectueux de l'environnement sont décrits en termes concrets/de bas niveau (par exemple, des détails précis sur les économies de carbone du produit), malgré des arguments convaincants, ils ont tendance à être rejetés (71). L'évaluation et le choix de produits durables sont également compromis lorsque les produits sont décrits en termes concrets d'économies économiques intéressées à des consommateurs qui pensent abstraitement à la durabilité (73).
Même en maintenant le niveau d'abstraction/concret constant, l'information scientifique peut être présentée dans un cadre de gain et un cadre de perte. Décrire un vaccin comme étant efficace à 90 % (gaiframe) équivaut techniquement à le décrire comme inefficace à 10 % (cadre de perte), mais avec des effets psychologiques différents, car le cadre peut être en contradiction avec l'objectif régulateur des gens (74). L'accent mis sur la promotion oriente les gens vers des gains avides ; l'accent sur la prévention oriente les gens vers la prudence et la prévention des pertes. Lorsque l'information scientifique est conçue pour promouvoir les gains (vs. prévenir les pertes), elle a tendance à être diffusée par des personnes qui se concentrent sur la prévention (vs. la promotion) (74). De tels effets d'inadéquation se sont traduits par le rejet du changement climatique (75) et des messages de santé (par exemple, la vaccination et l'arrêt du tabac) (76).
Le cadrage de l'information scientifique varie également dans la mesure où elle semble certaine et décisive. Même lorsqu'il existe un degré élevé de consensus scientifique, l'information scientifique est souvent diffusée dans des termes qui signalent l'incertitude. La terminologie, bien que techniquement précise, conduit les personnes ayant un besoin aigu de clôture (c'est-à-dire une faible tolérance à l'incertitude épistémiologique) (77) à la rejeter. Par exemple, lorsque les gens reçoivent des informations scientifiques mitigées sur les vaccins, ceux qui ont un grand besoin de fermeture sont particulièrement susceptibles de se retrancher dans leurs opinions existantes et de rejeter les informations mitigées (78). Plus généralement, les personnes ayant un besoin élevé de fermeture sont plus susceptibles de rejeter les nouvelles informations qui remettent en question leurs conclusions ou hypothèses actuelles (77). Cela pose un défi aux scientifiques, qui sont formés pour protéger leurs découvertes et éviter de revendiquer des certitudes excessives alors qu'ils essaient de communiquer la nature préliminaire, non concluante ou évolutive des preuves scientifiques.
Enfin, l'information scientifique varie dans sa qualité. Intuitivement, les arguments de haute qualité sont plus convaincants que ceux de faible qualité (79). Mais ce n'est souvent pas vrai pour les personnes ayant un faible besoin de cognition (c'est-à-dire les personnes qui n'aiment pas penser), pour qui des arguments de faible qualité peuvent être tout simplement convaincants comme des arguments de haute qualité si des signaux périphériques positifs (par exemple, une source sympathique) sont présents. (80). Par conséquent, bien que des preuves scientifiques de bonne qualité soient, dans l'ensemble, plus susceptibles d'être acceptées que des preuves de mauvaise qualité (81), les personnes qui n'aiment pas réfléchir sont moins susceptibles d'apprécier ces distinctions qualitatives. Ils sont moins susceptibles de traiter des informations complexes, car les comprendre nécessite une réflexion active (79).
Ils sont également moins susceptibles de choisir de lire des articles nuancés sur les blogs scientifiques (82) et moins susceptibles d'accepter des preuves du changement et de l'évolution climatiques (83).
Le niveau interprétatif, l'orientation réglementaire, le besoin de fermeture, le besoin de cognition sont différentes dimensions de l'épistémistyle. Sur l'une de ces dimensions, un décalage entre la manière dont les informations scientifiques sont fournies et la façon dont le destinataire pense augmentera la probabilité de rejet. Plus généralement, les inadéquations source-bénéficiaire (base 4), les conflits conflictuels (base 3), l'identité sociale (base 2) et les sources manquant de crédibilité (base 1) contribuent tous aux attitudes antiscience. Ils soulignent également pourquoi la politique est un moteur particulièrement puissant de ces attitudes.
Comment la politique conduit les attitudes antiscience.
L'acceptation de l'information scientifique est maintenant fortement divisée selon des lignes politiques, avec des individus dans différents camps qui ont, voire défendent, des points de vue très différents (84). Les conservateurs sont plus susceptibles que les libéraux de rejeter les preuves scientifiques soutenant l'évolution (85) et l'existence d'un changement climatique anthropique (86), et ont moins l'intention de se faire vacciner contre le COVID-19 (87). Bien que les libéraux, dans l'ensemble, soient enclins à accepter les preuves scientifiques (86-88), il y a des sujets spécifiques sur lesquels ils sont plus susceptibles d'être sceptiques, comme le risque des nanotechnologies (35). Comment donnons-nous du sens à ces clivages politiques ?
La littérature sur les attitudes antiscience a trouvé que le rejet d'informations scientifiques par des membres de différents camps politiques est souvent basé sur des facteurs de motivation (89).
En nous appuyant sur ces idées, nous soutenons que la politique peut déclencher ou amplifier des processus mentaux de base dans les quatre bases d'attitudes antiscience, ce qui en fait une force particulièrement puissante. Étant donné que les processus mentaux ne s'excluent pas mutuellement, bon nombre des influences politiques décrites ci-dessous sont susceptibles de se produire conjointement les unes avec les autres.
La politique a un impact sur la perception qu'ont les gens de la crédibilité des scientifiques (la source) via l'expertise perçue et les valeurs de confiance (90). En général, les gens voient les autres avec des opinions politiques similaires comme plus experts et mieux informés. Les libéraux et les conservateurs font moins confiance aux scientifiques dont les travaux contredisent leur point de vue idéologique (91), et les expositions récentes à de telles informations contradictoires réduisent la confiance dans l'ensemble de la communauté scientifique (92). Parce que les libéraux et les conservateurs trouvent différentes sources crédibles (par exemple, CN contre Fox News), ils s'exposent à différentes informations scientifiques (93) et à la désinformation (94), souvent renforcées par des signaux d'élites politiques de confiance (95), les enracinant davantage dans des réseaux cloisonnés. À l'ère des médias sociaux et des flux d'actualités personnalisés de manière algorithmique, tout ce qui semble être la même source (par exemple, Facebook) peut fournir des informations très variées à différents utilisateurs (96) exacerbant la division des communautés selon les politiques.
Pour beaucoup, la politique est plus qu'un simple ensemble de croyances ou d'idéaux ; c'est une partie essentielle de leur identité (97), qui peut avoir un impact important sur la façon dont ils, en tant que destinataire, réagissent aux différents éléments de preuve scientifique, aux propositions politiques et à la législation.
Ceux qui s'identifient fortement comme démocrates ou républicains ont tendance à montrer des réponses différentes à divers éléments d'information scientifique, chaque groupe rejetant les propositions prétendument proposées par l'exogroupe, même si cela va à l'encontre de leur propre intérêt. Par exemple, lorsque les taxes sur le carbone sont présentées comme étant une politique prédominante/républicaine (vs. démocrate), ceux qui identifient un démocrate (vs. républicain) sont plus susceptibles de s'opposer à cette politique (96). Cette opposition à tout ce qui est proposé par l'exogroupe est médiatisée par la perception que l'exogroupe est une menace pour la société (99) et que les menaces déclenchent de manière fiable l'antipathie de l'exogroupe (100). Une telle antipathie prévaut dans le sectarisme politique de notre époque (101), qui conduit les individus à s'exposer sélectivement à des informations scientifiques sympathiques (28).
En effet, les gens ont une forte tendance à rechercher l'information (le message) qui renforce leur existence dans leurs croyances (93), un phénomène intensifié par les plateformes en ligne qui accroissent la vitesse et l'ampleur de l'exposition à l'information et à la désinformation dans des chambres d'écho homogènes et polarisées (102). Une grande partie de la désinformation en ligne est politiquement chargée, couvrant divers sujets allant des élections au changement climatique (57). La recherche sur les messages basés sur les valeurs a révélé que, lorsqu'un message politique évoque une valeur discordante avec les valeurs existantes des gens, il a tendance à être rejeté (103). En effet, lorsque des informations scientifiques contredisent les croyances des gens façonnées par les forces politiques, elles ont tendance à être carrément rejetées comme simplement fausses, une tendance manifestée à la fois par les libéraux et les conservateurs (104). Pire encore, plus les opinions politiques des gens sont extrêmes ou moralement chargées, plus leur sentiment de supériorité de croyance est fort, quelle que soit leur exactitude (105), amplifiant encore le rejet des informations scientifiques contradictoires.
Parallèlement aux différences de contenu (les types de messages que les libéraux et les conservateurs recherchent et acceptent), les libéraux et les conservateurs diffèrent également dans leur approche de l'information (styles épistémiques). Les conservateurs sont, en moyenne, plus axés sur la prévention, et les libéraux sont plus axés sur la promotion (106). Selon cette logique, les conservateurs seraient plus susceptibles de rejeter les informations scientifiques conçues comme des gains approchants, et les libéraux seraient plus susceptibles de rejeter les informations scientifiques présentées comme évitant des pertes.
Les conservateurs ont également un besoin plus fort de fermeture (107) qui est lié à des croyances plus fortes dans une variété de théories du complot sans fondement scientifique (108).
Dans l'ensemble, la politique est une force particulièrement puissante dans le rejet de l'information scientifique car elle frappe toutes les quatre bases des attitudes antiscience, les amplifiant parfois.
Les augmentations aiguës de la partisanerie politique et de la sectarisme (101) au cours des dernières années n'ont fait qu'accentuer la puissance et la toxicité de ces influences politiques.
Que pouvons-nous faire à propos des attitudes antiscience ?
En précisant les principes clés qui sous-tendent les attitudes antisciences, notre cadre suggère des stratégies de contre-réaction pour accroître l'acceptation de l'information scientifique en ciblant chacune des quatre bases (tableau 1, troisième colonne). Évidemment, aucune stratégie unique n'est parfaite ou universelle, et l'actualité regorge de défis uniques, tels que la propagation de la désinformation sur les réseaux sociaux, mais des stratégies spécifiques peuvent toujours être efficaces dans leurs contextes respectifs, pour des objectifs spécifiques. Nous décrivons brièvement un certain nombre de ces stratégies.
Base de ciblage 1 : Accroître la perception des sources d'information scientifique comme étant crédibles.
Les scientifiques manquent de crédibilité lorsqu'ils sont perçus comme inexpérimentés, indignes de confiance, obnubilés. Pour répondre aux préoccupations émergentes concernant la qualité du travail des scientifiques et leur expertise, leur fiabilité et leur objectivité perçues, les scientifiques doivent améliorer la validité de leurs recherches (109) et établir la réplicabilité et la reproductibilité de leurs résultats. Les scientifiques doivent également faire comprendre au public que les débats et les désaccords de fond sont inhérents au processus scientifique et signalent un paysage scientifique sain, un point souvent manqué par les profanes qui s'attendent à ce qu'une découverte scientifique donnée soit absolue (17). Pour maximiser l'efficacité, les scientifiques et les organisations scientifiques doivent recruter des journalistes, des responsables de la santé, des politiciens ou des leaders d'opinion clés pour se joindre aux efforts de communication, car ils sont souvent les sources transmettant l'information scientifique directement au public ou les sources auxquelles le public a déjà confiance.
Pour réduire la méfiance à l'égard des scientifiques en raison de leur perception de la froideur (12), lorsque les scientifiques communiquent leurs conclusions et leurs recommandations, ils doivent améliorer les impressions défavorables en transmettant intentionnellement une chaleur interpersonnelle et en mettant en évidence la nature communautaire de la science, une tactique qui s'est avérée efficace pour un objectif différent mais lié : recruter des filles et des femmes dans les programmes de formation et les carrières STE (12). Une autre stratégie liée à mais distincte de la transmission de la chaleur consiste pour les scientifiques à communiquer qu'ils poursuivent des objectifs prosociaux dans leur travail. Lorsque les gens perçoivent les scientifiques comme prosociaux, ils font davantage confiance à la science (110).
Les scientifiques utilisent aussi souvent un langage excessivement complexe pour communiquer la science au grand public (111). Pour atténuer la perception négative des mots chargés de jargon qui cachent le sens de la science aux profanes, les scientifiques doivent utiliser un langage qui transmet leur message de manière claire et précise tout en restant accessible à un public général. Une suggestion spécifique dans cette veine, que la plupart des revues n'ont pas encore adoptée, consiste à ce que les articles publiés incluent des « résumés profanes » avec les résumés contenant davantage de jargon, afin que les profanes intéressés puissent mieux glaner les informations dans des termes qu'ils peuvent comprendre (112).
Pour réduire les biais perçus, les scientifiques doivent tenter de communiquer de manière équilibrée dans la mesure du possible.
Lorsque les communicateurs offrent une perspective nuancée et multiforme, surtout s'ils changent de position face à de nouvelles preuves, ils sont perçus comme moins biaisés et moins persuasifs (113). Lorsqu'un communicateur exprime une ouverture à des points de vue alternatifs, en particulier lorsqu'il a un statut élevé, cela peut augmenter l'ouverture chez les destinataires engagés (114).
Par exemple, ceux qui considéraient la question du port de masques pendant la pandémie de COVID-19 comme une atteinte morale à leurs droits étaient plus ouverts au port de masques lorsqu'un communicateur reconnaissait le point de vue du destinataire mais expliquait pourquoi la position de pro-masque était préférable (115). Il est important de noter que nous ne suggérons pas que les communicateurs adoptent une position de fausse neutralité ou de « bilatéralisme ». Au lieu de cela, nous suggérerons qu'ils reconnaissent honnêtement tous les inconvénients de leur position tout en expliquant finalement en termes clairs et convaincants pourquoi leur position est toujours la plus soutenue ou la plus justifiable.
Base de ciblage 2 : Diminution de l'identification des destinataires aux groupes antiscientifiques.
Pour réduire l'importance ou la force de l'identification des destinataires avec des groupes qui embrassent des opinions anti-scientifiques, les communicateurs scientifiques devraient invoquer des identités sociales partagées significatives et importantes entre eux-mêmes et les destinataires des messages scientifiques (116).
Pour les groupes en conflit, trouver une identité commune ou supérieure aide souvent les deux groupes à minimiser leur conflit et à approcher l'harmonie intergroupe (117). Si ceux qui considèrent les scientifiques comme des membres de l'exogroupe peuvent se voir partager une identité commune avec les scientifiques, le sentiment antiscience et la dérogation des scientifiques peuvent être réduits.
Par exemple, lorsque les scientifiques proposent leurs suggestions de politique de l'eau recyclée à un public hostile,trouver un terrain d'entente via une identité superordonnée augmente avec succès la réceptivité du public (118). Une façon légitime de revendiquer une identité partagée entre les scientifiques et les membres de la communauté antiscientifique consiste à réunir différentes parties prenantes pour former un groupe (par exemple, un comité) qui travaille vers des objectifs communs, tout en préservant les sous-groupes d'origine au sein de l'identité supérieure (98).
Les communicateurs scientifiques devraient également chercher à gagner la confiance des groupes qui ont été historiquement exploités ou exclus par la communauté scientifique (119, 120). Cela peut être fait en s'engageant directement avec les groupes cibles dans le processus de réalisation de la recherche (121). Par exemple, plutôt que de traiter les groupes racialisés ou historiquement sous-représentés comme objets d'étude, les scientifiques peuvent collaborer avec les membres de ces communautés et développer des compétences culturelles (122). L'exigence des agences de financement scientifique d'une participation autochtone active à toute recherche susceptible d'avoir un impact sur les communautés autochtones ou de les impliquer (123) offre une autre étape vers la réconciliation. Les programmes qui forment des individus marginalisés à devenir des scientifiques travaillant au sein de leurs propres communautés aident également à gagner la confiance des communautés racialisées, comme lorsqu'un programme qui forme des chercheurs indigènes sur le génome augmente la confiance dans la science (124). Cependant, la plupart de ces efforts n'en sont encore qu'à leurs balbutiements et, contrairement aux autres stratégies contre-actives décrites dans notre article, leur efficacité n'a pas encore été rigoureusement évaluée. Nous encourageons une évaluation quantitative appropriée de l'efficacité de ces efforts. Si cela est utile, ils peuvent être étendus pour aider à reconstruire ou à renforcer les relations entre les scientifiques et les communautés de plongeurs.
Base de ciblage 3 : Accroître l'acceptation de l'information scientifique même lorsqu'elle contredit ses croyances et ses attitudes.
Pour lutter contre le rejet d'informations scientifiques qui contredisent les croyances d'un public, il vaut mieux prévenir que guérir : dans la mesure du possible, minimisez en premier lieu la formation de croyances mal informées. Une stratégie préventive consiste à former les gens au raisonnement scientifique (c'est-à-dire la capacité d'évaluer la qualité de l'information scientifique). Les personnes dotées de capacités de raisonnement scientifique sont plus susceptibles d'accepter des preuves scientifiques de haute qualité (84). Cette stratégie est particulièrement adaptée pour lutter contre la montée des fausses nouvelles [qui est un autre problème majeur qui nécessite des changements sociétaux dans l'infrastructure numérique (125)]. Armer les consommateurs de médias des compétences nécessaires pour différencier les informations scientifiques vraies des fausses les conduit à devenir plus exigeants quant aux croyances à adopter (125). De manière critique, cette stratégie consiste à transmettre les informations scientifiques correctes avant l'adoption de toute désinformation.
Une mise en garde supplémentaire est que, bien qu'encourager le raisonnement critique diminue la croyance en la désinformation scientifique, dire simplement aux gens qu'ils devraient faire confiance à la science peut en fait augmenter la croyance et la diffusion de la désinformation présentée comme étant scientifique (par rapport à la désinformation non présentée comme étant scientifique) (126).
Liée à la notion plus large de formation au raisonnement scientifique, une stratégie spécifique est appelée prébunking. Dérivé de la logique de l'inoculation de la maladie (127), il s'agit d'avertir les gens qu'ils recevront de la désinformation, puis de leur donner une petite dose de désinformation (le « vaccin » et de la réfuter afin qu'ils soient mieux à même de résister à la désinformation lorsqu'ils la rencontreront dans la nature (la « maladie »). Les données d'une expérience sur le terrain auprès d'adultes âgés ont montré que cette stratégie était efficace pour minimiser l'impact de la désinformation sur l'intention des gens de recevoir un vaccin COVID-19 (128).
Une autre stratégie préventive, qui semble intuitive mais s'avère inefficace pour améliorer l'acceptation de l'information scientifique, consiste à accroître la culture scientifique générale d'une population. Contrairement aux connaissances scientifiques spécialisées, la culture scientifique générale n'implique pas une analyse approfondie de la raison pour laquelle un phénomène scientifique se produit (89). Contrairement aux compétences de raisonnement scientifique, la culture scientifique générale n'enseigne pas aux gens à quel point l'information scientifique est fragmentaire (84). Au lieu de cela, cela implique simplement de transmettre une liste non élaborée d'informations scientifiques (89).
Pourquoi cela est-il inefficace pour améliorer l'acceptation de l'information scientifique ? Parce que les personnes ayant une plus grande culture scientifique sont simplement plus sophistiquées pour renforcer leur croyance existante en sélectionnant des idées et des informations pour défendre leur vision du monde (84). Des niveaux plus élevés de culture scientifique, qui poussent plutôt les gens à s'unir autour de vérités scientifiques, peuvent accroître la polarisation des croyances (84). De même, une plus grande sophistication cognitive (par exemple, une pensée analytique plus forte) ne réduit pas nécessairement les opinions anti-scientifiques, car les personnes les plus cognitives/sophistiquées et éduquées peuvent également être les plus polarisées (129), bien que les preuves et l'interprétation de ce modèle aient fait l'objet de débats (130) .
Lorsque les stratégies préventives sont invraisemblables, les curatifs sont nécessaires. Le simple fait d'apprendre des informations n'est souvent pas corrélé au changement d'attitude (48, 131). Ce qui importe plus que de savoir si les gens apprennent ou se souviennent de l'information qu'on leur a donnée, c'est comment ils réagissent à cette information. Si les gens ont des réactions positives à un message, ils sont plus susceptibles de changer leurs attitudes pour être en accord avec ce message (132). Par implication, le simple fait d'informer le public d'informations scientifiques est insuffisant ; il faut aussi les persuader. Des arguments solides, bien raisonnés et bien étayés, mis en œuvre par des communicateurs scientifiques compétents, se sont avérés efficaces pour modifier des attitudes même enracinées, telles que le changement climatique (133) et la sécurité des dossiers de santé électroniques (134).
Mais, pour les particulièrement intransigeants, des stratégies supplémentaires doivent être utilisées pour compléter les arguments persuasifs. Noté plus haut, un mécanisme fondamental qui amène les gens à rejeter l'information scientifique contraire à leur croyance est la dissonance cognitive. Cet état aversif a été réduit par une procédure appelée affirmation de soi, qui consiste à inciter les gens à évoquer et à affirmer une valeur qui leur importe (par exemple, prendre soin de sa famille) d'une manière sans rapport avec le conflit cognitif en cours (135). Pourquoi l'affirmation de soi réduit-elle la dissonance ? Parce que cela augmente le sentiment d'intégrité et de sécurité de soi, ce qui réduit l'effet menaçant de la dissonance sur soi. Les interventions d'affirmation de soi ont été utilisées avec succès pour réduire la défensive et accroître l'acceptation des informations scientifiques concernant les comportements de santé (136) et le changement climatique (137).
Parfois, les messages scientifiques entrent non seulement en conflit avec les croyances et les attitudes des personnes, mais aussi avec leurs préoccupations morales particulières. Pour gérer cela, une stratégie efficace consiste à identifier la morale spécifique que le destinataire approuve et à recadrer le message scientifique pour s'y conformer. Les conservateurs, qui approuvent le fondement moral de la loyauté de l’endogroupe, sont plus convaincus par les messages sur le changement climatique présentés comme une question de loyauté envers son pays. Les libéraux, qui approuvent le fondement moral de la sollicitude intentionnelle, sont plus convaincus par les messages sur le changement climatique présentés comme une question de soin pour une créature innocente(138). Le recadrage moral s'est également avéré efficace pour minimiser l'opposition morale aux vaccins et à la technologie des cellules souches (138). De même, pour les destinataires qui pensent à la santé publique en termes plus (vs. moins) moraux, les messages qui utilisent des arguments moraux tels que s'engager dans la distanciation physique pendant la pandémie de COVID-19 pour les bienfaiteurs (vs. soi-même) sont plus persuasifs (139).
Pour accroître l'acceptation des preuves scientifiques par ceux qui ont de fortes intuitions morales sur la naturalité et la pureté, les communicateurs scientifiques peuvent spécifiquement recadrer les innovations scientifiques comme confluentes avec la nature. Par exemple, il a été constaté que l'augmentation du caractère naturel perçu de la géo-ingénierie augmente son acceptation par les gens en tant que stratégie de lutte contre le changement climatique (140). Dans l'ensemble, ces résultats suggèrent que les communicateurs scientifiques peuvent créer plusieurs cadres moraux lorsqu'ils communiquent leurs informations scientifiques à des publics distincts (par exemple, libéraux contre conservateurs, religieux contre non religieux) qui sont susceptibles d'avoir des intuitions ou des points de vue moraux différents.
Base de ciblage 4 : faire correspondre la livraison du message scientifique avec le style épistémique du destinataire.
Les gens ont tendance à rejeter les informations scientifiques lorsqu'elles sont fournies d'une manière qui ne correspond pas à leurs styles épistémiques. Ce principe de base a des implications théoriquement simples sur les stratégies de contre-réaction à utiliser : identifiez le style du destinataire et faites-le correspondre. Pour mettre en œuvre une stratégie d'appariement, les données démographiques régionales (par exemple, sur les tendances politiques) ont aidé à développer des communications psychographiquement ciblées au niveau agrégé. Étant donné les grandes quantités de données détaillées et spécifiques aux personnes que diverses entreprises technologiques collectent sur l'activité en ligne des personnes (si elles ne se sont pas désengagées), le ciblage peut même être effectué au niveau individuel, ce qui s'est avéré efficace pour le changement de comportement (141). Les chercheurs en consommation segmentent et ciblent depuis longtemps les consommateurs sur la base de données psychographiques et comportementales riches. D'autres groupes d'intérêt public pourraient adopter des stratégies similaires et utiliser la logique de la publicité ciblée pour positionner plus précisément leurs communications scientifiques en fonction de publics différents. L'essence de cette stratégie est d'élaborer différents messages ou différentes approches de livraison pour différents publics. Pour les destinataires qui pensent de manière abstraite (vs. concrètement), un message scientifique délivré de manière abstraite (vs. concrète) augmente leur acceptation de l'information scientifique comme vraie (142).
Pour les bénéficiaires qui sont axés sur la promotion (vs. axés sur la prévention), les messages sur les comportements de santé encadrés par des gains approchants (vs. évitant des pertes) sont mieux acceptés(76), et ainsi de suite, comme expliqué précédemment.
Remarques finales
En offrant un cadre inclusif des principes clés qui sous-tendent les attitudes antiscience, nous visons à faire avancer la théorie et la recherche sur plusieurs fronts : Notre cadre met en évidence les principes de base applicables aux phénomènes antiscience dans de multiples domaines de la science. Il prédit des variables situationnelles et personnelles (par exemple, la moralisation, la force de l'attitude et le besoin de fermeture) qui amplifient la probabilité et l'intensité des gens d'être antiscience. Il explique pourquoi la politique est une force si puissante avec de multiples aspects d'influence sur les attitudes antiscientifiques. Et cela suggère une gamme de stratégies contre-actives qui ciblent chacune des quatre bases. Au-delà de l'explication, de la prédiction et de la prise en compte des points de vue antiscientifiques, notre cadre soulève des questions non résolues pour la recherche future (annexe SI).
Avec la prévalence des attitudes anti-scientifiques, les scientifiques et les communicateurs scientifiques sont confrontés à de forts vents contraires pour gagner et maintenir la confiance du public et pour transmettre l'information scientifique d'une manière qui sera acceptée et intégrée dans la compréhension du public. C'est un problème à multiples facettes qui va des érosions de la crédibilité des scientifiques aux conflits avec les identités, les croyances, les attitudes, les valeurs, la morale et les styles épistémiques de différentes parties de la population, exacerbés par l'écosystème toxique de la politique de notre époque. Les informations scientifiques peuvent être difficiles à avaler, et de nombreuses personnes préféreraient rejeter les preuves plutôt que d'accepter des informations suggérant qu'elles se sont peut-être trompées. Cette inclination est tout à fait compréhensible, et les scientifiques devraient être prêts à faire preuve d'empathie. Après tout, nous cherchons à prouver que nous avons tort, mais cela ne doit pas nous empêcher d'aider les gens à bien faire les choses.
Disponibilité des données.
Il n'y a pas de données sous-jacentes à ce travail.
REMERCIEMENTS.
Nous remercions Rebecca Walker Reczek, Laura Wallace, Tim Broom, Javier Granados Samoyoa, le Attitudes and Persuasion Lab et le Mind and Body Lab pour leurs commentaires.
Références
1. J. W. V. Thangaraj et al., Prédominance de la variante delta parmi les individus vaccinés et non vaccinés contre le COVID-19, Inde, mai 2021. J. Infect. 84, 94-118 (2022).
2. Organisation mondiale de la santé, Changement climatique et santé. (Fiche d'information, Organisation mondiale de la santé, 2021). https://www.who.int/news-room/fact-sheets/detail/climate-change-and-health/. Consulté le 6 juillet 2022.
3. A. Tyson, C. Funk, B. Kennedy, C. Johnson, majoritaires aux États-Unis, affirment que les avantages pour la santé publique des restrictions liées au COVID-19 en valent le coût, même si de grandes parts voient également des inconvénients. Centre de recherche Pew, (2021). https://
www.pewresearch.org/science/2021/09/15/majority-in-u-s-says-publich-health-benefits-of-covid-19-restrictions-worth-the-costs-even-as-large-shares- aussi-voir-les-inconvénients/. Consulté le 30 mars 2022.
4. B. Kennedy, l'inquiétude des États-Unis concernant le changement climatique augmente, mais principalement parmi les démocrates. Centre de recherche Pew, (2020). https://www.pewresearch.org/fact-tank/2020/04/16/u-s-concern-about-climate-change-isising-but-mainly-among-democrats/. Consulté le 28 février 2021.
5. B. T. Rutjens et al., Scepticisme scientifique dans 24 pays. Soc. Psychol. Personnel. Sci. 13, 102-117 (2022)
6. M. J. Hornsey, Pourquoi les faits ne suffisent pas : Comprendre et gérer le rejet motivé de la science. Courant. Réal. Psychol. Sci. 29, 583–591 (2020).
7. B. T. Rutjens, S. J. Heine, R. M. Sutton, F. van Harreveld, « Attitudes envers la science » dans Advances in Experimental Social Psychology, J. M. Olson, Ed. (Académique, 2018), p. 125-165.
8. M. J. Hornsey, K. S. Fielding, Attitude roots and Jiu Jitsu persuasion: Comprendre et surmonter le rejet motivé de la science. Un m. Psychol. 72, 459–473 (2017).
9. W. J. McGuire, « La nature des attitudes et du changement d'attitude » dans The Handbook of Social Psychology, G. Lindzey, E. Aronson, Eds. (Addison-Wesley, éd. 2, 1969), p. 136–314.
10. C. Funk, M. Hefferon, B. Kennedy, C. Johnson, Confiance et méfiance envers les opinions des Américains sur les experts scientifiques. Centre de recherche Pew, (2019). https://pewresearch.org/science/2019/08/02/trust-and-mistrust-in americans-views-of-scientific-experts/. Consulté le 17 mars 2022.
11. L. E. Wallace, D. T. Wegener, R. E. Petty, Lorsque les sources fournissent honnêtement leur opinion biaisée : Le biais en tant que perception de source distincte avec des effets indépendants sur la crédibilité et la persuasion. Pers. Soc. Psychol. Taureau.
46, 439–453 (2020).
12. A. B. Diekman, E. K. Clark, A. M. Johnston, E. R. Brown, M. Steinberg, La malléabilité dans les objectifs et les croyances communautaires influence l'attrait pour les carrières souches : Preuve d'une perspective de congruence d'objectifs. J. Pers. Soc.
Psychol. 101, 902–918 (2011).
13. T. M. Errington et al., Enquête sur la réplicabilité de la biologie préclinique du cancer. eLife 10, e71601 (2021).
14. B. A. Nosek et al., Réplicabilité, robustesse et reproductibilité en sciences psychologiques. Annu. Rév. Psychol. 73, 719–748 (2022).
15. E. Yong, La crise de réplication de la psychologie est à court d'excuses. The Atlantic, 19 novembre 2018. https://www.theatlantic.com/science/archive/2018/11/psychologys-replication-crisis-real/576223/. Accédé 5
avril 2022.
16. M. Heid, Opinion j Pourquoi les experts ne semblent pas s'entendre sur les boosters. N.Y. Times, 13 avril (2022). https://www.nytimes.com/2022/04/13/opinion/covid-booster-shot.html. Consulté le 20 avril 2022.
17. D. Flemming, I. Feinkohl, U. Cress, J. Kimmerle, L'incertitude individuelle et l'incertitude de la science : l'impact du conflit perçu et de l'auto-efficacité générale sur la perception de l'hésitation et de la crédibilité
d'informations scientifiques. De face. Psychol. 6, 1859 (2015).
18. J. Kennedy, Politique populiste et hésitation à la vaccination en Europe occidentale : Une analyse des données au niveau national. EUR. J. Public Health 29, 512–516 (2019).
19. C. Lee, K. Whetten, S. Omer, W. Pan, D. Salmon, Obstacles à l'immunité collective : méfiance à l'égard du gouvernement et refus des vaccins aux États-Unis, 2002-2003. Vaccin 34, 3972–3978 (2016).
20. E. Pechar, T. Bernauer, F. Mayer, Au-delà de l'idéologie politique : L'impact des attitudes envers le gouvernement et les entreprises sur la confiance dans la science. Sci. Commun. 40, 291–313 (2018).
21. S. T. Fiske, C. Dupree, Gagner la confiance ainsi que le respect en communiquant avec des publics motivés sur des sujets scientifiques. Proc. Natl. Acad. Sci. États-Unis 111, 13593–13597 (2014).
22. M.E. Barnes, J.M. Truong, D.Z. Grunspan, S.E. Brownell, Les scientifiques sont-ils biaisés contre les chrétiens ? Explorer les préjugés réels et perçus contre les chrétiens dans la biologie universitaire. PLoS One 15, e0226826 (2020).
23. J. L. Duarte et al., La diversité politique améliorera la science psychologique sociale. Comportement Cerveau Sci. 38, e130 (2015).
24. A. Simpson, K. Rios, La science est-elle pour les athées ? La menace perçue pour l'autorité culturelle religieuse explique la méfiance des chrétiens américains envers la science sécularisée. Compréhension publique. Sci. 28, 740–758 (2019).
25. S. Hilton, M. Petticrew, K. Hunt, Parents' champions vs. Une étude qualitative. BMC Public Health 7, 42 (2007).
26. D. Funke, Fact-check : Anthony Fauci a-t-il investi des millions dans un vaccin contre le coronavirus ? Homme d'État américain d'Austin, (2020). https://www.statesman.com/story/news/politics/elections/2020/04/16/fact-check does-anthony-fauci-have-millions-invested-in-coronavirus-vaccine/984125007/. Consulté le 28 février 2021.
27. I. M. Handley, E. R. Brown, C. A. Moss-Racusin, J. L. Smith, La qualité des preuves révélant de subtils préjugés sexistes dans la science est dans l'œil du spectateur. Proc. Natl. Acad. Sci. États-Unis 112, 13201–13206 (2015).
28. W. Hart, K. Richardson, G. K. Tortoriello, A. Earl, « Vous êtes ce que vous lisez : » L'exposition sélective est-elle une façon pour les gens de nous dire qui ils sont ? Br. J. Psychol. 111, 417–442 (2020).
29. M. A. Hogg, K. D. Williams, De moi à nous : identité sociale et soi collectif. Groupe Dyn. Théorie Rés. Pratique. 4, 81–97 (2000).
30. S. Knobloch-Westerwick, M. R. Hastall, Faites-vous plaisir : effets de l'identité sociale sur l'exposition sélective aux informations sur les groupes internes et externes. J. Commun. 60, 515–535 (2010)
31. H. A. Washington, Medical Apartheid : The Dark History of Medical Experimentation on Black Americans from Colonial Times to the Present (Doubleday, 2006).
32. R. C. Warren, L. Forrow, D. A. Hodge Sr., R. D. Truog, La fiabilité avant la confiance—Les essais de vaccins Covid-19 et la communauté noire. N. Engl. J. Med. 383, e121 (2020).
33. P. Nauroth, M. Gollwitzer, J. Bender, T. Rothmund, Gamers contre la science : Le cas du débat violent sur les jeux vidéo. EUR. J. Soc. Psychol. 44, 104-116 (2014).
34. D. M. Kahan, H. Jenkins-Smith, D. Braman, Connaissance culturelle du consensus scientifique. J. Risk Res. 14, 147–174 (2011).
35. D. M. Kahan, D. Braman, P. Slovic, J. Gastil, G. Cohen, Connaissance culturelle des risques et des avantages des nanotechnologies. Nat. Nanotechnologie. 4, 87–90 (2009).
36. D. M. Kahan, Idées fausses, désinformation et logique de la cognition protectrice de l'identité. SSRN [préimpression] (2017). https://doi.org/10.2139/ssrn.2973067. Consulté le 17 mars 2022.
37. D. M. Kahan, D. Braman, J. Gastil, P. Slovic, C. K. Mertz, Culture et cognition protectrice de l'identité : Expliquer l'effet mâle blanc dans la perception du risque. J. Empir. Jambe. Étalon. 4, 465–505 (2007).
38. A. Fasce, J. Adri an-Ventura, S. Lewandowsky, S. van der Linden, Science through a tribal lens : A group-based account of polarization over scientific facts. Processus de groupe. Intergroupe Relat.,
10.1177/13684302211050323 (2021).
39. B. T. Rutjens, S. van der Linden, R. van der Lee, N. Zarzeczna, Une approche de processus de groupe aux croyances antiscientifiques et à l'approbation des « faits alternatifs ». Processus de groupe. Intergroupe Relat. 24, 513–517 (2021).
40. P. A. Offit, C. A. Moser, Le problème avec le calendrier vaccinal alternatif du Dr Bob. Pédiatrie 123, e164–e169 (2009).
41. I. McGregor, R. Haji, S.-J. Kang, L'affirmation de l'endogroupe peut-elle soulager la dérogation de l'exogroupe ? J. Exp. Soc. Psychol. 44, 1395–1401 (2008).
42. A.-M. Bliuc et al., Division publique sur le changement climatique enracinée dans des identités sociopolitiques conflictuelles. Nat. Clim. Chang. 5, 226-229 (2015).
43. N. R. Branscombe, D. L. Wann, Conséquences collectives sur l'estime de soi de la dérogation à l'exogroupe lorsqu'une identité sociale valorisée est à l'essai. EUR. J. Soc. Psychol. 24, 641–657 (1994).
44. M. J. Hornsey, A. Imani, Critiquer les groupes de l'intérieur et de l'extérieur : Une perspective identitaire sur l'effet de sensibilité intergroupe. Pers. Soc. Psychol. Taureau. 30, 365–383 (2004).
45. B. Nogrady, « J'espère que vous mourrez » : comment la pandémie de COVID a déclenché des attaques contre les scientifiques. Nature 598, 250-253 (2021).
46. K.M. Douglas, Théories du complot COVID-19. Processus de groupe. Intergroupe Relat. 24, 270-275 (2021).
47. P. G. Auwaerter et al., Antiscience et préoccupations éthiques associées à la défense de la maladie de Lyme. Infect de lancette. Dis. 11, 713–719 (2011).
48. M. Motta, T. Callaghan, S. Sylvester, K. Lunz-Trujillo, Identifier la prévalence, les corrélats et les conséquences politiques de l'identité sociale anti-vaccin. Politique. Identités de groupes,
10.1080/21565503.2021.1932528 (2021).
49. P. Sturgis, N. Allum, La science dans la société : réévaluer le modèle déficitaire des attitudes du public. Compréhension publique. Sci. 13, 55–74 (2004).
50. S. van der Linden, The Gateway Belief Model (GBM): Un programme d'examen et de recherche pour communiquer le consensus scientifique sur le changement climatique. Courant. Avis. Psychol. 42, 7-12 (2021).
51. L. Festinger, Une théorie de la dissonance cognitive (Stanford University Press, 1957).
52. J. Cooper, Cognitive Dissonance: Cinquante ans d'une théorie classique (SAGE, 2007).
53. J. Hannam, Les philosophes de Dieu : Comment le monde médiéval a jeté les bases de la science moderne (Icon, 2009).
54. T. Lee, La montée mondiale des « fausses nouvelles » et la menace pour les élections démocratiques aux États-Unis. Public Adm. Policy 22, 15–24 (2019).
55. S. Vosoughi, D. Roy, S. Aral, La propagation des vraies et fausses nouvelles en ligne. Sciences 359, 1146-1151 (2018).
56. G. Pennycook, D. G. Rand, La psychologie des fausses nouvelles. Tendances Conn. Sci. 25, 388–402 (2021).
57. R. Greifeneder, M. E. Jaff e, E. J. Newman, N. Schwarz, La psychologie des fausses nouvelles : accepter, partager et corriger la désinformation (Routledge, 2021).
58. D. A. Scheufele, N. M. Krause, Audiences scientifiques, désinformation et fausses nouvelles. Proc. Natl. Acad. Sci. États-Unis 116, 7662–7669 (2019).
59. U. K. Ecker, S. Lewandowsky, O. Fenton, K. Martin, Les gens continuent-ils à croire parce qu'ils le veulent ? Attitudes préexistantes et influence continue de la désinformation. Mém. Connaître. 42, 292–304 (2014).
60. M. W. Susmann, D. T. Wegener, Le rôle de l'inconfort dans l'effet d'influence continu de la désinformation. Mém. Connaître. 50, 435–448 (2022).
61. P. R. Thagard, « Pourquoi l'astrologie est une pseudoscience » dans PSA : Actes de la réunion biennale de l'Association de philosophie des sciences, D. Hull, M. Forbes et R. M. Burian, Eds. (Association de philosophie des sciences, 1978), vol. 1978, 223-234.
62. S. H. Schwartz, « Les universels dans le contenu et la structure des valeurs : avancées théoriques et tests empiriques dans 20 pays », dans Advances in Experimental Social Psychology, M. P. Zanna, éd.
(Academic, 1992), p. 1–65.
63. L. J. Skitka, B. E. Hanson, G. S. Morgan, D. C. Wisneski, La psychologie de la conviction morale. Annu. Rév. Psychol. 72, 347–366 (2021).
64. M. d. Dibonaventura, G. B. Chapman, Les biais de décision prédisent-ils les mauvaises décisions ? Biais d'omission, biais de naturalité et vaccination antigrippale. Méd. Décis. Fabrication 28, 532–539 (2008).
65. S. E. Scott, Y. Inbar, P. Rozin, Preuve d'une opposition morale absolue aux aliments génétiquement modifiés aux États-Unis. Perspective. Psychol. Sci. 11, 315–324 (2016).
66. A. Waytz, L. Young, Aversion pour jouer à Dieu et condamnation morale de la technologie et de la science. Philos. Trans. R. Soc. Londres. B Biol. Sci. 374, 20180041 (2019).
67. R. E. Petty, J. A. Krosnick, Eds., Attitude Strength : Antécédents et conséquences (Lawrence Erlbaum Associates, 1995).
68. A. Luttrell, V. Sawicki, Force d'attitude : prédicteurs distinctifs par rapport aux caractéristiques déterminantes. Soc. Personnel. Psychol. Boussole 14, e12555 (2020).
69. A. Luttrell, R.E. Petty, P. Brinol, B.C. Wagner, Making it moral : Le simple fait de qualifier une attitude de morale augmente sa force. J. Exp. Soc. Psychol. 65, 82–93 (2016).
70. S. Lewandowsky, U.K.H. Ecker, C.M. Seifert, N. Schwarz, J. Cook, Misinformation and its correction: Continued influence and success debiasing. Psychol. Sci. Intérêt public 13, 106–131 (2012).
71. J. D. Teeny, J. J. Siev, P. Br~nol, R. E. Petty, Une revue et un cadre conceptuel pour comprendre les effets d'appariement personnalisés dans la persuasion. J. Consum. Psychol. 31, 382–414 (2021).
72. R. W. Reczek, R. Trudel, K. White, Focusing on the forest or the trees : How abstract versus concrete construal level predicts reactions to eco-friendly products. J. Environ. Psychol. 57, 87–98 (2018).
73. Y. Trope, N. Liberman, Théorie au niveau conceptuel de la distance psychologique. Psychol. Rév. 117, 440–463 (2010).
74. K. Goldsmith, G. E. Newman, R. Dhar, La représentation mentale modifie l'évaluation des avantages des produits verts. Nat. Clim. Chang. 6, 847–850 (2016).
75. J. Cesario, H. Grant, E. T. Higgins, Regulatory fit and persuasion: Transfer from "feeling right". J. Pers. Soc. Psychol. 86, 388–404 (2004).
76. M. Bertolotti, P. Catellani, Effets du cadrage des messages dans la communication politique sur le changement climatique : Cadrage dans la communication sur le changement climatique. EUR. J. Soc. Psychol. 44, 474–486 (2014).
77. R. Ludolph, P. J. Schulz, L'adéquation réglementaire conduit-elle à une communication sanitaire plus efficace ? Une revue systématique. Soc. Sci. Méd. 128, 142-150 (2015).
78. D. M. Webster, A. W. Kruglanski, Différences individuelles dans le besoin de fermeture cognitive. J. Pers. Soc. Psychol. 67, 1049-1062 (1994).
79. X. Nan, K. Daily, Assimilation biaisée et nécessité de fermeture : examen des effets des blogs mixtes sur les croyances liées aux vaccins. J. Santé Commun. 20, 462–471 (2015).
80. J. T. Cacioppo, R. E. Petty, K. J. Morris, Effets du besoin de cognition sur l'évaluation, le rappel et la persuasion des messages. J. Pers. Soc. Psychol. 45, 805–818 (1983).
81. R. E. Petty, J. T. Cacioppo, « Le modèle de probabilité d'élaboration de la persuasion » dans Advances in Experimental Social Psychology, M. P. Zanna, Ed. (Academic, 1996), p. 123–205.
82. A. Bhattacherjee, C. Sanford, Processus d'influence pour l'acceptation des technologies de l'information : Un modèle de vraisemblance d'élaboration. Faire en sorte. Inf. Syst. Q. 30, 805–825 (2006).
PNAS 2022 Vol. 119 n° 30 e2120755119 https://doi.org/10.1073/pnas.2120755119 9 sur 10
Téléchargé depuis https://www.pnas.org par le Centre de Doc Faculté de Médecine le 22 juillet 2022 depuis l'adresse IP 130.223.49.55.
83. S. Winter, N. C. Kr€amer, Selecting science information in Web 2.0: How source cues, message sidedness, and need for cognition influencer users’ exhibition to blog posts. J. Comput. Médiat. Commun. 18, 80–96 (2012).
84. J. Kudrna, M. Shore, D. Wassenberg, Considérant le rôle du « besoin de cognition » dans l'acceptation par les élèves du changement climatique et de l'évolution. Un m. Biol. Apprendre. 77, 250-257 (2015).
85. C. Drummond, B. Fischhoff, Les personnes ayant une plus grande culture et éducation scientifiques ont des croyances plus polarisées sur des sujets scientifiques controversés. Proc. Natl. Acad. Sci. États-Unis 114, 9587–9592 (2017).
86. S. Lewandowsky, J. K. Woike, K. Oberauer, Genèse ou évolution des différences de genre ? Dilemmes basés sur la vision du monde dans le traitement de l'information scientifique. J. Cogni. 3, 9 (2020).
87. D. B. Kirby, L'impact de l'abstinence et des programmes complets d'éducation sexuelle et MST/VIH sur le comportement sexuel des adolescents. Sexe. Rés. Soc. Politique 5, 18–27 (2008).
88. L. C. Hamilton, J. Hartter, M. Lemcke-Stampone, D. W. Moore, T. G. Safford, Suivi des croyances publiques sur le changement climatique anthropique. PLoS One 10, e0138208 (2015).
89. S. Baker, sondage Axios-Ipsos : Plus d'Américains veulent le vaccin. Axios, 12 janvier (2021). https://www.axios.com/2021/01/12/axios-ipsos-coronavirus-index-americans-want-vaccine. Consulté le 28 février 2021.
90. S. Lewandowsky, K. Oberauer, Rejet motivé de la science. Courant. Réal. Psychol. Sci. 25, 217-222 (2016).
91. K. D. Landreville, C. Niles, « Et c'est un fait ! » : Les rôles de l'idéologie politique, des RPS et de la crédibilité perçue de la source dans l'estimation du contenu factuel des informations partisanes. J. Diffusion. Électron. Médias 63,
177-194 (2019).
92. A. M. McCright, K. Dentzman, M. Charters, T. Dietz, L'influence de l'idéologie politique sur la confiance dans la science. Environ. Rés. Lett. 8, 044029 (2013).
93. E. C. Nisbet, K. E. Cooper, R. K. Garrett, Le cerveau partisan : comment des messages scientifiques dissonants conduisent les conservateurs et les libéraux à (dé)faire confiance à la science. Anne. Un m. Acad. Pol. Soc. Sci. 658, 36–66 (2015).
94. N. J. Stroud, Polarisation et exposition sélective partisane. J. Commun. 60, 556–576 (2010).
95. C. S. Traberg, S. van der Linden, Birds of a feather sont persuadés ensemble : La crédibilité perçue de la source médiatise l'effet des préjugés politiques sur la sensibilité à la désinformation. Pers. Individ. Diff. 185, 111269 (2022).
96. K. S. Fielding, M. J. Hornsey, H. A. Thai, L. L. Toh, Utiliser les messagers de l'ingroup et les valeurs de l'ingroup pour promouvoir la politique sur le changement climatique. Clim. Modifier 158, 181–199 (2020).
97. E. Bakshy, S. Messing, L. A. Adamic, Science politique. Exposition à des nouvelles et opinions idéologiquement diverses sur Facebook. Sciences 348, 1130-1132 (2015).
98. E. A. West, S. Iyengar, Partisanship as a social identity: Implications for polarization. Politique. Comportement 44, 807–838 (2020).
99. K. S. Fielding, M. J. Hornsey, Une analyse d'identité sociale du changement climatique et des attitudes et comportements environnementaux : perspectives et opportunités. De face. Psychol. 7, 121 (2016).
100. M. R. Hoffarth, G. Hodson, Vert à l'extérieur, rouge à l'intérieur : La menace écologiste perçue comme un facteur expliquant la polarisation politique du changement climatique. J. Environ. Psychol. 45, 40–49 (2016).
101. E. J. Finkel et al., Le sectarisme politique en Amérique. Sciences 370, 533-536 (2020).
102. M. Del Vicario et al., La propagation de la désinformation en ligne. Proc. Natl. Acad. Sci. États-Unis 113, 554–559 (2016).
103. T. E. Nelson, J. Garst, Messages politiques et persuasion basés sur les valeurs : relations entre l'orateur, le destinataire et les valeurs évoquées. Politique. Psychol. 26, 489-516 (2005).
104. A. N. Washburn, L. J. Skitka, Le déni de la science à travers le clivage politique : les libéraux et les conservateurs sont pareillement motivés à nier une science incohérente. Soc. Psychol. Personnel. Sci. 9, 972–980 (2018).
105. K. Toner, M. R. Leary, M. W. Asher, K. P. Jongman-Sereno, Se sentir supérieur est une question bipartite : l'extrémité (et non la direction) des opinions politiques prédit la supériorité perçue des croyances. Psychol. Sci. 24, 2454–2462 (2013).
106. R. Janoff-Bulman, Fournir ou protéger : Bases motivationnelles du libéralisme et du conservatisme politiques. Psychol. Inq. 20, 120-128 (2009).
107. A. Chirumbolo, La relation entre besoin de clôture cognitive et orientation politique : le rôle médiateur de l'autoritarisme. Pers. Individ. Diff. 32, 603–610 (2002).
108. K.M. Douglas, R.M. Sutton, A. Cichocka, La psychologie des théories du complot. Courant. Réal. Psychol. Sci. 26, 538–542 (2017).
109. L. R. Fabrigar, D. T. Wegener, R. E. Petty, Un cadre basé sur la validité pour comprendre la réplication en psychologie. Pers. Soc. Psychol. Rev.24, 316–344 (2020).
110. T. M. Benson-Greenwald, A. Trujillo, A. D. White, A. B. Diekman, La science pour les autres ou pour soi ? Les motifs présumés de la science façonnent la confiance du public dans la science. Pers. Soc. Psychol. Bull., 10.1177/01461672211064456 (2021).
111. C. Blue, La précision est l'ennemie de la compréhension publique. APS Obs. 34, 73 (2021).
112. L. M. Kuehne, J. D. Olden, Opinion : Les résumés profanes sont nécessaires pour améliorer la communication scientifique. Proc. Natl. Acad. Sci. États-Unis 112, 3585–3586 (2015).
113. L. E. Wallace, D. T. Wegener, R. E. Petty, Influences of source bias that differ from source untrustiness: When flip-flopping is de plus en moins surprenant. J. Pers. Soc. Psychol. 118, 603–616 (2020).
114. M. A. Hussein, Z. L. Tormala, Saper votre cas pour améliorer votre impact : Un cadre pour comprendre les effets des actes de réceptivité dans la persuasion. Pers. Soc. Psychol. Rev.25, 229-250 (2021).
115. M. Xu, R. E. Petty, Les messages bilatéraux favorisent l'ouverture aux attitudes fondées sur la morale. Pers. Soc. Psychol. Bull., 10.177/0146167220988371 (2021).
116. J. J. Van Bavel, D. J. Packer, The Power of Us: Harnessing Our Shared Identities to Improve Performance, Augmenter la coopération et Promouvoir l'harmonie sociale (Little, Brown Spark, éd. 1, 2021).
117. S. L. Gaertner, J. F. Dovidio, P. A. Anastasio, B. A. Bachman, M. C. Rust, Le modèle d'identité endogroupe commun : recatégorisation et réduction des biais intergroupes. EUR. Rév. Soc. Psychol. 4, 1–26 (1993).
118. T. Schultz, K. Fielding, Le modèle d'identité commune au sein du groupe améliore la communication sur l'eau recyclée. J. Environ. Psychol. 40, 296–305 (2014).
119. G. Corbie-Smith, S. B. Thomas, M. V. Williams, S. Moody-Ayers, Attitudes et croyances des Afro-Américains envers la participation à la recherche médicale. Stagiaire J. Gen. Méd. 14, 537-546 (1999).
120. E. Portacolone et al., Gagner la confiance des communautés afro-américaines pour accroître leur représentation dans la recherche sur la démence. Ethn. Dis. 30, 719–734 (2020).
121. A. Wilkinson, M. Parker, F. Martineau, M. Leach, Engaging ‘communities’ : Anthropological insights from the West African Ebola epidemie. Philos. Trans. R. Soc. Londres. B Biol. Sci. 372, 20160305 (2017).
122. K.G. Claw et al. ; Stage d'été pour les peuples autochtones en génomique (SING) Consortium, Un cadre pour améliorer la recherche éthique en génomique avec les communautés autochtones. Nat. Commun. 9, 2957 (2018).
123. S. M. Sidik, Tisser les connaissances autochtones dans la méthode scientifique. Nature 601, 285-287 (2022).
124. L. Wade, Pour surmonter des décennies de méfiance, un atelier vise à former des chercheurs autochtones à devenir leurs propres experts en génome. Sciences, (2018). https://doi.org/10.1126/science.aav5286.
125. D.M.J. Lazer et al., La science des fausses nouvelles. Sciences 359, 1094-1096 (2018).
126. T. C. O'Brien, R. Palmer, D. Albarracin, Confiance mal placée : Quand la confiance dans la science favorise la croyance en la pseudoscience et les avantages de l'évaluation critique. J. Exp. Soc. Psychol. 96, 104184 (2021).
127. W. J. McGuire, D. Papageorgis, L'efficacité relative de divers types de défense de croyance antérieure dans la production d'immunité contre la persuasion. J. Abnorm. Soc. Psychol. 62, 327–337 (1961).
128. M. Vivion et al., Messagerie de prébunking pour inoculer contre la désinformation sur le vaccin COVID-19 : Une stratégie efficace pour la santé publique. J. Commun. Healthc., 10.1080/17538068.2022.2044606 (2022).
129. T. Bolsen, J. N. Druckman, F. L. Cook, Croyances des citoyens, des scientifiques et des conseillers politiques sur le réchauffement climatique. Anne. Un m. Acad. Pol. Soc. Sci. 658, 271–295 (2015).
130. B. M. Tappin, G. Pennycook, D. G. Rand, Repenser le lien entre la sophistication cognitive et le raisonnement politiquement motivé. J. Exp. Psychol. Gen. 150, 1095-1114 (2021).
131. N. Miller, D. T. Campbell, Récence et primauté dans la persuasion en fonction du moment des discours et des mesures. J. Abnorm. Psychol. 59, 1–9 (1959).
132. R. E. Petty, D. W. Schumann, S. A. Richman, A. J. Strathman, Humeur positive et persuasion : différents rôles pour l'affect dans des conditions d'élaboration élevée et faible. J. Pers. Soc. Psychol. 64, 5-20 (1993).
133. B. Nerlich, N. Koteyko, B. Brown, Théorie et langage de la communication sur le changement climatique. Wiley Interdiscip. Rév. Clim. Modification 1, 97–110 (2010).
134. C. M. Angst, R. Agarwal, Adoption des dossiers de santé électroniques en présence de problèmes de confidentialité : modèle de probabilité d'élaboration et persuasion individuelle. Faire en sorte. Inf. Syst. Q. 33, 339-370 (2009).
135. C. M. Steele, T. J. Liu, Processus de dissonance comme affirmation de soi. J. Pers. Soc. Psychol. 45, 5-19 (1983).
136. T. Epton, P. R. Harris, L'affirmation de soi favorise le changement de comportement en matière de santé. Santé Psychol. 27, 746–752 (2008).
137. P. Sparks, D. C. Jessop, J. Chapman, K. Holmes, Actions pro-environnementales, changement climatique et attitude défensive : les affirmations de soi font-elles une différence dans les motivations et les croyances des gens à propos de faire une différence ? Br. J. Soc. Psychol. 49, 553-568 (2010).
138. M. Feinberg, R. Willer, Recadrage moral : Une technique pour une communication efficace et persuasive à travers les clivages politiques. Soc. Personnel. Psychol. Boussole 13, e12501 (2019).
139. A. Luttrell, R. E. Petty, Evaluations of self-focused versus other-focused arguments for social distancing: An extension of moral matching effects. Soc. Psychol. Personnel. Sci. 12, 946–954 (2021).
140. A. Corner, N. Pidgeon, Comme des arbres artificiels ? L'effet du cadrage par analogie naturelle sur les perceptions publiques de la géoingénierie. Clim. Modifier 130, 425–438 (2015).
141. C. A. Summers, R. W. Smith, R. W. Reczek, An audience of one: Behaviorally Targeted Ads as implicite social labels. J. Consum. Rés. 43, 156-178 (2016).
142. J. Hansen, M. W€anke, Vérité du langage et vérité de l'ajustement : L'impact du concret linguistique et du niveau d'interprétation sur la vérité subjective. Pers. Soc. Psychol. Taureau. 36, 1576-1588 (2010).
Commentaires
Enregistrer un commentaire