top of page
Rechercher
  • Photo du rédacteurLe21duLaPsyDÉ

Pourquoi sommes-nous biaisés et en quoi douter peut nous aider ?

Dernière mise à jour : 22 sept. 2022



Certaines décisions dans notre vie demandent du temps et des efforts. Par exemple, lorsque nous décidons du pays dans lequel nous voulons nous installer, nous allons prendre en compte différents facteurs et les pondérer avant de faire un choix. Cependant, la plupart de nos décisions quotidiennes sont prises rapidement et sans effort. Pour prendre ces décisions, nous utilisons des raccourcis, ou des stratégies rapides et peu exigeantes, afin d'économiser du temps et des efforts cognitifs. Par exemple, lorsque nous choisissons un dessert, nous optons soit pour notre dessert préféré, soit pour un dessert que nous n'avons jamais essayé auparavant. Mais, il est peu probable que nous pesions le pour et le contre de chaque dessert du menu, comme le goût, la nouveauté, les calories, etc. avant de nous décider. Ces stratégies simplifiées et ces règles empiriques - appelées heuristiques - peuvent être très utiles lorsqu'elles sont utilisées pour des choix rapides et quotidiens. Cependant, dans des situations plus complexes, les heuristiques conduisent parfois à des biais cognitifs, c'est-à-dire à des décisions qui ne sont pas fondées sur la logique et les règles normatives.


Mesurer les biais en laboratoire

Mais à quel point les gens sont-ils facilement trompés par leurs heuristiques, et à quelle fréquence sont-ils en proie aux biais cognitifs ? L'une des façons pour les chercheurs d'étudier ces questions est d'utiliser des tâches de raisonnement. Ces tâches sont spécialement conçues pour susciter une réponse heuristique qui va à l'encontre de certains éléments logiques. Un exemple célèbre est le problème de l'erreur de conjonction, également connu sous le nom de problème de Linda, créé par Amos Tversky et Daniel Kahneman [1] :


Linda a 31 ans. Elle est célibataire et extravertie.

Lorsqu'elle était étudiante, elle s'est spécialisée en philosophie et s'inquiétait des problèmes de justice sociale.

Quelle affirmation est la plus probable ?

A) Linda est banquière.

B) Linda est militante féministe et banquière.


Lorsqu'elles sont confrontées à ce problème, la majorité des personnes choisissent l'option B comme réponse correcte. En effet, le profil de Linda correspond bien à l'image stéréotypée d'une militante féministe. Les gens utilisent donc l'heuristique suivante : "femme, extravertie, étudiante en philosophie = féministe". Dans un scénario réel, cette heuristique pourrait être exacte car il existe des femmes ayant le profil de Linda qui sont militantes féministes. En fait, si les options du problème ci-dessus étaient plutôt "A) Linda est banquière – B) Linda est militante féministe ", l'option B serait le choix logique à faire. Cependant, dans l'exemple ci-dessus, l'option B contient un deuxième élément d'information : "Linda est militante féministe et banquière". En mathématiques, vous le savez peut-être, la probabilité que deux événements se produisent ensemble (en "conjonction") est toujours inférieure à la probabilité que l'un ou l'autre se produise seul (voir Figure 1). Ainsi, selon la théorie des probabilités, la réponse A est la réponse logique au problème ci-dessus.

Figure 1. La relation entre les banquières et les militantes féministes: la probabilité que quelqu'un soit banquier et militant féministe est plus faible que la probabilité que quelqu'un soit uniquement banquier.


Cependant, malgré la simplicité mathématique de la solution, la plupart des gens ne parviennent pas à répondre logiquement lorsqu'ils sont confrontés au problème ci-dessus [1]. Alors, pourquoi les gens ne tiennent-ils pas compte des informations logiques du problème, et fondent-ils plutôt leur réponse sur un stéréotype ?


Pourquoi sommes-nous biaisés ?

Les théories du double processus ont tenté de répondre à cette question. Elles soutiennent que notre pensée est l'interaction entre deux processus : un processus rapide et intuitif (connu sous le nom de Système 1), et un processus lent et délibéré (connu sous le nom de Système 2) [2]. La pensée intuitive nous aide à prendre des décisions rapidement (par exemple, choisir un dessert dans un menu) et se base sur des raccourcis mentaux ou des heuristiques, tandis que la pensée délibérée est utilisée pour des décisions plus complexes (par exemple, décider dans quel pays déménager) et implique des processus analytiques. Selon les théories du double processus, lorsqu'ils sont confrontés à des tâches comme celles décrites ci-dessus, qui appellent à la fois une réponse stéréotypée et une réponse logique, les gens se fient automatiquement à leur pensée intuitive. Ils répondent donc de manière stéréotypée [2][3]. S'ils réfléchissent davantage à la tâche et engagent leur pensée délibérée, ils peuvent parvenir à corriger leurs réponses intuitives et à répondre logiquement. Plus récemment, des études ont montré que, dans certains cas, les gens parviennent à fournir des réponses logiques à ces tâches de manière intuitive [4]. Ainsi, nos intuitions peuvent être logiques et la délibération n'est pas toujours nécessaire pour les corriger (vous pouvez lire cet article du 21 du LaPsyDE pour en savoir plus sur les "intuitions logiques" et leur origine).


Sommes-nous inconscients de nos biais ?

Cependant, même lorsque les participants fournissent des réponses stéréotypées, ils ne sont pas complètement inconscients des éléments logiques du problème. Au contraire, ils sont sensibles au fait que leur réponse soit en conflit avec certaines informations. Cette sensibilité a été appelée détection du conflit [5]. Les chercheurs la mesure en comparant des problèmes standards comme ceux mentionnés ci-dessus à leurs versions de contrôle correspondantes. Dans les versions de contrôle, les règles logiques et les informations stéréotypées conduisent à la même réponse. Par exemple, la version de contrôle du problème de Linda est créée en modifiant l'option A :


Linda a 31 ans. Elle est célibataire et extravertie.

Lorsqu'elle était étudiante, elle s'est spécialisée en philosophie et s'inquiétait des problèmes de justice sociale.

Quelle affirmation est la plus probable ?

A. Linda est militante féministe.

B. Linda est militante féministe et banquière.


Dans l'exemple ci-dessus, l'option A est en accord à la fois avec les règles probabilistes et avec le stéréotype des féministes. Il n'y a donc pas de conflit entre les deux, c'est pourquoi ces problèmes de contrôle sont également appelés problèmes « non-conflit ». Les études ont montré que les participants sont moins confiants et prennent plus de temps lorsqu'ils répondent aux problèmes standards « conflit », que lorsqu’ils répondent aux problèmes « non-conflit ». Puisque la seule différence entre ces deux versions est le conflit créé entre la logique et les stéréotypes, l'hésitation des personnes à répondre montre qu'elles détectent ce conflit. Des études récentes ont montré que les gens présentent un conflit même lorsqu'ils résolvent les problèmes de manière intuitive [6]. En résumé, même si les gens ne parviennent pas toujours à répondre logiquement à des tâches de raisonnement, ils semblent être sensibles à leurs erreurs logiques, aussi bien lorsque celles-ci se produisent de manière intuitive que délibérée.


Nos biais restent-ils stables dans le temps ?

Inspirés par les recherches ci-dessus, nous souhaitions vérifier dans notre étude si les biais restent stables dans le temps. Nous voulions aussi voir si la détection du conflit rendrait les gens plus susceptibles de changer ces biais à l'avenir.


Tout d’abord, on suppose généralement que nos biais restent stables dans le temps. Par exemple, si nous avons aujourd'hui la croyance stéréotypée qu'une extravertie, célibataire étudiante en philosophie est militante féministe, nous sommes également susceptibles d'avoir cette croyance dans un futur proche. Cependant, la stabilité des biais des gens a rarement été testée directement [7]. Pour étudier cette question, nous avons demandé aux participants de résoudre quatre tâches de raisonnement différentes (Temps 1), y compris la tâche de l'erreur de conjonction que nous avons présentée ci-dessus. Chaque tâche comprenait des problèmes "conflit" et des problèmes "non-conflit". Pour examiner séparément les réponses intuitives et délibérées, nous avons utilisé un paradigme à deux réponses [8]. Ainsi, pour chaque problème, les personnes devaient fournir deux réponses consécutives : une réponse initiale, intuitive, et une réponse finale, délibérée. Pour être sûrs que la réponse initiale était intuitive, nous avons imposé un délai de réponse très strict et demandé aux participants de se souvenir d'un motif visuel complexe (4 croix dans une grille de taille 3x3) tout en répondant [6]. En effet, en sollicitant leurs ressources mentales, les participants ne pouvaient pas s'engager dans une réflexion analytique pendant la phase initiale. La réponse finale n'avait aucune restriction et les participants étaient encouragés à délibérer. Au bout de deux semaines, nous avons demandé aux mêmes participants de refaire exactement la même étude (Temps 2).


Une réponse était qualifiée de "stable" si le participant avait donné la même réponse à un problème au premier test (Temps 1) et deux semaines plus tard (Temps 2). Inversement, une réponse à un problème était qualifiée d’"instable" si le participant avait modifié sa réponse entre le Temps 1 et le Temps 2. Nos résultats ont montré qu'en moyenne, 80 % des réponses des participants sont restées stables deux semaines après le premier test [9]. Cela signifie que lorsqu'une personne donne une réponse stéréotypée ou logique à un problème, elle est susceptible de donner la même réponse deux semaines plus tard. Cette grande stabilité a été observée tant pour les réponses initiales, intuitives, que pour les réponses finales, délibérées. Ainsi, nos résultats montrent que les réponses des gens aux problèmes de raisonnement ne sont pas susceptibles de changer avec le temps, ni intuitivement ni délibérément.


Le doute entraîne-t-il un changement de réponse ?

Bien que la majorité des réponses intuitives et délibérées soient restées stables, une minorité de ces réponses (environ 20 %) ont changé entre le Temps 1 et le Temps 2. Nous avons donc voulu vérifier si, dans les cas où les personnes avaient un conflit élevé (ou peu de confiance) au Temps 1, elles étaient plus susceptibles de changer leurs réponses au Temps 2 [9].


Pour mieux comprendre l'idée derrière notre question, imaginons avoir le choix entre deux desserts : une glace ou un cupcake. Comme le montre la Figure 2, la personne A a une préférence claire pour les cupcakes, mais n'aime pas la glace, tandis que la personne B aime presque autant les deux. Lorsque vous demanderez à la personne A quelle est sa décision, elle n'aura guère de doute sur sa préférence dominante et, si vous lui posez à nouveau la question dans deux semaines, il est très probable qu'elle prendra la même décision. La personne B, en revanche, sera vraisemblablement confrontée à une décision difficile puisqu'elle aime les deux desserts mais doit en choisir un. Quel que soit le choix final de la personne B, elle sera vraisemblablement moins convaincue d'avoir pris la bonne décision et il est plus probable qu'elle choisira différemment si on lui pose la question à un autre moment dans le futur.

Figure 2. Préférences de deux personnes pour la glace et les cupcakes. Les deux personnes choisissent les cupcakes. Toutefois, la personne A a une préférence claire pour les cupcakes par rapport à la glace, de sorte que, dans un futur proche, elle est susceptible de choisir à nouveau des cupcakes. Au contraire, la préférence de la personne B pour les cupcakes et la glace est très similaire donc, dans un futur proche, il est possible qu'elle choisisse plutôt la glace.


C'est pourquoi nous nous attendions à ce qu'un conflit élevé (ou inversement une faible confiance) prédise la stabilité des réponses des personnes. Moins il y a de doute sur notre décision, plus il est probable que notre choix reste stable dans le temps. Nos résultats ont confirmé cette hypothèse : nous avons constaté que plus les personnes étaient en conflit avec leurs réponses intuitives au Temps 1, plus elles étaient susceptibles de changer leurs réponses (intuitives et délibérées) deux semaines plus tard [9]. Nos résultats indiquent que le doute concernant la réponse intuitive peut être un facteur important de changement de réponse.


En résumé, lorsqu'ils résolvent des problèmes de raisonnement avec des informations contradictoires, la majorité des gens donnent des réponses stéréotypées qui contredisent les normes logiques. Cependant, cela ne signifie pas nécessairement qu'ils sont incapables de traiter des informations logiques et qu'ils sont condamnés à prendre des décisions biaisées. Au contraire, la plupart des personnes se sentent intuitivement en conflit avec leurs réponses stéréotypées, et ce conflit peut les amener à prendre des décisions plus logiques à l'avenir.



Pour aller plus loin :

[1] Tversky, A., & Kahneman, D. (1983). Extensional versus intuitive reasoning: The conjunction fallacy in probability judgment. Psychological Review, 90(4), 293–315. https://doi.org/10.1037/0033-295X.90.4.293

[2] Kahneman, D. (2011). Thinking, fast and slow. New York: Farrar, Straus and Giroux.

[3] Evans, J. S. B. T., & Stanovich, K. E. (2013). Dual-Process Theories of Higher Cognition: Advancing the Debate. Perspectives on Psychological Science, 8(3), 223–241. https://doi.org/10.1177/1745691612460685

[4] De Neys, W. (2017). Bias, Conflict, and Fast Logic: Towards a hybrid dual process future? In Dual Process Theory 2.0. Routledge.

[5] De Neys, W. (2012). Bias and Conflict: A Case for Logical Intuitions. Perspectives on Psychological Science, 7(1), 28–38. https://doi.org/10.1177/1745691611429354

[6] Bago, B., & De Neys, W. (2017). Fast logic?: Examining the time course assumption of dual process theory. Cognition, 158, 90–109. https://doi.org/10.1016/j.cognition.2016.10.014

[7] Stango, V., & Zinman, J. (2020). Behavioral Biases are Temporally Stable. Unpublished working paper. https://doi.org/10.3386/w27860

[8] Thompson, V. A., Turner, J. A. P., & Pennycook, G. (2011). Intuition, reason, and metacognition. Cognitive psychology, 63(3), 107–140. https://doi.org/10.1016/j.cogpsych.2011.06.001

[9] Voudouri, A., Białek, M., Domurat, A., Kowal, M., & De Neys, W. (2022). Conflict detection predicts the temporal stability of intuitive and deliberate reasoning. Thinking & Reasoning, 1-29. https://doi.org/10.1080/13546783.2022.2077439



Auteurs :

Aikaterini Voudouri

Doctorante au LaPsyDÉ, Université Paris Cité



Wim De Neys

Directeur de recherche CNRS au LaPsyDÉ, Université Paris Cité




 

English version



Why are we biased and how being in doubt can help?



Some decisions in our lives take time and effort. For example, when deciding the country to which we want to permanently move, we are likely to consider various factors and weight them before making a choice. However, most of our daily decisions are fast and effortless. To take these decisions we rely on shortcuts, or fast and non-demanding strategies, in order to save time and cognitive effort. For instance, when choosing a dessert, one will either go for their favourite dessert, or a dessert that they have never tried before, but they are not likely to weight the pros and cons of every dessert on the menu like taste, novelty, calories etc., before deciding. These simplified decision strategies and rules of thumb–also known as heuristics–can be very useful when used for quick, daily choices. However, in more complex situations, heuristics sometimes lead to cognitive biases, that is, decisions that are not based on logic and normative rules.


Measuring biases in the lab

But how easily are people tricked by their heuristics, and how often do they fall prey to cognitive biases? One way researchers investigate this is by using reasoning tasks. These tasks are especially constructed so that they elicit a heuristic response which goes against some of the logical elements of the task. A famous example is the conjunction fallacy problem, also known as the Linda problem, created by Amos Tversky and Daniel Kahneman [1]:


Linda is 31. She is single and outspoken.

As a student she majored in philosophy and was deeply concerned with issues of social justice.

Which statement is most likely?

A) Linda is a bank teller

B) Linda is active in the feminist movement and is a bank teller


When presented with this problem, the majority of people choose option B as the correct answer. That is because the profile of Linda fits well with the stereotypical image of someone who is active in the feminist movement. Therefore, people use the heuristic: “female, outspoken, philosophy student = feminist”. In a real-world scenario this heuristic could be accurate as there are women with Linda’s profile who are feminists. In fact, if the options of the above problem were instead “A) Linda is a bank teller – B) Linda is active in the feminist movement”, option B would be the logical choice to make. However, in the above example, option B contains a second piece of information: “Linda is active in the feminist movement and is a bank teller”. As you might know from math and as Figure 1 shows, the probability of two events occurring together (in “conjunction”) is always smaller than the probability of either one occurring alone. So, according to probability theory, answer A is the logical answer to the above problem.

Figure 1. The relationship between bank tellers and feminists: the probability of someone being a bank teller and a feminist is smaller than the probability of someone being only a bank teller.


However, despite the mathematical simplicity of the solution, most people fail to respond logically when faced with the above problem [1]. So, why do people fail to account for the problem’s logical information and base their answer on a stereotype instead?


Why are we biased?

Dual process theories have tried to answer this question. These theories support that our thinking is the interaction between two processes: a fast and intuitive process (known as System 1), and a slow, deliberate process (known as System 2) [2]. Intuitive thinking helps us take decisions rapidly (e.g., choosing a dessert from a menu) and is based on mental shortcuts or heuristics, while deliberate thinking is used for more complex decision making (e.g., deciding to which country to move) and involves analytic processes. According to dual-process theories, when faced with tasks such as the above, that cue both a stereotypical and a logical response, people automatically rely on their intuitive thinking and respond stereotypically [2][3]. If they further contemplate the task and engage their deliberate thinking, they might manage to correct their intuitive responses and answer logically. More recently, studies have shown that in some cases people manage to provide logical answers to these tasks intuitively [4]. So, our intuitions can be logical and deliberation is not always necessary to correct them (you can read this 21 du LaPsyDE article to find out more about “logical intuitions” and where they originate from).


Are we unaware of our biases?

However, even when participants provide stereotypical responses, they are not completely oblivious to the logical elements of the problem. On the contrary, they are sensitive to the fact that their answer is in conflict with some of the problem’s information. This sensitivity has been called conflict detection [5]. Researchers measure it by comparing standard problems like the above to their corresponding control versions. In the control versions, the logical rules and the stereotypical information lead to the same answer. For example, the control version of the Linda problem is created by altering option A:


Linda is 31. She is single and outspoken.

As a student she majored in philosophy and was deeply concerned with issues of social justice.

Which statement is most likely?

A. Linda is active in the feminist movement

B. Linda is active in the feminist movement and is a bank teller


In the above example, option A agrees both with probabilistic rules and with the stereotype of feminists. Hence, no conflict is created between the two, which is why these control problems are also referred to as “no-conflict” problems. Studies found that participants are less confident and take more time when responding to standard “conflict” problems, than when responding to “no-conflict” problems. Since the only difference between these two versions is the conflict that is created between logic and stereotypes, people’s response hesitation shows that they detect this conflict. Recent studies have shown that people show conflict even when they solve the problems intuitively [6]. In sum, even though people do not always manage to respond logically to reasoning tasks, they seem to be sensitive to their logical errors, both when these happen intuitively and deliberately.


Do our biases remain stable over time?

Inspired by the above research, in our study we wanted to investigate whether people’s biases remain stable over time. As a second step, we wanted to see whether conflict detection would make people more likely to change these biases in the future.


To start with, it is generally assumed that our biases remain stable over time. For example, if today we hold the stereotypical belief that a single, outspoken, female philosophy student is active in the feminist movement, we are also likely to hold that belief in the near future. However, the stability of people’s biases has rarely been directly tested [7]. To investigate this, we asked participants to solve four different reasoning tasks (Time 1), including the conjunction fallacy task that we presented above. Each task comprised of “conflict” problems and their corresponding “no-conflict” problems. To examine intuitive and deliberate responses separately, we used a two-response paradigm [8]. So, for every problem, people were asked to provide two consecutive responses: an initial, intuitive response and a final, deliberate response. To be certain that the initial response was intuitive, we imposed a very strict response deadline and asked participants to remember a complex visual pattern (4 crosses in a 3x3 grid) while responding [6]. Indeed, by burdening their mental resources, participants could not engage in analytic thinking during the initial stage. The final response had no restrictions and participants were encouraged to deliberate. After two weeks had passed, we asked the same participants to do the exact same study again (Time 2).


A response was labelled as “stable” if the participant had given the same response to a problem both during the first test occasion (Time 1) and two weeks later (Time 2). Inversely, a response to a problem was labelled as “unstable” if the participant changed their response from Time 1 to Time 2. Our results showed that, on average, 80% of people’s responses remained stable two weeks after they were first tested [9]. This means that when people give a stereotypical or a logical response to a problem, they are likely to give the same response two weeks later. This high stability was observed both for the initial, intuitive responses and the final, deliberate responses. Thus, our results show that people’s responses to reasoning problems are not likely to change over time, neither intuitively nor deliberately.


Does doubt lead to answer change ?

Although the majority of intuitive and deliberate responses were stable, a minority of those responses (around 20%) did change from Time 1 to Time 2. So, we wanted to test whether in the cases where people had a high conflict (or a low confidence) in Time 1, they were more likely to change their responses in Time 2 [9].


To better understand the idea behind our question, imagine one has a choice between two desserts: ice-cream or cupcakes. As Figure 2 shows, Person A really likes cupcakes, but dislikes ice-cream, while Person B likes both almost equally well. When you ask Person A about their decision, they will have little doubt about it given their dominant preference and, if you ask them again in two weeks, it is very likely that they will make the same decision. Person B, however, will presumably face a hard decision since they like both desserts, but they have to choose one. Whatever the final choice of Person B is, they will presumably be less confident that they made the right decision, and it is more likely that they will choose differently if they are asked at another time in the future.

Figure 2. Preferences of two people on ice cream and cupcakes. Both people will choose cupcakes. However, person A has a clear preference for cupcakes over ice cream so, in the near future, they are likely to choose cupcakes again. On the contrary, Person B’s likeness for cupcakes and ice cream is very similar so, in the near future, it is possible that they will choose ice cream instead.


This is why we expected a high conflict (or inversely a low confidence) to predict the stability of people’s responses. The less doubt there is about our decision, the more likely it is that our choice will remain stable over time. Our results confirmed this hypothesis: we found that the more conflicted people were about their intuitive answers at Time 1, the more likely they were to change their (intuitive and deliberate) responses two weeks later [9]. Our results indicate that intuitive response doubt can be a driving factor for response change.


To sum up, when solving reasoning problems with conflicting information, the majority of people provide stereotypical responses that contradict logical norms. However, this does not necessarily mean that they are unable to process logical information and are condemned to biased decision-making. On the contrary, most reasoners feel intuitively conflicted about their stereotypical responses, and this conflict can make them take more logical decisions in the future.



To go further:

[1] Tversky, A., & Kahneman, D. (1983). Extensional versus intuitive reasoning: The conjunction fallacy in probability judgment. Psychological Review, 90(4), 293–315. https://doi.org/10.1037/0033-295X.90.4.293

[2] Kahneman, D. (2011). Thinking, fast and slow. New York: Farrar, Straus and Giroux.

[3] Evans, J. S. B. T., & Stanovich, K. E. (2013). Dual-Process Theories of Higher Cognition: Advancing the Debate. Perspectives on Psychological Science, 8(3), 223–241. https://doi.org/10.1177/1745691612460685

[4] De Neys, W. (2017). Bias, Conflict, and Fast Logic: Towards a hybrid dual process future? In Dual Process Theory 2.0. Routledge.

[5] De Neys, W. (2012). Bias and Conflict: A Case for Logical Intuitions. Perspectives on Psychological Science, 7(1), 28–38. https://doi.org/10.1177/1745691611429354

[6] Bago, B., & De Neys, W. (2017). Fast logic?: Examining the time course assumption of dual process theory. Cognition, 158, 90–109. https://doi.org/10.1016/j.cognition.2016.10.014

[7] Stango, V., & Zinman, J. (2020). Behavioral Biases are Temporally Stable. Unpublished working paper. https://doi.org/10.3386/w27860

[8] Thompson, V. A., Turner, J. A. P., & Pennycook, G. (2011). Intuition, reason, and metacognition. Cognitive psychology, 63(3), 107–140. https://doi.org/10.1016/j.cogpsych.2011.06.001

[9] Voudouri, A., Białek, M., Domurat, A., Kowal, M., & De Neys, W. (2022). Conflict detection predicts the temporal stability of intuitive and deliberate reasoning. Thinking & Reasoning, 1-29. https://doi.org/10.1080/13546783.2022.2077439



Authors :

Aikaterini Voudouri

PhD student at LaPsyDÉ, Paris Cité University



Wim De Neys

Research Director at the French National Centre for Scientific Research (CNRS) at LaPsyDÉ, Paris Cité University



541 vues0 commentaire
Post: Blog2 Post
bottom of page