Chapitre 1. L’attention

[sommaire]

1.1. Définition

Tout au long de la vie, et même tout au long de la journée et des minutes, nous sommes bombardés par une multitude d’informations perceptives. Il nous est impossible de prendre en compte chacune de ces informations. Dès lors, comment y faisons-nous face ? Comment choisissons-nous les informations à retenir et celles à négliger ? Une solution est de se focaliser spécifiquement sur certaines informations (telles que la compréhension des lignes écrites dans un livre) et choisir de privilégier ces informations au détriment des autres qui ne sont pas importantes dans l’immédiat. Au cours du traitement de l’information, l’attention est donc le processus permettant, à un moment donné, de mettre en exergue certaines informations et d’en inhiber d’autres. La mise en évidence d’informations améliore la sélection et le traitement des données pertinentes alors que l’inhibition favorise la mise à l’écart des informations inutiles.

Bien que nous ayons la connaissance intuitive de ce que signifie « faire attention », l’étude des phénomènes attentionnels suscite depuis plus d’un siècle l’intérêt des chercheurs. Ainsi donc, qu’est-ce exactement que l’attention ? Une définition claire et concise doit être plus exhaustive que la première acception proposée par James (1890) pour qui « l’attention est la prise de possession par l’esprit, sous une forme claire et vive, d’un objet ou d’une suite de pensées parmi plusieurs qui semblent possibles […]. Elle implique le retrait de certains objets afin de traiter plus efficacement les autres ». En effet, les recherches actuelles tendent à montrer que « cette prise de possession par l’esprit » ne relève pas d’un seul processus isolé, mais plutôt d’un ensemble de processus agissant en interaction (Posner, 1995 ; Shapiro, 2001), tel que l’illustre l’importante variété d’opérations attentionnelles décrites dans la littérature. L’attention sélective, l’attention divisée, l’attention focalisée, la résistance à la distraction, le contrôle de l’attention, la variation de la mobilisation des ressources attentionnelles au cours de la journée en sont des exemples. Au niveau cérébral, l’attention serait prise en charge par des processus spécifiques qui interagiraient avec d’autres processus impliqués dans l’action en cours (processus moteurs, perceptifs, conceptuels). D’après Groeger (2000), les processus attentionnels prendraient leur source dans le cortex cingulaire du système limbique, pour ensuite parvenir au cortex pré-frontal, en charge de la planification de la tâche, et se dirigeraient enfin vers les aires pré-motrices et sensori-motrices déterminantes dans la réalisation de la tâche.

Cette diversité des processus attentionnels décrits n’est cependant pas la traduction d’un système attentionnel anarchique et morcelé. Au contraire, le terme de système attentionnel est même employé pour décrire la cohérence et l’interdépendance de l’ensemble des processus attentionnels. Dès lors, si dans la suite de cette présentation, je me suis centrée principalement sur la description de l’attention sélective qui joue un rôle de premier plan dans le traitement de l’information, il va sans dire que cette description est sous-tendue par l’implication des autres processus attentionnels complémentaires à son action.

1.2. L’attention et le traitement de l’information

1.2.1. La sélection de l’attention

La sélection de l’information pertinente parmi un ensemble de données accessibles à notre conscience est un phénomène pour le moins banal du traitement de l’information. Dès le plus jeune âge, comme cela a été évoqué précédemment, nous sommes en mesure de sélectionner les informations que nous souhaitons traiter préférentiellement. Ainsi, un enfant en classe de maternelle est déjà en mesure d’écouter et comprendre ce que dit sa maîtresse alors que deux de ses camarades sont en train de parler à côté de lui et que l’orage gronde dehors. Si cette opération est familière, elle n’en reste pas moins complexe. Elle ne se résume pas à positionner simplement un cache sur les informations inutiles afin de prendre uniquement en considération les informations pertinentes. Elle n’est pas non plus dénuée de tout effort cognitif, car mobiliser son attention requiert une quantité de ressources attentionnelles non négligeable.

Conformément aux difficultés de mise en œuvre de ces processus attentionnels, la suite de cette présentation vise à exposer trois modèles théoriques de référence de l’attention. Bien qu’ils apportent chacun une explication à l’aspect sélectif de l’attention, la particularité de ces modèles émane des sources invoquées pour l’origine de cette sélectivité. Le premier modèle, celui du filtre attentionnel de Broadbent (1958), aborde les aspects processuels de l’attention alors que le second modèle, celui de Kahneman (1970, 1973), met l’accent sur l’importance des ressources attentionnelles. Enfin, à côté de ces deux modèles, celui de Posner et Petersen (1990), issu des études dans le domaine de la perception visuelle, propose une décomposition de l’attention en plusieurs processus attentionnels, dont l’action serait différente selon les étapes du traitement de l’information. Dans ce modèle, l’orientation de l’attention jouerait un rôle primordial pour la suite de la réalisation de la tâche.

1.2.2. Le modèle du filtre attentionnel de Broadbent (1958)

Broadbent est un chercheur pionnier dans le champ de l’attention sélective. En effet, cet auteur est l’un des premiers à s’être intéressé à ce processus attentionnel (1958, 1970). Il décrit le traitement de l’information comme un processus de filtrage intervenant après le traitement sensoriel et avant le traitement perceptif, et permettant de bloquer l’information inattendue afin de n’autoriser que le passage des informations attendues. Ce processus a pour objectif d’éviter de surcharger le système global. Ainsi, si toutes les informations sont encodées et analysées en parallèle au niveau de leurs caractéristiques physiques (traitement sensoriel), ces informations ne peuvent être réellement « perçues » que si elles sont triées et sélectionnées par le filtre attentionnel (voir Figure 1).

[IMAGE]

Figure 1. Le modèle structural de Broadbent (1958)

Comme évoquée ci-dessus par le biais de la Figure 1, la conception de cet auteur s’articule autour de deux systèmes de traitement distincts, séparés par un filtre : le système sensoriel (S) et le système perceptif (P). À cause du travail en parallèle de l’ensemble des canaux sensoriels, le système sensoriel (S) analyse l’ensemble des caractéristiques des stimulations. Ainsi, la perception de deux stimulations distinctes parvenant à nos deux oreilles constitue déjà à elle seule deux sources d’informations différentes. Ces informations sont alors codées pour être ensuite transmises au système perceptif (P) qui est chargé de les identifier une par une. Ceci est sans compter sur le filtre attentionnel, situé entre ces deux systèmes, qui a pour charge de ne laisser passer qu’une seule information à la fois et qui constitue en quelque sorte le processus d’attention.

Ce modèle de filtre attentionnel n’indique en aucune façon une facilité directe de traitement de l’information. Nous comprenons que l’information ne pourrait être traitée que grâce au blocage des éléments distracteurs au niveau du filtre. Dans ce modèle donc, le traitement de l’information serait issu d’une sélection préalable de l’information attendue, à la suite d’un tri perceptif. Dès lors, la facilité du traitement de l’information au sein de ce modèle est indirecte, car elle résulte du blocage des éléments inattendus. Le modèle de Broadbent est aujourd’hui remis en question. Des études réalisées en situation d’écoute dichotique montrent en effet que des stimuli perçus dans l’oreille inattentive peuvent être mieux traités que des stimuli perçus dans l’oreille attentive. Par exemple, l’étude de Moray (1959) rapporte que des participants sont en mesure de reconnaître l’évocation de leur nom lorsque celui-ci apparaît dans leur oreille inattentive.

1.2.3. Le modèle de Kahneman (1973)

En désaccord avec la théorie de Broadbent (1958), Kahneman (1973) décrit ce que l’on appelle la théorie des ressources attentionnelles, modèle consacré essentiellement à la distribution des ressources limitées de l’attention entre les diverses activités mentales. Kahneman considère que le système cognitif humain dispose de « ressources mentales » n’existant qu’en quantité limitée et déterminant la qualité, l’efficacité ou la profondeur du traitement cognitif de l’information. L’attention est perçue comme un réservoir de capacités (ressources attentionnelles) susceptibles d’être investies en plus ou moins grande quantité dans les diverses opérations cognitives. Plus les ressources sont investies dans une tâche, meilleur est le traitement correspondant. Ainsi, la focalisation de l’attention sur les informations pertinentes pour effectuer une tâche donnée permettrait de concentrer ces ressources uniquement sur leur traitement, ce qui aurait pour conséquence d’augmenter la qualité de la performance de réalisation à la tâche. Le traitement des informations restantes pourrait malgré tout être effectué, avec une qualité d’efficience relative, à partir des ressources attentionnelles résiduelles.

Selon cette théorie, les situations d’attention partagée constitueraient des situations tout à fait particulières de distribution des ressources attentionnelles. Face à deux ou plusieurs sources d’informations différentes, l’efficacité du traitement de l’information se trouverait affectée, car les ressources attentionnelles devraient se distribuer entre les différentes sources d’informations. Or, contrairement à ce que l’on pourrait penser intuitivement, la quantité limitée de ces ressources ne leur permettrait pas d’être également réparties entre les différents traitements à effectuer et donc de réaliser efficacement les tâches correspondantes. Certaines informations bénéficieraient d’une quantité de ressources attentionnelles supérieure par rapport à d’autres. Une telle situation amènerait à une moindre intensité de traitement de chaque source d’information. La focalisation attentionnelle sur une seule source d’information serait donc la clé d’un traitement opérationnel suite au regroupement des ressources.

Cependant, la théorie des ressources attentionnelles, tout comme celle du filtre attentionnel, ne permet pas de rendre compte du changement même de la structure des mécanismes attentionnels qui accompagnent le développement et l’acquisition de nouveaux savoirs. « La conception de l’attention en terme d’énergie modulant le fonctionnement d’un processus cognitif introduit une trop grande distance entre les aspects énergétiques et les aspects structuraux pour parvenir à expliquer les mécanismes de l’efficience » (Camus, 1996, p. 77). La notion de ressources cognitives proposée par Hirst et ses collègues (1980) et reprise plus largement par Hugdahl et al. (2009) comme nous le verrons par la suite, offre une vision plus adaptée des processus mis en jeu lors du traitement de l’information. Le terme de ressources cognitives suggère l’ensemble des moyens (structuraux et énergétiques) intervenant dans la transformation de l’information.

1.2.4. Le modèle de l’orientation visuospatiale de Posner

Le modèle de traitement de l’information de Posner est l’un des plus connus dans la littérature (Posner, 1980 ; Posner & Raichle, 1998). Selon ces auteurs, l’attention sélective visuelleaurait trois fonctions principales et indispensables au traitement efficace des informations qui nous entourent : tout d’abord une fonction d’orientation, puis une fonction de détection d’évènements et enfin une fonction de maintien de l’état d’alerte. De plus, selon la conception connexionniste, chacune de ces trois fonctions serait en relation avec trois réseaux anatomiques distincts (voir Figure 2). Comme la première phase de traitement de l’information du modèle de Posner, à savoir l’orientation de l’attention, constitue l’élément central de notre présent travail de recherche, nous avons choisi de présenter uniquement cette étape, et de volontairement passer sous silence les autres étapes de traitement qui ne seront pas abordées dans nos travaux.

[IMAGE]

Figure 2. Représentation schématique du modèle attentionnel proposé par Posner et Raichle (1998).

La compréhension de l’attention visuospatiale (Posner, 1980 ; Posner & Cohen, 1984) a beaucoup évolué grâce à Posner et ses collaborateurs qui la définissent comme une orientation visuospatiale. Pour Posner et Raichle (1998), l’attention pourrait être orientée de deux manières différentes: de façon exogène, captée automatiquement par un indice extérieur, ou engendrée de façon endogène par les attentes des participants. Leur célèbre procédure expérimentale, la tâche d’indiçage, ayant été appliquée à des participants sains et cérébro-lésés, a permis de mettre à l’épreuve cette théorie. Cette procédure consiste à induire un état d’attente concernant l’endroit où une cible doit apparaître. En effet, le participant fixe tout d’abord un point central sur un écran et des stimuli (cibles) sont présentés à gauche ou à droite du point de fixation pendant un temps très court (150 ms). Le participant doit alors appuyer le plus rapidement possible sur un bouton dès qu’il perçoit un stimulus, quelle que soit sa localisation sur l’écran. Puis, dans un second temps, à l’aide d’un avertisseur (aussi appelé indice d’orientation de l’attention), le participant est prévenu à l’avance de l’endroit où une cible doit probablement apparaître. Cet avertisseur peut effectivement indiquer le côté où la cible apparaît (indice valide), mais aussi le côté opposé (indice invalide), ou les deux côtés

(indice neutre). Cet avertisseur peut par exemple correspondre à l’apparition d’un carré jaune en surbrillance à l’endroit où la cible a le plus de chance d’apparaître (voir Figure 3).

Les principaux résultats montrent que le temps de réaction des individus est fortement influencé par les informations véhiculées par les avertisseurs. L’avertisseur valide produit une facilitation du temps de réponse, alors que l’avertisseur invalide ralentit le temps de réponse. Pour Posner, ces délais de temps de réponse correspondent à une orientation de l’attention. La mise en place de l’attention dépendrait soit d’une source externe (orientation vers un endroit), soit d’une source interne stockée en mémoire. Les chercheurs ont introduit les termes d’attention couverte (covert attention) pour qualifier une attention endogène pour laquelle le déplacement de l’attention est relié à un mouvement oculaire, et une attention ouverte (overt attention) qui est assimilable à une attention exogène pour laquelle aucune saccade oculaire n’est observée. De plus, dans ce modèle, l’orientation de l’attention semble se décomposer en trois fonctions : une fonction de désengagement de l’attention de la position actuelle, une fonction de déplacement de l’attention et enfin une fonction de réengagement de l’attention sur la nouvelle position. Ces étapes expliquent les coûts et bénéfices associés au type d’indiçage. En effet, lors d’un indiçage valide, l’attention est déjà engagée vers le lieu d’apparition de la cible et permet alors l’accélération de sa détection. Dans le cas d’indiçage invalide, ce sont les étapes de désengagement, d’orientation et de réengagement vers la nouvelle cible qui ralentissent la détection.

Relativement à ces mécanismes, Posner considère que le réseau attentionnel postérieur serait responsable de l’orientation de l’attention vers des stimuli pertinents (Posner & Petersen, 1990). Le cortex pariétal serait impliqué dans les processus de désengagement de l’attention d’un endroit donné, le colliculus supérieur agirait au niveau du mouvement de l’attention d’un endroit à l’autre et le pulvinar permettrait l’engagement de l’attention vers le nouvel emplacement.

[IMAGE]

Figure 3. Représentation schématique des deux procédures expérimentales de Posner pour étudier l’attention overt et l’attention covert. (Source : Mesulam, Nobre, Kim, Parrish, & Gitelman, 2001)

À partir des résultats de travaux antérieurs (Posner, 1980 ; Posner & Cohen, 1984), certains auteurs (Posner & Petersen, 1990 ; Yantis & Jonides, 1990) se sont interrogés sur l’aspect facilitateur ou inhibiteur des avertisseurs. En effet, la tâche d’indiçage a permis de révéler l’action de deux types distincts de processus attentionnels. Le premier processus attentionnel exogène serait activé par l’apparition des indices et serait spontané, réflexe. L’autre processus serait de nature endogène, mis en jeu volontairement, de manière contrôlée, par le participant choisissant de porter son attention d’un côté ou de l’autre. Or, la sollicitation de ces deux processus attentionnels semble émerger de la manipulation de la nature des avertisseurs. Ainsi, dans leurs travaux, Müller et Rabbitt (1989) montrent qu’un avertisseur périphérique (en surbrillance) et un avertisseur symbolique (une flèche présentée centralement et indiquant le côté d’apparition de la cible) n’ont pas les mêmes effets sur le temps de mise en place de l’orientation de l’attention. Les coûts et bénéfices d’un avertisseur périphérique sont observables entre 50 ms et 170 ms après leur présentation, alors que les coûts et bénéfices d’un avertisseur central sont observables à partir de 300 ms. Il apparait également que l’orientation provoquée par un avertisseur central reste facilement interruptible. Ceci n’est pas le cas de l’orientation provoquée par un avertisseur périphérique qui est difficilement interruptible. Ainsi, l’orientation sollicitée à la suite des avertisseurs périphériques serait assimilable à l’attention exogène, alors que l’orientation sollicitée à la suite des avertisseurs centraux serait, elle, de nature endogène.

Une telle dissociation entre deux processus est également proposée par Schneider et Shiffrin (1977) qui distinguent, eux, les processus automatiques des processus contrôlés. Siéroff (1992) propose d’ailleurs un tableau récapitulatif des différentes caractéristiques mettant en opposition le traitement contrôlé attentionnel et le traitement automatique (voir Tableau 1).

[TABLEAU]

Tableau 1. Tableau récapitulatif de Siéroff (1992).

1.2.5. Processus automatiques bottom-up et contrôlés top- down

Nous avons vu que, à l’intérieur des modèles théoriques décrivant l’attention, les processus exogènes décrits par Posner et Petersen (1990) se rattachent fortement aux processus automatiques de Schneider et Shiffrin (1977), tout comme les processus endogènes sont assimilés aux processus contrôlés. En se référant aux réseaux neuronaux sollicités lors de l’activation de ces différents types d’attention, il s’avère qu’attentions exogène et automatique résultent toutes deux de processus ascendants bottom-up, alors que les attentions endogène et contrôlée résultent, elles, de processus descendants top-down.

Les processus ascendants, bottom-up, sont typiquement décrits comme étant des processus automatiquement déclenchés par la saillance des stimuli, par les évènements externes à l’individu (voir la Figure 4). L’activation de processus bottom-up réfère à un certain type d’attention, appelée « attention exogène » (Posner & Petersen, 1990). Bien que ces processus soient de « bas niveau » dans la hiérarchie cognitive, ils influencent cependant les processus de plus haut niveau cognitif lors du traitement d’une information. Les processus bottom-up peuvent ainsi être à l’origine du contrôle de l’attention lors de la survenue soudaine d’un nouveau stimulus. À l’inverse, le déclenchement de processus descendants, top-down, est issu de l’influence des intentions, attentes, expériences, ou projets de l’individu sur le traitement de la tâche en cours. L’attention générée par ces processus est ici appelée « attention endogène » (Posner & Petersen, 1990). Dans ce cas, le traitement de l’information implique en premier lieu des processus de haut niveau, qui eux-mêmes influencent le traitement effectué à un niveau plus bas.

[IMAGE]

Figure 4. Processus bottom-up et top-down (emprunté à Hikosaka, Miyauchi, & Shimojo, 1996).

1.3. Le développement normal de l’attention: bases neuro- anatomiques

Nous avons abordé précédemment différentes théories concernant le fonctionnement normal des processus attentionnels chez l’adulte. Comme cela a été souligné avec le modèle du traitement de l’information de Posner (1980), un courant de recherche montre que ces processus attentionnels trouvent leur source au sein de divers réseaux neuronaux spécifiques. Pour Posner par exemple, trois réseaux différents sont distingués selon les fonctions de l’attention sollicitées. L’orientation de l’attention serait prise en charge par le réseau attentionnel postérieur qui regroupe le lobe pariétal postérieur, des aires thalamiques (le pulvinar et les noyaux réticulés) et des parties du colliculus supérieur. Le réseau attentionnel antérieur, regroupant les aires du cortex pré-frontal médian dont le gyrus cingulaire et l’aire motrice supplémentaire, serait activé lors de la détection des stimuli, des erreurs, la résolution de conflits et l’inhibition des réponses automatiques. Enfin, le réseau de vigilance incluant les régions frontales supéro-latérales droites et le locus coeruleus serait impliqué dans le maintien de l’état d’alerte, dans la mise en place d’un état de vigilance et dans le maintien d’un état d’éveil ou de réactivité.

Or, lorsque nous parlons de réseaux attentionnels, nous évoquons des systèmes neuronaux cérébraux qui font donc l’objet d’un développement ; développement débutant in utero et se poursuivant lors des premiers mois de la vie jusqu’à la fin de l’adolescence (Alder & Orpecio, 2006). La connaissance de l’évolution de ces mécanismes au cours du développement cognitif est dès lors utile à notre compréhension du fonctionnement attentionnel. En effet, l’attention joue un rôle tout à fait primordial dans l’apprentissage de nouveaux comportements, connaissances ou procédures. Cette fonction cognitive très importante est à prendre en considération dans le développement cognitif de l’enfant. L’attention permet notamment d’optimiser l’acquisition de nouvelles compétences. Or, dès le plus jeune âge, la vie de l’enfant est rythmée par l’acquisition de ces nouveaux apprentissages. Cette partie propose donc dans un premier temps de faire un état des lieux des connaissances scientifiques actuelles sur la maturation du cerveau, puis dans un second temps d’identifier les réseaux neuronaux essentiels à l’activation des processus attentionnels bottom- up et top-down.

1.3.1. La maturation cérébrale, de la naissance à l’âge adulte

La plupart des parties constitutives du cerveau sont formées à la naissance. Ainsi, les quatre lobes cérébraux, le corps calleux et toutes les structures internes sont présents. Mais pour autant, le cerveau n’est pas complètement mature. En effet, dans l’espèce humaine, la durée de développement du cerveau après la naissance est particulièrement longue. La taille du cerveau augmente de près de 5 fois entre la naissance et l’âge adulte, la première année de vie connaissant le développement le plus rapide. Selon Luria (1978), les premières régions à se développer après la naissance (et jusqu’à environ 12 mois) sont le système réticulé et les structures reliées, c’est-à-dire les régions visuelles, auditives et somesthésiques primaires. La maturation du cortex associatif se poursuit jusque vers l’âge de 5 ans. De 5 à 8 ans, s’ensuit le développement de la jonction temporo-pariéto-occipitale. Enfin, à partir de 8 ans et jusqu’à 24 ans, la région cérébrale du cortex frontal se développe en dernier.

La fluctuation de ce rythme de développement est liée à de nombreux facteurs tels que le développement de la matière grise et de la substance blanche. La quantité de matière grise atteint un sommet au début de l’enfance (vers l’âge de 5 ans), diminue autour de la période de l’adolescence pour croître à nouveau légèrement par la suite et enfin diminuer de façon constante à partir de l’âge adulte (Giedd et al., 1999). De la même manière, de nombreux changements au niveau de la substance blanche s’opèrent au cours du développement (Hermoye et al., 2006) et plus particulièrement au cours des premières années de la vie (Barnea-Goraly et al., 2006). Ceux-ci concernent essentiellement l’amélioration qualitative de la connexion neuronale due à l’épaississement de la gaine de myéline, l’élargissement du diamètre de l’axone et l’amélioration de l’organisation de la substance blanche. La maturation de la substance blanche ne se produirait pas en même temps sur l’ensemble des régions cérébrales. En allant des régions postérieures aux régions antérieures, la maturation de la substance blanche s’achèverait dans les régions frontales du cortex cérébral (Yakolev, 1962). Ainsi, en plus d’être une des dernières régions du cerveau à évoluer, le cortex frontal est l’une des dernières régions à atteindre sa maturité pendant le développement humain.

1.3.2. Substrats neuronaux des processus bottom-up et top- down

Les premières études concernant la description des circuits neuronaux des deux processus attentionnels bottom-up et top-down ont porté sur la vision (e.g., Corbetta, Kincade, Ollinger, McAvoy, & Shulman, 2000 ; Corbetta & Shulman, 2002). Ces travaux ont mis en évidence la présence de deux circuits neuronaux différents assurant respectivement l’activation des processus bottom-up ou top-down. À partir d’études utilisant le paradigme de la cible indicée de Posner (décrite précédemment) chez des individus cérébro-lésés, les recherches ont montré que le cortex pariétal (Posner, Walker, Friedrich, & Rafal, 1984), le thalamus (Rafal & Posner, 1987) et le cervelet (Townsend et al., 1999) étaient fortement impliqués dans l’activation des processus attentionnels endogènes ou top-down. Les données en neuro-imagerie fonctionnelle confirment également ces résultats auprès d’individus sains (voir Corbetta & Shulman, 2002 pour plus de détails). Les nombreuses données en imagerie cérébrale récoltées auprès des patients cérébro-lésés ont conduit Corbetta et Shulman (2002) à proposer deux réseaux neuronaux distincts impliqués dans le contrôle de l’attention. Le

premier système neuronal, responsable de l’activation des processus bottom-up, inclurait la jonction temporo-pariétale ainsi que le cortex frontal inférieur. Le second système, responsable de l’activation des processus top-down, comprendrait plutôt le cortex intrapariétal et le cortex frontal supérieur.

D’après ces travaux, le cortex frontal assurerait donc, en partie, la double prise en charge des processus bottom-up et top-down. Toutefois, l’analyse récente en neuroimagerie d’une situation dichotique, plus proche de notre domaine d’étude, a affiné la description de ces deux réseaux neuronaux (Falkenberg, Specht, & Westerhausen, 2011). En situation dichotique, le réseau bottom-up serait activé par le gyrus post-central ainsi que par des régions temporales supérieures, alors que le réseau top-down serait, lui, pris en charge par des régions fronto-pariétales incluant l’aire motrice supplémentaire, le cortex cingulaire antérieur, la jonction frontale inférieure ainsi que le lobe pariétal inférieur. Par conséquent, dans une situation dichotique, l’activation de processus top-down serait fortement dépendante du cortex pré-frontal (la dernière région cérébrale à devenir mature au cours du développement), à la différence des processus bottom-up.

1.4. L’attention et le contrôle cognitif

1.4.1. Conflit cognitif et contrôle cognitif

Le terme de contrôle cognitif renvoie à l’ensemble des processus cognitifs permettant de guider nos actions et pensées en fonction des buts à atteindre (Miller & Cohen, 2001). Les mécanismes constitutifs du contrôle cognitif permettent à l’individu de faire face à des situations conflictuelles et de s’adapter à celles-ci, en optant de traiter préférentiellement, selon le contexte, une seule information pertinente au détriment d’une autre. Dans la vie courante, nous avons régulièrement besoin de mettre en œuvre un contrôle cognitif efficace. Par exemple, en tant qu’adultes français, nous avons l’habitude de rouler à droite ; toutefois, à l’occasion d’un voyage au Royaume-Uni, nous devrons nous contrôler afin justement de ne pas rouler à droite et pouvoir emprunter la voie de gauche pour éviter tout risque d’accident.

De par leur rôle essentiel dans le traitement de l’information, les mécanismes attentionnels ainsi que l’ensemble des fonctions exécutives constituent depuis plusieurs années un sujet d’étude privilégié. Les fonctions exécutives se définissent comme un ensemble de processus permettant à l’individu de réguler de façon intentionnelle sa pensée et ses actes dans le but d’atteindre un objectif fixé (Miyake et al., 2000). Pour certains auteurs, leurs rôles respectifs au sein de la mémoire de travail expliqueraient les relations étroites entretenues par ces différents processus (Baddeley & Hitch, 1974 ; Cowan, 2005 ; Norman & Shallice, 1986). Chacun des modèles de mémoire de travail proposés postule, en effet, l’existence d’un système central responsable du contrôle de l’attention et du traitement de tâches cognitives complexes. Le modèle théorique plus récent de Engle (2002, 2010) souligne très justement l’effet de la capacité en mémoire de travail sur les compétences de traitement de tâches cognitives complexes. Beaucoup d’auteurs pensent, par exemple, que lors de la réalisation de tâches d’interférence, les représentations de la tâche cible sont maintenues en mémoire de travail (Kane & Engle, 2003 ; MacDonald, Cohen, Stenger, & Carter, 2000). Les capacités de contrôle cognitif étant fortement sollicitées pour maintenir une représentation conceptuelle des tâches en cours (e.g., Dreisbach & Haider, 2009), il apparaît que plus la capacité en mémoire de travail est grande, meilleure sera l’efficacité du contrôle cognitif. Pour Engle (2002, 2010), l’efficience du contrôle cognitif serait issue d’une mise en œuvre efficace de l’attention et des fonctions exécutives.

Dans ce contexte, les deux concepts de fonctions exécutives et de contrôle cognitif s’associent et semblent tous deux référer aux processus mis en œuvre pour contrôler les pensées et actions en cours. Trois fonctions exécutives principales sont aujourd’hui reconnues : il s’agit de l’inhibition, du maintien et de la mise à jour des informations en mémoire de travail, et de la flexibilité cognitive (Fisk & Sharp, 2004; Miyake et al., 2000 ; Vaughan & Giovanello, 2010). Ces trois fonctions se rapprochent très fortement des processus de contrôle cognitif qui incluent principalement : (1) le fait de sélectionner la bonne information à traiter et ignorer les éléments distracteurs ; (2) traiter l’information en mémoire de travail ; (3) pouvoir passer d’une tâche à l’autre ; (4) pouvoir inhiber les réponses incorrectes ; et (5) se représenter le contexte dans lequel l’information a été traitée afin de décider si la réponse est appropriée ou non. Ainsi, le contrôle cognitif se définit comme la résultante de l’action conjointe des trois fonctions exécutives principales. Cette vision tripartite du contrôle cognitif est soutenue par Miyake et al. (2000).

La tâche de Stroop (Stroop, 1935) est une des tâches les plus connues d’évaluation des compétences de contrôle cognitif. Dans cette tâche, des noms de couleurs sont écrits avec des encres de différentes couleurs, qui ne correspondent pas à la couleur nommée. La première consigne est de nommer à voix haute la couleur de l’encre alors que la seconde consigne est de lire à voix haute la couleur écrite. Dans cette dernière consigne, le rôle du contrôle cognitif consistera à inhiber le traitement automatique de la couleur de l’encre pour arriver à privilégier volontairement le traitement du nom de la couleur écrite. Relativement à cette tâche, l’étude de Soutschek, Strobach, et Schubert (2013) montre que l’efficacité du contrôle cognitif mis en œuvre dans la tâche de Stroop est dépendante des capacités en mémoire de travail.

1.4.2. Localisation neuro-anatomique

Le cortex pré-frontal ainsi que le cortex cingulaire antérieur jouent un rôle très important dans la gestion des grandes fonctions cognitives, dites de « haut niveau », qui caractérisent notre espèce, tels le langage, le raisonnement ou encore le contrôle cognitif. Comme cela est reconnu dans la littérature, le cortex cingulaire antérieur est considéré comme étant responsable du contrôle exécutif et a pour mission de détecter les conflits cognitifs (Posner & Rothbart, 2007), alors que le cortex pré-frontal a pour tâche, lui, d’exercer le contrôle cognitif proprement dit (Miller & Cohen, 2001). Des études cliniques ont montré que des lésions au niveau du cortex frontal engendrent entre autres des problèmes de langage, de résolution de problèmes, d’inhibition (Gehring & Knight, 2000). Par ailleurs, la revue de littérature de Ridderinkhof, Ullsperg, Crone, et Nieuwenhuis (2004) reprenant des études en neuro-imagerie et des études électrophysiologiques, chez les humains et les primates non humains, a montré que la réalisation de tâches impliquant un conflit cognitif tel que la détection d’éléments distracteurs, ou bien la prise de décisions, activaient toutes le cortex cingulaire antérieur dorsal ainsi que des aires dorsales du cortex pré-frontal. Botvinick et ses collègues (Botvinick, Nystrom, Fissell, Carter, & Cohen, 1999) ont nommé l’ensemble de cette zone d‘activation le cortex médio-frontal postérieur (CMFp). Il est aujourd’hui accepté que le CMFp a pour fonction de prendre en charge la détection et la résolution du conflit cognitif. Cela se transpose également aux situations d’écoute dichotique où une orientation forcée de l’attention vers l’oreille gauche provoque une plus forte activation du CMFp. Dans des études complémentaires, Ridderinkhof et ses collègues (2004) ont montré que l’activation du CMFp était corrélée avec la détection d’un conflit et donc à la nécessité de mettre en place un contrôle cognitif. Le cortex pré-frontal (CPF) latéral et le cortex orbito-frontal ont pour fonction de réduire le conflit cognitif en s’ajustant au mieux à la tâche et en élaborant des stratégies. Des résultats similaires, mais plus spécifiques ont également été avancés (Botvinick, Braver, Barch, Carter, & Cohen, 2001 ; MacDonald et al., 2000) : le rôle du CMFp serait bien assimilable à la détection du conflit cognitif, mais la résolution du conflit (au moyen de stratégies) dépendrait, elle, plus exactement du cortex pré-frontal dorsolatéral.