Informations

Preuve que les récompenses positives sont apprises plus rapidement que les récompenses négatives ?

Preuve que les récompenses positives sont apprises plus rapidement que les récompenses négatives ?

Sa sagesse psychologique populaire est qu'il est plus facile de récompenser un comportement positif que de punir un comportement négatif (par exemple, n'importe quel livre sur la parentalité ou l'éducation canine), mais existe-t-il des preuves dans la littérature des sciences cognitives que c'est effectivement le cas ? Et si oui, alors des mécanismes possibles pour ce phénomène ont-ils été proposés ?

Pour un certain contexte, je pose cette question parce que, d'un point de vue informatique, cela n'a pas vraiment de sens. L'algorithme d'apprentissage par renforcement typique essaie de maximiser la récompense cumulative escomptée du comportement, et cela ne fait aucune différence si cela implique d'éviter les récompenses négatives ou de rechercher des récompenses positives.


c'est une excellente question.

Réponse courte: Non, les preuves ne suggèrent pas que le renforcement positif est universellement plus efficace que le renforcement négatif ou la punition. Cependant, il existe encore de bonnes raisons de se concentrer sur les récompenses plutôt que sur les punitions dans des situations de formation/d'apprentissage réelles.

Longue réponse:

Le problème de la psychologie populaire a commencé avec le choix de terminologie quelque peu malheureux de Skinner… Alors que Skinner préconisait le renforcement positif plutôt que le renforcement ou la punition négative, il semble que ce soit un secret de l'industrie que ce qu'il entendait par ces termes n'est pas ce que le grand public pense qu'il voulait dire.

La vision moderne du renforcement positif et négatif est qu'ils sont essentiellement synonymes. Ce sont des façons différentes de voir la même chose, comme décrire un verre d'eau en fonction de son niveau de remplissage ou de vide. Du point de vue informatique, comme vous le dites, les algorithmes d'apprentissage qui attribuent des valeurs positives aux cibles ou des valeurs négatives aux non-cibles sont mathématiquement équivalents.

Bien qu'ils soient souvent confondus avec le renforcement positif et négatif, les récompenses et les aversions sont des termes différents avec des significations différentes. Tester si l'un est plus efficace que l'autre est délicat, car dans la pratique, ils sont généralement qualitativement différent. Par exemple, la crème glacée ou la fessée sont-elles plus efficaces pour amener votre enfant à faire ses devoirs ? La réponse est : ça dépend - combien de crème glacée, combien de fessée… ? Nous pouvons sûrement trouver un rapport de crème glacée à la fessée auquel ils sont tout aussi efficaces. Le type de recherche qui examine cette question s'intéresse à déterminer où se trouve cette limite (voici un exemple). Expérience de réflexion : comment des mécanismes de rétroaction qualitativement différents peuvent-ils être appliqués à l'apprentissage automatique ?

Les recherches les plus susceptibles de répondre à votre question comparent les commentaires positifs et négatifs qui sont sans doute qualitativement équivalents. Par exemple, comparez gagner de l'argent à éviter de perdre de l'argent, réduire le risque à éviter l'augmentation du risque, et il est même possible de comparer les effets sur les animaux qui sont entraînés dans une économie symbolique. Ces dernières années, l'idée de la psychologie populaire selon laquelle la rétroaction positive est universellement supérieure à la rétroaction négative a été remise en question par de telles recherches. Quelques exemples :

  • Michael Perone passe en revue les recherches démontrant les effets indésirables du renforcement positif.
  • Comparer « bien joué ! » pour « s'être trompé cette fois », Eveline Crone et al ont constaté qu'avant l'âge de douze ans, les enfants obtiennent de meilleurs résultats avec des commentaires positifs, mais les enfants plus âgés et les adultes réussissent mieux avec des commentaires négatifs.
  • Une étude comparant « garder le mot bon à l'écran » à « garder le mot mauvais hors de l'écran » a révélé que le renforcement négatif peut être plus efficace pour certains types d'apprentissage.
  • Ayelet Fishbach et Stacey Finkelstein examinent les recherches qui suggèrent que les commentaires négatifs sont plus efficaces pour les experts et motivent la poursuite des objectifs lorsqu'ils signalent des progrès insuffisants.
  • De nombreuses recherches sur l'aversion aux pertes suggèrent qu'éviter la perte d'argent est une motivation plus puissante que de gagner un montant d'argent équivalent. Cependant, ce phénomène peut ne pas se traduire par un effet sur l'apprentissage.
  • Malgré tout cela, notez que les preuves en faveur du renforcement positif sont bien plus importantes - ce ne sont là que quelques exceptions notables.

Des raisons neurologiques de la différence d'efficacité entre les commentaires positifs et négatifs ont été proposées - par exemple par Eveline Crone dans l'étude citée ci-dessus.

La formation utilisant des récompenses est préférée pour les dresseurs d'animaux, les parents et les enseignants dans la plupart des situations pratiques :

  • Il existe généralement un éventail beaucoup plus large de comportements indésirables à punir que de comportements souhaitables à récompenser. Les animaux et les jeunes enfants ont du mal à déterminer quel est le comportement souhaitable avec seulement des indices sur les comportements indésirables. Il est plus facile de travailler avec les adultes car vous pouvez expliquer le comportement souhaitable avec des mots.
  • La punition doit être appliquée à tout comportement indésirable pour être efficace, tandis que la récompense ne doit être appliquée qu'à un comportement souhaitable, et même alors seulement par intermittence, pour être efficace.
  • En raison du conditionnement classique, les sujets peuvent attribuer la punition à des facteurs sans rapport avec leur comportement, comme le formateur ou la salle de classe. Ils peuvent apprendre à éviter le formateur, ou à éviter de se faire prendre, plutôt que le comportement souhaitable.
  • Remarquez qu'aucun de ces points ne s'applique à l'apprentissage automatique, où le processus est structuré, contraint et automatisé.

John Maag résume les raisons de promouvoir le renforcement positif dans les écoles : à savoir que les enseignants trouvent souvent pratique et efficace (à court terme) d'administrer des punitions et en dépendent trop dans de nombreuses situations où le renforcement positif serait plus efficace et souhaitable.

Belle vidéo sur le sujet.


Un mot de Verywell

Le biais de négativité peut avoir un impact puissant sur votre comportement, mais en être conscient signifie que vous pouvez prendre des mesures pour adopter une vision plus positive de la vie. Adopter une approche plus consciente qui implique d'être conscient de votre propre tendance à la négativité et d'élever consciemment les pensées les plus heureuses au premier plan de la conscience, c'est l'un des meilleurs moyens de lutter contre les préjugés négatifs. ??

Ruminer sur le négatif peut coûter très cher, donc prendre des mesures pour lutter contre ce biais peut jouer un rôle dans l'amélioration de votre bien-être mental.


Modification du comportement

La modification du comportement est une intervention psychothérapeutique principalement utilisée pour éliminer ou réduire les comportements inadaptés chez les enfants ou les adultes. Alors que certaines thérapies se concentrent sur le changement des processus de pensée qui peuvent affecter le comportement, par exemple, la thérapie cognitivo-comportementale, la modification du comportement se concentre sur le changement de comportements spécifiques sans tenir compte des pensées ou des sentiments d'une personne. Les progrès et les résultats de l'intervention peuvent être mesurés et évalués. Une analyse fonctionnelle des antécédents et des conséquences du ou des comportements problématiques doit être identifiée. Cela conduit à la création des comportements cibles spécifiques qui deviendront le centre du changement. Ensuite, certaines variables peuvent être manipulées via des renforçateurs et des punitions pour changer le(s) comportement(s) problématique(s). L'objectif est d'éliminer ou de réduire le comportement inadapté.

La modification du comportement est un type de thérapie comportementale. B. F. Skinner a démontré que le comportement pouvait être façonné par le renforcement et/ou la punition. Skinner a noté qu'un renforçateur est une conséquence qui augmente la probabilité que le comportement se reproduise, tandis que la punition est une conséquence qui diminue la chance. Positif et négatif sont utilisés en termes mathématiques. Le positif indique que quelque chose est ajouté et le négatif indique que quelque chose est soustrait ou retiré. Ainsi, le renforcement positif se produit lorsqu'un comportement est encouragé par des récompenses. Si un enfant aime les bonbons et que nettoyer la pièce est le comportement souhaité, les bonbons sont un renforçateur positif (récompense) car c'est quelque chose qui est donné ou ajouté lorsque le comportement se produit. Cela rend le comportement plus susceptible de se reproduire. Le renforcement négatif consiste à supprimer un stimulus à la suite d'un comportement, mais entraîne un résultat positif pour l'individu. Par exemple, une amende est supprimée et une personne n'a plus à aller en prison. La suppression du stimulus négatif (l'amende) se traduit par un résultat positif pour l'individu, pas de peine de prison.

Inversement, la punition positive est l'ajout d'une conséquence négative. Par exemple, un enfant reçoit une fessée lorsqu'il traverse la rue sans tenir la main de sa mère. Il ne traverse alors plus la rue seul. La fessée est une punition positive car c'est une conséquence ajoutée à la situation qui diminue la probabilité que l'enfant traverse la rue seul. La punition négative supprime les conséquences favorables pour réduire un comportement indésirable. Par exemple, si Emily ne termine pas ses devoirs à temps, son téléphone portable lui est retiré. Elle a pour priorité de terminer ses devoirs immédiatement après l'école avant de faire quoi que ce soit d'autre. Le retrait du téléphone portable serait un « négatif » car cela enlèverait quelque chose, réduisant ainsi le risque qu’elle ne finisse pas ses devoirs la prochaine fois.

Le renforcement et la punition fonctionnent tous deux indépendamment, ainsi qu'ensemble, dans le cadre d'un plan de comportement. Le renforcement positif fonctionne extrêmement mieux et plus rapidement que la punition. En pédopsychiatrie, les parents viennent souvent au bureau en colère et frustrés par leur enfant car « rien ne fonctionne ». Ils ont essayé plusieurs types de punitions lorsqu'un mauvais comportement s'est produit en retirant des jouets ou des privilèges ou en plaçant un enfant dans un délai d'attente. Souvent, les types positifs ne sont pas renforcés. L'un des avantages immédiats des plans de modification du comportement est le passage de la simple punition des comportements indésirables à la récompense également des bons comportements.

(Tableau 1, Scott et Cogburn, 2017)

Dans le tableau 1, notez que la punition et le renforcement n'ont rien à voir avec un bon ou un mauvais comportement, seulement s'il augmente ou diminue la probabilité que le comportement se reproduise.

Il existe plusieurs programmes de renforcement qui peuvent avoir un impact sur le comportement. Lorsqu'un plan de comportement est initialement mis en place, deux continus sont utilisés pour établir et renforcer le comportement. Une fois le comportement établi, le renforcement continu peut se transformer en renforcement intermittent appelé amincissement. Il existe quatre types de renforcement intermittent. Elles sont:

Intervalle fixe où la personne est renforcée par un nombre défini de réponses

Intervalle variable où la personne est renforcée par un nombre variable de réponses

Ratio fixe où la personne est renforcée après un certain nombre de réponses

Ratio variable où la personne est renforcée après un nombre variable de réponses. Le renforcement intermittent à rapport variable est le programme le plus efficace pour renforcer un comportement.

Intervalle fixe : récompenser une personne à la fin de chaque journée

Intervalle variable : récompenser une personne parfois à la fin de la journée, parfois à la fin de la semaine, parfois tous les quelques jours

Ratio fixe : récompenser une personne après avoir accompli le comportement souhaité quatre fois

Ratio variable : récompenser une personne après avoir accompli le comportement souhaité après trois fois, puis après six fois, puis après deux fois. Le jeu est un exemple concret d'un ratio variable de renforcement.


Effet de contraste négatif (positif)

Le contraste négatif et positif est utilisé en ce qui concerne la quantité de renforcement qu'un sujet ou un participant reçoit dans une situation donnée. Le contraste négatif se produit lorsqu'un sujet commence avec un renforcement important puis, après un certain temps, passe soudainement à un renforcement plus petit, diminuant ainsi son comportement. D'un autre côté, un contraste positif se produit lorsqu'un sujet ou un participant reçoit une récompense correcte ou faible, puis passe soudainement à une récompense plus importante, ce qui augmente alors le comportement. ΐ] Cette théorie est importante dans la compréhension de l'apprentissage. Si quelqu'un reçoit une petite récompense lorsque l'apprentissage est présenté pour la première fois, mais qu'il reçoit ensuite une récompense plus importante, il montrera plus de désir de continuer à apprendre. Α]


Bourse ouverte de l'Université de Washington

La schizophrénie (SCZ) se caractérise par de graves troubles cognitifs et une amotivation, généralement appelés symptômes négatifs, y compris l'anhédonie et/ou l'avolition. L'amotivation a tendance à exister chez les patients prodromiques et à persister au cours de la maladie indépendamment des médicaments antipsychotiques efficaces, qui sont connus pour réduire les symptômes positifs, y compris les hallucinations et les délires (p. 2013). Il est important de noter que l'amotivation est un prédicteur prometteur du fonctionnement social ultérieur dans la SCZ, même après avoir pris en compte les déficiences cognitives des patients (par exemple, (Evensen et al., 2012 Faerden et al., 2010). Malgré cet impact crucial sur le résultat fonctionnel dans SCZ, à ce jour, aucune étude n'a systématiquement étudié le mécanisme neuronal sous-jacent à l'amotivation dans SCZ.

À ce jour, il a été bien documenté que de nombreuses déficiences cognitives dans la SCZ peuvent refléter un déficit central du traitement du contexte non émotionnel, soutenu par le cortex préfrontal dorsolatéral (DLPFC), et défini par la capacité à conserver les informations contextuelles non émotionnelles nécessaires. pour réguler la réponse comportementale à venir vers un comportement orienté vers un objectif (par exemple, (Cohen, Barch, Carter et Servan-Schreiber, 1999). Des preuves récentes provenant de travaux de neuroimagerie animale et humaine saine suggèrent que le DLPFC joue un rôle crucial dans la représentation et l'intégration Cependant, il n'a pas été exploré si les individus atteints de SCZ peuvent représenter et intégrer des informations contextuelles liées à la récompense pour moduler la fonction de contrôle cognitif impliquée dans le DLPFC.

Trente-six personnes atteintes de SCZ et vingt-sept témoins sains (HC) ont subi une collecte de données comportementales et IRMf à 3Tsela tout en effectuant une tâche de traitement de conflit de réponse modifiée dans deux contextes, à savoir des contextes de référence sans récompense et de récompense. Les participants ont d'abord effectué des conditions de base sans aucune connaissance du potentiel futur des incitations (baseline-context BCXT). Chaque essai a commencé avec un indice de base, "XX", qui a été pré-indiqué aux participants comme n'étant pas pertinent pour la tâche. Après chaque signal, « XX », soit une image de maison ou de bâtiment (avec des mots superposés qui sont soit congruents soit incongrus) a été présentée à chaque participant un à la fois. Le travail de la tâche consistait à classer chaque image comme une maison ou un bâtiment en appuyant sur un certain bouton tout en ignorant le mot superposé. Après la condition de base, les participants ont effectué des blocs de récompense supplémentaires sur lesquels on leur a dit qu'ils pouvaient gagner de l'argent sur certains essais en effectuant rapidement (plus rapidement que leurs temps de réaction corrects (RT) médians dans la ligne de base et avec précision). Chaque essai était ensuite précédé soit d'un signal « $20 » (Reward-Cue RC), indiquant qu'une réponse rapide et correcte serait récompensée, soit d'un signal « XX » (Reward-Context RCXT), indiquant qu'aucune somme d'argent ne serait possible sur le procès. Après le stimulus cible, les participants ont reçu des commentaires immédiats concernant les points de récompense qu'ils ont gagnés lors des essais, ainsi que leurs gains cumulés en points.

En tant que tel, ce paradigme de tâche de conflit de réponse a permis d'examiner : (1) les effets du contexte de récompense en comparant la performance et l'activité cérébrale lorsque le signal « XX » était présenté dans le contexte de base par rapport au contexte de récompense (essais BCXT vs RCXT signalés par le même indice, "XX") et (2) récompenser les effets d'indice en comparant les performances pendant le RC (indiqué par "20 $") par rapport au RCXT (indiqué par "XX") dans les blocs de récompense. Il est important de noter qu'en utilisant une conception d'IRMf mixte état-élément, j'ai étudié à la fois l'activité d'indices liée à la récompense soutenue (basée sur des blocs) et transitoire (essai par essai) aux niveaux comportemental et neuronal.


Preuve que les récompenses positives sont apprises plus rapidement que les récompenses négatives ? - Psychologie

Apprendre des réponses actives ou réactives à la peur implique différents circuits cérébraux. Cette étude a examiné comment le nuclus accumbens (NAc), l'hippocampe dorsal (DH) et le cortex préfrontal médian (mPFC) peuvent interagir dans le traitement de la mémoire pour ces deux types de réponses. Des rats Wistar mâles avec des canules implantées dans ces zones ont été entraînés à une tâche contextuelle de conditionnement de la peur ou d'évitement inhibiteur qui engage respectivement une réponse réactive ou active à la peur dans le test. Immédiatement après l'entraînement, un facteur de modulation de la mémoire libéré par le stress, la noradrénaline (NE), a été infusé dans une région et 4 % de lidocaïne dans une autre pour examiner si un effet d'activation en amont pouvait être bloqué par la suppression en aval. La rétention testée 1 jour plus tard a montré que dans les deux tâches, l'infusion post-entraînement de NE à différentes doses dans la DH ou le mPFC augmentait la rétention, mais l'amélioration était bloquée par l'infusion simultanée de lidocaïne dans l'autre région, suggérant une dépendance de l'effet sur l'intégrité fonctionnelle des deux Régions. De plus, l'infusion de lidocaïne intra-NAc après l'entraînement a atténué l'amélioration de la mémoire de la NE infusée à la DH ou au mPFC dans la tâche d'évitement inhibiteur, mais ne l'a pas fait dans le conditionnement contextuel de la peur. Ces résultats suggèrent que la régulation NE de la formation de la mémoire pour les réponses réactives et actives à la peur peut reposer sur des interactions distinctes entre le DH, le mPFC et le NAc.

Le stress aigu altère le changement d'ensemble mais pas l'apprentissage par inversion

La capacité de mettre à jour et de modifier les réponses comportementales apprises précédemment dans un environnement changeant est essentielle pour une utilisation réussie des opportunités prometteuses et pour faire face aux événements indésirables. Les modèles valides de flexibilité cognitive qui contribuent à la flexibilité comportementale comprennent le changement d'ensemble et l'apprentissage par inversion. Un effet immédiat du stress aigu est l'altération sélective de la performance dans les tâches de contrôle cognitif d'ordre supérieur médiées par le cortex préfrontal médian (mPFC) mais pas l'hippocampe. Des études antérieures montrent que le mPFC est nécessaire pour le changement d'ensemble mais pas pour l'apprentissage par inversion. Par conséquent, le but de la présente expérience est d'évaluer si l'exposition à un stress aigu (15 min de stress léger par pincement de la queue) administrée immédiatement avant le test sur soit un les tâches d'apprentissage de décalage ou d'inversion nuiraient de manière sélective aux performances de la tâche de décalage. Une tâche automatisée basée sur une chambre opérante a confirmé que l'exposition à un stress aigu perturbe considérablement le changement d'ensemble mais n'a aucun effet sur l'apprentissage par inversion. Les rats exposés à un facteur de stress aigu nécessitent beaucoup plus d'essais pour atteindre le critère et font beaucoup plus d'erreurs de persévérance. Ainsi, ces données révèlent qu'un effet immédiat du stress aigu est d'altérer sélectivement la cognition dépendante du mPFC en perturbant la capacité à inhiber l'utilisation d'une stratégie cognitive auparavant pertinente.

Effets du comportement stéréotypé et du stress léger chronique sur le biais de jugement chez les souris de laboratoire

Les processus cognitifs sont influencés par les états affectifs sous-jacents, et des tests de biais cognitifs ont récemment été développés pour évaluer la valence des états affectifs chez les animaux. Ces tests sont basés sur le fait que les individus en état affectif négatif interprètent les stimuli ambigus de manière plus pessimiste que les individus en état plus positif. À l'aide de deux souches de souris, nous avons exploré si un stress léger chronique imprévisible (UCMS) peut induire un biais de jugement négatif et si la variation de l'expression du comportement stéréotypé est associée à une variation du biais de jugement. Seize souris femelles CD-1 et 16 souris femelles C57BL/6 ont été entraînées à un test de discrimination conditionnelle tactile avec du papier de verre de qualité servant d'indice pour les récompenses alimentaires différentielles. Une fois qu'elles ont appris la discrimination, la moitié des souris ont été soumises à l'UCMS pendant trois semaines pour induire un état affectif négatif. Bien que l'UCMS ait induit une préférence réduite pour la récompense de valeur plus élevée dans le test de biais de jugement, il n'a pas affecté la préférence pour la saccharine ou l'activité hypothalamo-hypophyso-surrénale (HPA). Cependant, l'UCMS a affecté les réponses aux indices ambigus (intermédiaires) dans le test de biais de jugement. Alors que les souris témoins ont montré une réponse graduelle aux signaux ambigus, les souris UCMS des deux souches n'ont pas fait de distinction entre les signaux ambigus et avaient tendance à montrer des latences plus courtes pour les signaux ambigus et le signal de référence négatif. L'UCMS a également augmenté le bar-mouthing chez les souris CD-1, mais pas chez les souris C57BL/6. De plus, les souris avec des niveaux plus élevés de comportement stéréotypé ont fait des choix plus optimistes dans le test de biais de jugement. Cependant, aucune relation de ce type n'a été trouvée pour le bar-mouth stéréotypé, ce qui souligne l'importance d'étudier séparément les différents types de comportement stéréotypé.

Changements sexuellement divergents dans certaines protéines cérébrales et niveaux de neurostéroïdes après une histoire de consommation d'éthanol et d'exposition intermittente à un stress de type TSPT chez des souris adultes C57BL/6J

Des études humaines ont rapporté que le nombre de facteurs de stress de l'année précédente était positivement lié aux habitudes de consommation actuelles, y compris la consommation excessive d'alcool. Dans les modèles animaux, l'exposition au stress olfactif des prédateurs (PS), considéré comme un modèle de stress traumatique, a systématiquement augmenté la consommation d'éthanol. Récemment, nous avons signalé que la PS répétée augmentait significativement la consommation d'éthanol et avait une interaction synergique avec une consommation excessive d'alcool antérieure (groupe de consommation excessive) chez les souris mâles mais pas chez les souris C57BL/6J femelles, par rapport aux souris sans exposition excessive antérieure (groupe témoin). Les études actuelles ont utilisé du plasma et disséqué du cortex préfrontal (PFC) et du tissu hippocampique de ces animaux et de souris naïves du même âge (groupe naïf). Les Western blots ont évalué les taux relatifs de protéines de P450scc (une enzyme impliquée dans la première étape de la stéroïdogenèse), de GABAUNE des sous-unités α2 et α4 des récepteurs, et de deux protéines impliquées dans la plasticité synaptique – l'ARC (activité régulée du cytosquelette) et la synaptophysine. La chromatographie en phase gazeuse-spectrométrie de masse a quantifié simultanément 10 niveaux de neurostéroïdes dans le plasma. Une histoire de consommation d'éthanol et d'exposition au PS a produit des différences régionales et sexuelles dans le cerveau dans les changements dans les protéines examinées ainsi que dans le schéma des niveaux de neurostéroïdes par rapport aux valeurs (vs.) chez les souris naïves. Par exemple, les niveaux de P450scc n'étaient significativement augmentés que chez les femelles de frénésie et de contrôle des PFC et de l'hippocampe par rapport aux souris naïves. Certains niveaux de neurostéroïdes ont été significativement modifiés par un traitement de frénésie chez les mâles et les femelles, tandis que d'autres n'ont été significativement modifiés que chez les mâles. Ces changements sexuellement divergents des niveaux de neurostéroïdes et de protéines ajoutent aux preuves de différences sexuelles dans les systèmes neurochimiques influencés par le stress traumatique et des antécédents de consommation d'éthanol.

Élargir le discours étiologique sur la maladie d'Alzheimer pour inclure les traumatismes et le trouble de stress post-traumatique comme facteurs de risque psychosociaux

Les perspectives biomédicales ont longtemps dominé la recherche sur l'étiologie et la progression de la maladie d'Alzheimer (MA), mais ces approches n'expliquent pas uniquement les variations observées dans les trajectoires individuelles de la MA. Des modèles biopsychosociaux plus robustes considèrent l'évolution de la MA comme une interaction dialectique d'influences neuropathologiques et psychosociales. Sur la base de cette conceptualisation plus large, nous avons mené une revue approfondie de la littérature empirique et théorique sur les associations de traumatisme, de trouble de stress post-traumatique (TSPT) et de MA pour développer un modèle de travail qui conceptualise le rôle des facteurs de stress psychosociaux et des mécanismes physiologiques dans l'apparition et l'évolution de l'AD. Le modèle proposé suggère deux voies. Dans le premier cas, un traumatisme antérieur à la vie agit comme un facteur de risque d'apparition de la MA plus tard dans la vie, soit directement, soit par l'intermédiaire de l'ESPT ou des corrélats de l'ESPT. Dans le second cas, le traumatisme expérientiel de la MA de novo est associé à un déclin cognitif accéléré, soit directement, soit médié par le SSPT ou les corrélats du SSPT. Les preuves synthétisées dans cet article indiquent que les traumatismes antérieurs de la vie et le TSPT sont de solides candidats en tant que facteurs de risque psychosociaux de la MA et justifient un examen empirique plus approfondi. Les implications des interventions psychosociales et neurologiques sont discutées. Une approche biopsychosociale a la capacité d'améliorer la compréhension des trajectoires individuelles de la MA, déplaçant le domaine vers des modèles de soins « centrés sur la personne ».

Stress olfactif des prédateurs, consommation d'éthanol et système opioïde dans un modèle animal de SSPT

La littérature émergente indique que l'exposition au stress est un contributeur potentiel au développement de l'abus d'alcool, mais les modèles animaux ont donné des résultats incohérents. Des données expérimentales convergentes indiquent que le système opioïde endogène module la consommation d'alcool et la régulation du stress. Le but de la présente étude est d'examiner l'interaction entre l'exposition au stress, les réponses comportementales au stress, la consommation d'éthanol (EtOH) et le système opioïde endogène dans un modèle animal de trouble de stress post-traumatique. Les rats ont été exposés au stress puis testés dans un essai à choix libre à deux bouteilles (TBC) ou dans un paradigme de préférence de place conditionnée. Dans certaines expériences, le système opioïde endogène a été manipulé pharmacologiquement avant l'exposition au stress. Les résultats comportementaux de l'exposition au stress ont été évalués dans un labyrinthe plus élevé, avec la réponse de sursaut acoustique et en surveillant la réponse de congélation au rappel de traumatisme. L'immunoréactivité des récepteurs opioïdes phosphorylés dans les sous-régions de l'hippocampe a également été mesurée. Le stress a considérablement augmenté la consommation d'EtOH dans le test TBC. La sévérité de la réponse comportementale au stress était associée à la consommation d'EtOH, à la réponse de congélation déclenchée par un signal à un rappel de traumatisme et aux niveaux endogènes de récepteurs opioïdes phosphorylés dans l'hippocampe. La manipulation pharmacologique du système opioïde endogène avant l'exposition au stress a atténué les réponses de congélation déclenchées par des signaux de traumatisme et bloqué la potentialisation induite par le stress de l'odeur des prédateurs de la consommation d'EtOH. Ces données démontrent une potentialisation induite par le stress de l'auto-administration d'EtOH et révèlent une association claire entre les modèles individuels de la réponse comportementale au stress et la préférence pour l'alcool, tout en indiquant un rôle pour le système opioïde endogène dans la réponse neurobiologique au stress.


Discussion

Cette étude visait à déterminer si l'impact de la récompense et de la punition se généralise à différents types d'apprentissage des habiletés motrices, tel que mis en œuvre à l'aide d'une tâche de temps de réaction en série (SRTT) et d'une tâche de suivi de force (FTT). Nous avons constaté que la punition avait des effets opposés sur la performance des deux compétences. Pendant l'exécution du SRTT, l'entraînement avec punition a permis d'améliorer les temps de réaction dans l'ensemble avec un préjudice minimal pour la précision. En revanche, la punition a altéré les performances de la TTF. Ces effets n'étaient présents que lorsque le feedback était donné, il n'y avait aucun effet de l'entraînement avec un feedback sur la rétention générale ou spécifique à la séquence mesurée à 1 heure, 24 heures et 30 jours dans l'une ou l'autre tâche. Nos résultats réfutent tout modèle simple de l'interaction entre la rétroaction et la performance. Au lieu de cela, nous montrons que l'impact de la rétroaction dépend de l'environnement de formation et de la compétence apprise.

Il peut y avoir un certain nombre de raisons à cet effet de rétroaction spécifique à une tâche. Bien que les deux tâches reposent sur l'apprentissage séquentiel, elles diffèrent en ce qui concerne le mécanisme qui facilite l'amélioration. L'importance de la motivation de la punition (c. Cependant, un compte purement motivationnel ne peut pas expliquer l'effet délétère de la punition sur la performance sur la TTF. Par conséquent, nous devons envisager des explications alternatives qui peuvent expliquer les effets différentiels de la récompense et de la punition sur l'exécution de ces deux tâches.

Les deux tâches diffèrent également en ce qui concerne leurs exigences motrices. Plus précisément, dans notre implémentation, les performances du FTT reposent sur un contrôle moteur plus précis que le SRTT. Au sein du système moteur, d'autres ont rapporté que l'activité dopaminergique liée à la récompense réduit le bruit moteur 19 , tandis que l'activité dopaminergique associée à la punition entraîne une augmentation de la variabilité motrice, c'est-à-dire le bruit 20 . Nous avons constaté que la punition nuisait aux performances générales (c'est-à-dire non spécifiques à la séquence) sur la FTT. Au bout d'une heure, lors du test de rétention sans feedback, le groupe punition a performé ainsi que les groupes récompense et contrôle. Nous pensons que nos résultats sont cohérents avec l'hypothèse selon laquelle la punition peut augmenter le bruit moteur, ce qui peut avoir conduit à une altération des performances du groupe puni pendant l'entraînement. Étant donné que l'augmentation de la variabilité motrice n'a pas été directement mesurée dans notre mise en œuvre du SRTT, les participants ne seraient pas pénalisés pour toute variation de mouvement qui n'aurait pas eu d'impact direct sur le temps de réaction. Si une évaluation de la variabilité motrice était considérée dans l'évaluation de la performance SRTT, on pourrait constater que la punition altère cette dimension de la performance. Notre mise en œuvre du SRTT et du FTT n'a pas de mesure directe de la variabilité motrice et nous ne pouvons pas aborder explicitement cette question dans la présente étude. Des travaux futurs devraient examiner cette question.

Les implémentations des tâches utilisées ici différaient également en ce qui concerne le contenu informationnel d'une instance donnée de rétroaction. Ordinairement, l'apprentissage sur le SRTT repose sur l'erreur de prédiction positive codée dans le striatum qui se produit sur les essais à séquence fixe 8,21. La récompense ou la punition dans le SRTT peut augmenter cette erreur de prédiction positive et faciliter les performances et l'apprentissage. En revanche, la rétroaction d'instant en instant donnée sur la FTT n'est pas associée à un signal d'erreur de prédiction positif instantané. Au contraire, notre mise en œuvre de la FTT est similaire aux tâches motrices discontinues qui reposent sur le cervelet et peuvent donc ne pas bénéficier d'une rétroaction d'instant en instant 22 (mais voir aussi Galea, et al. 4 pour un compte rendu supplémentaire de l'apprentissage cérébelleux avec rétroaction). Enfin, bien que le contenu de l'information n'ait pas été intentionnellement manipulé, cette différence peut également modifier l'effet de la récompense et de la punition sur ces tâches.

Contrairement aux études précédentes, nous n'avons vu aucun avantage de la récompense pour la rétention 4,7,8,10. La plupart des études qui ont examiné la récompense et la punition dans l'apprentissage des compétences n'ont examiné que le rappel immédiat 4,8,10, et une seule étude a montré un avantage de la récompense pour la rétention à long terme d'une compétence motrice 7 . Dans leur étude, Abe, et al. 7 ont observé que les groupes de contrôle et de punition présentaient une diminution des performances après 30 jours par rapport à leur point de temps après l'entraînement. Surtout, Abe, et al. 7 a également constaté que le groupe de récompense a montré des gains hors ligne à partir du moment immédiat jusqu'à 24 heures après l'entraînement, et cet effet a persisté pendant 30 jours. Ainsi, alors que dans notre étude, le groupe de punition et de contrôle n'a pas mis en évidence d'oubli de 24 heures à 30 jours, limitant potentiellement notre sensibilité à l'effet de la récompense, le groupe de récompense de notre étude n'a pas non plus montré de gains hors ligne. En tant que tel, nous sommes convaincus que la récompense n'a pas eu d'impact sur la rétention.

Bien que cela n'ait pas été discuté en détail par Abe et ses collègues, leur groupe de punition a eu des performances nettement moins bonnes pendant la formation, ce qui suggère que la compétence n'a pas été apprise aussi efficacement par les participants de ce groupe. Therefore, it is unclear whether the difference in memory observed in their study can be attributed to a benefit of reward to consolidation or to ineffective acquisition when training with punishment. Our study design differed from the implementation used by Abe and colleagues 7 with respect to the input device (whole-hand grip force in our study, precision pinch force by Abe and colleagues), feedback timing, and trial duration. However, our result questions robustness of the finding that reward benefits skill retention. We maximized our design to be sensitive to differences in online-learning rather than retention, and future studies should examine other factors that influence the effect of feedback on retention of skill memories.

With respect to the SRTT, it is worth considering that our participants evidenced less sequence-specific learning than some others have found in unrewarded versions of this task, where the difference between sequence and random trials can be up to 80 ms 23,24,25 . However, there is considerable variability in the difference between sequence and random trials on the SRTT reported in the literature, and some groups have reported sequence-specific learning effects on the SRTT to be between 10 and 30 ms 26,27 . The difference reported after learning by the Control, Reward, and Punishment groups in our study is approximately equal to the difference for the rewarded group reported by Wachter, et al. 8 (

30 ms) and more than observed in their control and punishment groups. This is evidence of substantially less sequence-specific knowledge than we observed in our study, and we are therefore confident that participants were able to learn and express sequence-specific knowledge in all three feedback conditions.

Finally, we recognize that there are difficulties in comparing performance across tasks. Because the tasks used here vary in performance outcome (response time in the SRTT, tracking error in the FTT), comparing them in a quantitative way is not possible. However, the dissociation in the effect of punishment in these contexts provides compelling evidence that the effect does depend on task. Moreover, our study brings together the previously disparate literature examining the effects of reward and punishment on skill learning. This result shines light on the challenge of extrapolating from a single experiment in a specific context to a more general account of skill learning.

Overall, we have demonstrated that punishment modulates on-line performance in a task-specific manner and in our study we found that neither reward nor punishment modulates long-term retention of skill memories. These findings cast doubt on the commonly held hypothesis that reward is ubiquitously beneficial to memory, and, suggest that the interaction between feedback and learning should be better understood before feedback can be fully exploited in clinical situations.


Discussion

Across two experiments, we demonstrate robust framing effect in both the win and the loss domains. Framing influences choices in both domains: subjects are more risk averse in the positive frame and more risk seeking in the negative frame, both in the domain of wins and losses. Importantly, our ERP studies show that the initial evaluations of the positive and the negative frame differ within 300 ms in the win domain. However, in both ERP studies, we did not find significant ERP difference between the two differently valenced frames in the loss domain, even though behavioral framing effects were significant.

Our results lend some neural support to the prospect theory accounts of framing effect which posits that positive frames are encoded as gains whereas negative frames are encoded as losses, suggesting that the description invariance principle is indeed violated in the framing paradigm. Two descriptions, “keep �” and “lose �” when the initial amount is �, represented the identical option, but elicited distinct FRN and P300. The FRN was more negative for “lose �” than for “keep �” even though participants can easily reason that losing � out of � equals keeping �. According to the motivational accounts of the FRN which suggest that the FRN is sensitive to the valence of outcomes (Gehring and Willoughby, 2002), our data indicate that negative frames are encoded as losses whereas positive frames are encoded as gains in the win domain. The FRN effect cannot simply be explained by the valence of the words we used. For example, both words “keep” and “save” are positive but they elicited distinct FRNs. Moreover, previous studies using pleasant and unpleasant affectively valent words did not find differences in the FRNs in the time window between 200 and 300 ms post-stimuli (Kiehl et al., 1999 Bernat et al., 2001). Our results on P300 are also consistent with the view that the P300 is related to processes of attentional allocation and to high-level motivational/affective evaluation, being more positive for more positive stimuli (Olofsson et al., 2008). Thus, we provide direct neural evidence that the description invariance principle is violated and outcome evaluation depends on its representation. Our data favor the prospect theory account of framing to other theories that require deliberate reasoning.

It is surprising that the frame effect on FRN was only significant in the win domain but not in the loss domain. One possibility is that the negative frame in the win domain is encoded as “worse than expected” negative prediction error, whereas the positive frame in the loss domain is encoded as �tter than expected” positive prediction error, and the FRN is only sensitive to negative prediction error (Nieuwenhuis et al., 2004). It is possible that when the initial amount is a gain, “lose �” is encoded as a loss and produces a “worse than expected” negative prediction error. Previous studies have consistently shown that the FRN is sensitive to the negative prediction error (Holroyd et al., 2003, 2008, 2009 Holroyd and Krigolson, 2007). However, findings are mixed regarding whether the FRN is sensitive to the positive prediction error as well. Some studies have shown that the FRN is sensitive to the positive prediction error but with much smaller magnitude, compared with its sensitivity to the negative prediction error (Oliveira et al., 2007 Yu et al., 2011). Some studies found no effects of the positive prediction error on FRN amplitude (Holroyd et al., 2003 Krigolson and Holroyd, 2007 Bellebaum et al., 2010). It remains unclear why the ACC (or FRN amplitude) appears to be less responsive to the positive prediction error. A number of recent studies suggest that dopamine and serotonin neuromodulators contribute differentially to coding for outcomes in the win and the loss domain, respectively. For example, it has been shown that dopamine agonists affected choices in the gain domain (both neurally and behaviorally) but not the loss domain (Pessiglione et al., 2006). Genetic variation in tonic dopamine and serotonin levels modifies risk seeking in gain and loss domains, respectively (Zhong et al., 2009). Accordingly, given that the FRN is believed to reflect a dopaminergic signal, we should not be surprised to see that it only reflects negative prediction error. Recent ERP studies also showed no significant difference in the FRN for good and bad outcomes in the loss domain (Kreussel et al., 2012 Sambrook et al., 2012). A recent study demonstrated that size and probability of rewards modulate the FRN associated with wins but not losses (San Martin et al., 2010). This might be due to a separation of dopamine and serotonin coding functions in gain and loss domains. It is also possible that different sub-regions in dopaminergic midbrain and the striatum encode different types of prediction error and positive prediction error may not be sent to the ACC (Bayer and Glimcher, 2005 Pessiglione et al., 2006 Cohen et al., 2010). Our results contribute to a growing body of empirical evidence showing a greater modulation of the FRN for win feedback in comparison to loss feedback (Cohen et al., 2007 Holroyd et al., 2008 San Martin et al., 2010). Our findings, if replicated, suggest that different neural substrates may be involved in modulating framing effect in the win and the loss domain. Although previous neuroimaging studies focus on the framing effect in the win domain (De Martino et al., 2006 Roiser et al., 2009), the neural correlate of the framing effect in the loss domain is still unclear. There is accumulating evidence suggesting that the neural mechanisms underlying win and loss processing are different (Oɽoherty et al., 2001, 2003, 2006 Ullsperger and von Cramon, 2003 Kringelbach, 2005 Nieuwenhuis et al., 2005 Liu et al., 2007). Other neuroimaging methods (e.g., fMRI) are needed to further examine the neural basis of framing in the loss domain.

Previous neuroimaging studies on framing only focus on the decision stage. Using the similar economic decision-making paradigm, two studies compared choices in accordance with the framing effect and choices against the framing effect at the decision stage (De Martino et al., 2006 Roiser et al., 2009). These studies highlight the interplay between prefrontal cortex and amygdala in framing effect. The ACC is interpreted as exerting cognitive control over emotional response in amygdala. It has been shown that choices made counter to, relative to those made in accord with, the frame were associated with increased anterior cingulate𠄺mygdala coupling in individuals with homozygous for the long (la) allele at the 5-HTTLPR (Roiser et al., 2009). However, amygdala lesion patients did not show abnormal framing effect (Talmi et al., 2010), suggesting that the amygdala may not play a causal role in framing, although it contributes to decision making in framing. Our findings suggest that the ACC may not only contribute to framing effect by inhibiting amygdalar activity, but is also involved in the motivational evaluation of stimuli. Taken together, our findings suggest an important role of the ACC in framing.

Another two fMRI studies on framing effect used the Asian disease problem. One study compared risky choices with sure option choices and found that the cognitive effort required to select a sure gain was considerably lower than that required to choose a risky gain in the positive frame but not in the negative frame (Gonzalez et al., 2005). Activation in frontal, parietal areas differed between risky and certain choices, but only for the positive and not for the negative frame. Another study compared choices in the positive frame with choices in the negative frame and found that choices in the positive frame were associated with enhanced activity in inferior frontal gyrus, insula and parietal lobe (Zheng et al., 2010). No significantly increased neural activity for choices in the negative frame was reported. Our findings extend these studies by showing differential encoding of frame before decisions are made.

It is worth noting that both behavioral and neural responses to frame are different between the blocked design experiment (Experiment 1) and the mixed design experiment (Experiment 2), suggesting that our experimental manipulation did influence subjects' behavioral and brain responses. In Experiment 2, as Figure 2 shows, participants were generally more likely to gamble across conditions, compared with their probability of gambling in Experiment 1. When wins and losses were presented within a block, the contrast between wins and losses became salient. This may induce a general loss aversion tendency and the risk-seeking strategy to compensate loss aversion (i.e., gamble in the hope to keep all wins and avoid all losses). Moreover, in Experiment 2, the RTs for decisions in the win domain tended to be faster than the RTs in the loss domain (p = 0.087), in contrast with findings that there was no RT difference between domains in Experiment 1. It is possible that when win and loss domains are mixed, the switching between domains makes making decisions about losses more difficult. For the ERP results, as Figures 2, 3 shows, the ERP amplitudes were overall smaller in Experiment 2 than in Exp eriment 1. The results may be attributable to individual differences in these relatively small samples. Nevertheless, the main effects of frames remain significant and consistent across experiments, suggesting that our behavioral and ERP results are stable. It is important to notice that the loss-associated FRNs were not more negative than win-associated FRNs in the current study probably because that participants already received win/loss feedback in the “initial amounts” stage. Thus, information in the “sure amounts” stage does not provide additional information on the win/loss dimension. The FRN may respond more to the framing manipulation rather than to the already known win/loss dimension. Moreover, the ERP waveforms in Figures 2C,D show that in the loss domain, both negative and positive frames were coded as gains (i.e., they appear to be comparable in magnitude to the “win_positive” condition and the “win_negative” condition). In other words, when starting with an initial loss, it appears that both frames are coded as relatively advantageous outcomes. The ERP response here might be understood as the reward positivity to predictive cues (Holroyd et al., 2011). While FRN amplitude did not vary by frame valence in the loss domain, the fact that these two conditions appear to be coded as gains might be potentially meaningful. Future studies may further investigate this phenomenon.

Some limitations in our study are worth mentioning. First, although the ACC is generally believed to be the main generator of the FRN (Miltner et al., 1997 Gehring and Willoughby, 2002 Nieuwenhuis et al., 2004 Martin et al., 2009), our ERP studies did not provide direct evidence to link FRN amplitude with ACC activity. Other neuroimaging methods with high spatial resolution are needed to locate the source of FRN more precisely. Although it is widely believed that the FRN is generated in the ACC, recent studies show that the sources of the FRN might be widely distributed (Carlson et al., 2011 Foti et al., 2011). Second, although we provide evidence that framing influences the initial option evaluation processes, it is still unclear whether framing also influences the subsequent decision-making processes. The interactions among several brain regions may underlie the effects of framing at the decision stages, and these processes could be better examined using fMRI. Third, due to the poor spatial resolution of ERP, our studies are silent about the brain regions underlying the observed framing effects in the win and loss domains. Finally, the P300 results were inconsistent across the two experiments in our study, possibly due to the difference in the experimental design (blocked vs. mixed). Although not the focus of the current study, we also reported the P300 findings the sake of completeness. The functional significance of the P300 in reward processing is still under debate. More studies are needed to further elucidate the role of the P300 in assessing outcomes.

People make judgments based on their representations of events, rather than on the events themselves. Decision making is not description-invariant, as would be expected on a normative theory, and hence can change according to the representation that is provided. In prospect theory, it is the decision maker's private framing of the problem in terms of gains or losses that determines her evaluation of the options. Our findings demonstrate that framing influences decisions in both the win and the loss domains and provide neural evidence that the description invariance principle is violated in the framing effect.


Conclusion

The present study indicates that the behavioral and neural processing of positive and negative performance feedback is preserved in older adults. It was shown that positive performance feedback can serve as a reward in both older and younger adults. These results have important clinical implications for intervention studies aimed at improving cognitive performance in older adults. Whereas an extrinsic reward such as money would be unsuitable to use in cognitive training, performance feedback can easily be implemented in a training procedure. It has the additional benefit of being able to tap a neural mechanism that is in tact in older adults.


METHODS

Participants

Ten healthy right-handed volunteers were recruited from the Aston University student population (2 men, 8 women mean age ± Dakota du Sud = 21.67 ± 4.89 years). Volunteers were screened for a history of neurological or psychiatric disease and those scoring over 10 on the Beck Depression Inventory (Beck et al., 1961) were also excluded. The purpose and risks of the study were explained to all volunteers, who gave written informed consent to participate, as approved by Aston University Ethics Committee.

Experimental Design

Participants performed a spatial m-back working memory task. Stimuli were presented in blocks of 12 trials. Each block had a duration of 42.5 sec and began with the presentation of an instruction screen (4 sec) and ended with performance feedback (2 sec). Within a block, each trial started with a fixation spot (500 msec), displayed in the center of a background configuration of randomly arrayed letters. This was followed by the presentation of a square box with several instances of the same letter inside, in uppercase or lowercase font (250 msec) (Figure 1). The box with letters was superimposed on the background of randomly arrayed letters. The box contained one of six possible letters and appeared in one of six possible locations. During the 2300-msec intertrial interval, the background of randomly arrayed letters was displayed alone. Participants had to indicate whether the spatial location of the box was the same (“target”) or different (“nontarget”) from that displayed either one or three trials ago (1-back and 3-back) by pressing a button on a response box. In addition, participants performed a control task, a 0-back task, which required participants to simply match the spatial location of each box displayed with the box that had been presented in the very first trial of the block.

Schematic figure of the different events associated within a trial in the spatial m-back task. Each trial consisted of a fixation spot (500 msec) presented in the middle of randomly arrayed letters, followed by the presentation of a square box (250 msec), which also had randomly arrayed letters inside. The spatial location of the square box varied from trial to trial, and appeared in one of six locations. During the intertrial interval (2300 msec), the background of randomly arrayed letters was displayed alone. In this period, participants indicated whether the box location was the same (“target”) or different (“nontarget”) from that displayed either one or three trials ago (1-back or 3-back).

Schematic figure of the different events associated within a trial in the spatial m-back task. Each trial consisted of a fixation spot (500 msec) presented in the middle of randomly arrayed letters, followed by the presentation of a square box (250 msec), which also had randomly arrayed letters inside. The spatial location of the square box varied from trial to trial, and appeared in one of six locations. During the intertrial interval (2300 msec), the background of randomly arrayed letters was displayed alone. In this period, participants indicated whether the box location was the same (“target”) or different (“nontarget”) from that displayed either one or three trials ago (1-back or 3-back).

To examine the relative effects of reward and working memory on the PFC network, two orthogonal factors were manipulated in the m-back task: (1) memory load and (2) reinforcement. Memory load was manipulated by using two different levels of the m-back task with 1-back placing a low load and 3-back a high load. Les m-back task was performed in association with two different values of financial reward: 10p and £1. The task was also performed with no reinforcement present. The instruction screen prior to the start of each block displayed information regarding the type of task (0-back, 1-back or 3-back) and the rewarding value of the task (no money, 10p, or £1). The experiment was divided into five runs of eight blocks (one each of the six experimental conditions and two control blocks). Run order was counterbalanced among participants.

Participants were informed that during rewarded blocks each correct response to a target would result in winning the amount at stake however, each incorrect response to a target would result in losing that amount. Participants were also notified that they would receive the total amount won during the task at the end of the experiment. Average winnings were £13.50 (Dakota du Sud = ±5.37).

Image Acquisition and Analysis

fMRI was carried out on a 3-T Siemens Trio system at Aston University, using a T2*-weighted gradient-echo, echo-planar imaging sequence (TR = 3 sec, TE = 30 msec, flip angle = 90°, FOV = 25 × 25 cm, matrix size = 64 × 64).

The images consisted of 40 axial slices (angled at ∼20° away from the eyes, which allowed the slices to be angled away from the predominant direction of the intrinsic susceptibility-induced field gradients which can result in susceptibility and/or distortion artifacts in the ventral PFC). Similarly, the relatively low TE value (above) was chosen to decrease potential signal dropout, as this results in less phase dispersion across voxels at high field strengths. Slices were 3 mm thick (128 × 128 in-plane resolution). To allow equilibrium to reach steady state, two dummy volumes were collected before the start of each run (117 volumes) and discarded before analysis. T1-weighted scans were acquired for anatomical localization.

Analysis was performed using SPM2 (Wellcome Institute of Neurology, implemented in Matlab Mathworks, MA). Prior to model application, brain volumes from each participant were realigned to the first volume to correct for head motion. Functional images were then spatially normalized into a standard Montreal Neurological Institute (MNI) echo-planar imaging template. Following this, we applied spatial smoothing with an isotropic Gaussian kernel filter of 10-mm full width at half maximum to facilitate intersubject averaging. Data were analyzed with a random effects model. For every participant, a single mean contrast image was produced for each comparison. The set of voxel values for each contrast constituted a statistical parametric map of the t statistic [SPM(t)], which was then transformed to the unit normal distribution, SPM(Z). We thresholded the activations at a voxel threshold of p < .001, uncorrected, and accepted as significant those clusters that survived at p < .05, corrected for multiple comparisons for the entire brain. Because our main focus is on a prespecified network of regions outlined in the Introduction—the lateral PFC, the VMPFC, the fronto-polar cortex, the dACC, and the dorsal striatum—for these regions we report activations that survive an uncorrected threshold of p < .001, but are significant at p < .05 when a small volume correction (SVC) (based on a sphere of diameter 10 mm, centered on the peak coordinates Worsley et al., 1996) is applied. As SPM coordinates are given in MNI space, regions were identified by converting the coordinates to Talairach space with a nonlinear transform (Brett, Christoff, Cusack, & Lancaster, 2001).

FMRI Connectivity Analysis

PPI analysis allows the detection of interactions between brain regions in relation to a study paradigm, that is, the way in which activity in one brain region modulates activity in another region specifically in response to a cognitive/sensory process (in this case, for high memory load relative to low and for high rewards relative to low or no reward) (Friston et al., 1997).

Using SPM2, we extracted for each individual the deconvolved time course of activity from a sphere of 6 mm radius centered on the most significant voxels from the group analyses identified as reflecting changes in memory load and changes in motivation in the lateral PFC (BA 10, 46 and BA 44) and the subgenual cingulate (BA 25). An SPM was then computed for each individual that revealed areas where activation is predicted by the PPI term. The individual contrast images were then taken to the second level to perform a random effect analysis (using a one-sample t test). A stringent random effects model with a priori defined regions and a statistical threshold of p < .005 (uncorrected) was used, with an extent threshold of 7 voxels per cluster.

We also used a physiophysiological interaction analysis to examine how the interaction between lateral PFC and VMPFC regions varies with activation in the dACC and the caudate nucleus. This analysis focuses on the physiological interaction between two brain regions rather than the interaction between one brain region and the psychological impact of a task condition. We examined the effect of the interaction between the right lateral PFC and the right dACC and also between the right lateral PFC and the right caudate nucleus. Subject-specific time series were extracted for each of these three regions, centered on the most significantly active voxel from the group analysis.


Voir la vidéo: Studia Generalia Hyvän tiedon resepti: Tieteelliset mokat ja onnekkaat sattumat (Novembre 2021).