Informations

Les effets des IRM et autres appareils électromagnétiques sur la psychologie humaine ont-ils été étudiés ?

Les effets des IRM et autres appareils électromagnétiques sur la psychologie humaine ont-ils été étudiés ?

Quels sont les effets des IRM et autres appareils électromagnétiques sur le cerveau humain ? Naturellement, ils pourraient déplacer des métaux vers ou à travers la membrane des cellules cérébrales. Je peux aussi voir l'expérience d'être dans une position étrange, de méditer et d'essayer d'être aussi immobile que possible pendant une heure et demie, pourrait avoir un effet à long terme. Les effets des IRM et autres appareils électromagnétiques ont-ils été étudiés comparativement sur la psychologie humaine ou la neurologie ? Pourriez-vous également mentionner les aspects de santé mentale?


Oui, les effets des champs électromagnétiques sur le cerveau ont été largement étudiés, en particulier en ce qui concerne les téléphones portables, le WiFi et d'autres petits appareils qui émettent de tels champs. Les résultats sont généralement mitigés, mais le consensus général est que « cela dépend » - de la force du champ, de l'environnement, de la durée d'exposition, etc. - et la plupart des appareils grand public modernes fonctionnent à des niveaux bien inférieurs aux marges de sécurité.

Les effets des IRM sur la fonction cognitive ont été étudiés dans une certaine mesure, à partir des années 1990, au début de leur histoire. Les effets cognitifs les plus importants connus comprennent les étourdissements, les vertiges, la concentration et la conscience. La plupart de ces effets sont temporaires (limités au temps passé à l'intérieur de l'appareil d'IRM), ne se trouvent généralement que dans les IRM de haute intensité et nécessitent dans la plupart des cas un mouvement (le mouvement est théorisé pour induire un champ magnétique changeant).

Les effets à long terme de l'exposition aux IRM ne sont pas bien connus. Cependant, comme les IRM sont très couramment utilisées et font souvent partie intégrante des études sur la santé mentale et la fonction cognitive, leur sécurité est indirectement testée régulièrement. En tant que tel, il n'y a pas beaucoup d'élan pour mener une étude contrôlée à long terme. A noter également que les risques sanitaires liés à l'IRM ont tendance à être plus importants pour les opérateurs qui sont exposés de manière chronique, plutôt que pour les patients qui ne sont que brièvement exposés.

Pour votre cas, vous devriez connaître l'intensité du champ IRM utilisé : "la majorité des systèmes fonctionnent à 1,5T, les systèmes commerciaux sont disponibles entre 0,2T-7T.". La plupart des effets connus sur la fonction cognitive se retrouvent avec des IRM supérieures à 3T, qui sont relativement rares. Même si vous étiez à l'intérieur d'un appareil d'IRM particulièrement puissant, tant que vous restiez parfaitement immobile, aucune fluctuation significative du champ magnétique ne devrait se produire, et même si vous vous déplaciez, les effets sont temporaires.


4. Conclusion

De Flora et al. a écrit ce qui suit : « Depuis la fin du 20e siècle, les maladies dégénératives chroniques ont vaincu les maladies infectieuses en tant que principales causes de décès au 21e siècle, donc une augmentation de la longévité humaine dépendra de la recherche d'une intervention qui inhibe le développement de ces maladies et ralentit leur progression” [33].

Une telle intervention pourrait-elle se situer juste sous nos pieds ? La recherche sur la terre, les observations et les théories connexes soulèvent une possibilité intéressante concernant les électrons de surface de la Terre en tant que ressource de santé inexploitée. La Terre en tant que table de traitement globale. à l'intérieur connecté à des systèmes conducteurs mis à la terre peut être une stratégie environnementale simple, naturelle et pourtant profondément efficace contre le stress chronique, le dysfonctionnement du SNA, l'inflammation, la douleur, le manque de sommeil, la VRC perturbée, le sang hypercoagulable et de nombreux troubles de santé courants, y compris les maladies cardiovasculaires. Les recherches effectuées à ce jour soutiennent le concept selon lequel la mise à la terre ou la mise à la terre du corps humain peut être un élément essentiel de l'équation de la santé avec le soleil, l'air et l'eau purs, les aliments nutritifs et l'activité physique.


Les effets des IRM et autres appareils électromagnétiques sur la psychologie humaine ont-ils été étudiés ? - Psychologie

Cet article présente une revue systématique des études scientifiques publiées sur les effets écologiques potentiels des champs électromagnétiques radiofréquences (RF-EMF) dans la gamme de 10 MHz à 3,6 GHz (de la modulation d'amplitude, AM, aux micro-ondes de bande inférieure, MW, EMF).

Méthodes

Les publications en anglais ont été recherchées dans ISI Web of Knowledge et Scholar Google sans restriction de date de publication. Cinq groupes d'espèces ont été identifiés : oiseaux, insectes, autres vertébrés, autres organismes et plantes. Non seulement des articles écologiques clairs, tels que des études sur le terrain, ont été pris en considération, mais également des articles biologiques sur des études de laboratoire étudiant les effets des RF-EMF avec des paramètres biologiques tels que la fertilité, la reproduction, le comportement et le développement, qui ont une signification écologique claire, ont également été inclus.

Résultats

Les informations ont été recueillies à partir de 113 études à partir de publications originales évaluées par des pairs ou de revues existantes pertinentes. Un nombre limité d'études écologiques sur le terrain a été identifié. La majorité des études ont été menées en laboratoire sur des oiseaux (embryons ou œufs), de petits rongeurs et des plantes. Dans 65 % des études, des effets écologiques des RF-EMF (50 % des études sur les animaux et environ 75 % des études sur les plantes) ont été trouvés à la fois à des doses élevées et faibles. Aucune relation dose-effet claire n'a pu être discernée. Les études trouvant un effet appliquaient des durées d'exposition plus longues et se concentraient davantage sur les gammes de fréquences GSM.

Conclusion

Dans environ deux tiers des études examinées, les effets écologiques des RF-EMF ont été signalés à des doses élevées et faibles. Les dosages très faibles sont compatibles avec des situations réelles de terrain, et pourraient être trouvés dans des conditions environnementales. Cependant, un manque de standardisation et un nombre limité d'observations limitent la possibilité de généraliser les résultats d'un organisme à un écosystème. Nous proposons dans les études futures de mener plus de répétitions d'observations et d'utiliser explicitement les normes disponibles pour rapporter les paramètres physiques RF-EMF pertinents dans les études en laboratoire et sur le terrain.

Points forts

► La littérature scientifique a été examinée à la recherche d'articles sur les effets écologiques des RF-EMF. ► Les RF-EMF ont eu un effet significatif sur les oiseaux, les insectes, les autres vertébrés, les autres organismes et les plantes dans 70 % des études. ► Le développement et la reproduction des oiseaux et des insectes sont les paramètres les plus fortement touchés. ► Il y a un manque d'études de terrain et écologiques sur les populations et l'interaction des espèces. ► Il est urgent de répéter les études sur les effets et les enquêtes sur les effets sur les écosystèmes.


Recherche avec des volontaires humains

  • Une méthode appelée «microdosage» peut fournir des informations vitales sur la sécurité d'un médicament expérimental et sur la façon dont il est métabolisé chez l'homme avant les essais humains à grande échelle. Les volontaires reçoivent une dose unique de médicament extrêmement faible et des techniques d'imagerie sophistiquées sont utilisées pour surveiller le comportement du médicament dans le corps. Le microdosage peut remplacer certains tests sur les animaux et aider à éliminer les composés médicamenteux qui ne fonctionneront pas chez l'homme afin qu'ils ne soient jamais testés sur les animaux.
  • Des techniques avancées d'imagerie et d'enregistrement du cerveau, telles que l'imagerie par résonance magnétique fonctionnelle (IRMf), avec des volontaires humains peuvent être utilisées pour remplacer les expériences archaïques dans lesquelles le cerveau des rats, des chats et des singes est endommagé. Ces techniques modernes permettent d'étudier en toute sécurité le cerveau humain jusqu'au niveau d'un seul neurone (comme dans le cas de l'électroencéphalographie intracrânienne), et les chercheurs peuvent même induire temporairement et de manière réversible des troubles cérébraux en utilisant la stimulation magnétique transcrânienne.

Pointe Sébastien

Le syndrome d'électrohypersensibilité peut avoir peu à voir avec l'exposition réelle au rayonnement électromagnétique. Il peut plutôt être mieux compris comme une phobie expliquée par des mécanismes de trouble anxieux.

Le développement des technologies de communication (telles que les téléphones portables et autres appareils sans fil) a été suivi au cours des vingt dernières années avec l'apparition d'un nouveau syndrome d'électrohypersensibilité (EHS) auto-évalué, que certaines personnes, y compris certains médecins, attribuent à une exposition permanente à de faibles niveaux de rayonnement électromagnétique domestique. Le syndrome EHS n'est pas la seule préoccupation potentielle soulevée par les personnes préoccupées par les effets des rayonnements électromagnétiques sur la cognition, le sommeil et l'initiation ou la croissance des tumeurs, sans preuves scientifiques convaincantes ni propositions satisfaisantes concernant les mécanismes biologiques potentiels. Mais jusqu'à présent, le syndrome EHS (souvent appelé hypersensibilité électromagnétique) semble avoir concerné les effets supposés sur la santé de l'exposition aux rayonnements électromagnétiques. Certaines études (Hallberg et Oberfeld 2006 Eltiti et al. 2007 Schröttner et Leitgeb 2008) ont tenté de dénombrer les personnes affectées par l'EHS, ce qui est une tâche difficile en raison de l'absence de description médicale du syndrome EHS. Les résultats de ces études sont présentés dans la figure 1. Une tendance continue à la hausse est observée dans les autodiagnostics EHS entre 1985 et 2005, bien que les dernières études suggèrent une diminution.

Figure 1 : Pourcentage d'individus EHS dans la population tel que mesuré dans différents pays européens entre 1985 et 2008 (adapté de Bellayer 2016).

Face aux nombreuses allégations concernant les effets néfastes sur la santé des rayonnements électromagnétiques en général et du syndrome EHS en particulier, l'Agence française de sécurité sanitaire de l'alimentation, de l'environnement et du travail (ANSES) a souligné dans son rapport 2018 la nécessité de prendre soin des personnes souffrant du syndrome EHS, bien qu'il n'ait pas reconnu la relation causale entre les rayonnements électromagnétiques et le syndrome EHS (Anses 2018). Parallèlement, depuis quelques années, un nombre croissant de décisions de justice ont reconnu le droit des personnes atteintes du syndrome EHS de refuser les technologies sans fil pour des raisons médicales, et certains juges ont décidé une relation causale entre le rayonnement électromagnétique et le syndrome EHS. Les médias de masse s'intéressent également au problème, et il est facile de trouver de nombreux témoignages en ligne de personnes souffrant du syndrome EHS.

Les scientifiques ont tenté de clarifier la nature de ce syndrome EHS et de vérifier la réalité de la relation présumée avec l'exposition aux rayonnements électromagnétiques. Dans cet article, je résumerai les résultats produits par les études de provocation et partagerai mon point de vue selon lequel l'étiologie du syndrome EHS n'est pas liée à une exposition réelle au rayonnement électromagnétique. Au lieu de cela, un trouble de type phobie devrait être étudié comme explication possible du syndrome EHS.

Études de provocation

Les effets biologiques des rayonnements électromagnétiques sont pris en compte par des normes normatives basées sur les déclarations de la Commission internationale de protection contre les rayonnements non ionisants (ICNIRP) (ICNIRP 1998). Les limites d'exposition normatives visent à protéger les personnes contre de fortes doses de rayonnement électromagnétique, qui peuvent entraîner des effets électriques ou thermiques (ou les deux) selon la fréquence de rayonnement. En effet, les courants induits ou l'élévation de température sont les seuls effets biologiques néfastes avérés associés à une exposition aiguë aux rayonnements électromagnétiques (Perrin et Souques 2012). En Europe, la directive 2013/35/UE a été créée pour protéger les travailleurs contre l'exposition à des conditions susceptibles de générer de tels effets. Cependant, le syndrome EHS apparaîtrait lorsque les personnes sont exposées à bas niveaux de rayonnement électromagnétique.

Une étude ou un essai de provocation est une forme d'essai clinique médical fréquemment utilisée dans ce domaine. Les participants sont exposés à une substance ou à un appareil censé provoquer une réponse ou à une substance ou un appareil fictif qui ne devrait provoquer aucune réponse. Plusieurs études de provocation ont été menées pour tenter de révéler une relation potentielle entre l'exposition aux rayonnements électromagnétiques à de faibles niveaux et le syndrome EHS. Le postulat est assez simple : comme les personnes EHS prétendent souffrir de divers symptômes lorsqu'elles sont exposées aux rayonnements électromagnétiques, des expérimentations devraient pouvoir examiner le phénomène en comparant le niveau d'inconfort des personnes EHS en fonction des conditions d'exposition mesurées par rapport à une population témoin. De telles études doivent traiter un effet potentiel de faible dose, ce qui rend les expériences sensibles aux variables confuses. Ainsi, pour être utilisables, de telles expériences doivent au moins être en simple aveugle et si possible en double aveugle, randomisées et contrebalancées.

Plusieurs auteurs ont tenté de créer de telles expériences. Une analyse complète et pertinente de ces études de provocation a été réalisée par E. van Rongen et ses collègues (2009), qui concluent que dans les études de provocation, une relation causale entre l'exposition aux rayonnements électromagnétiques et les symptômes « n'a pas été démontrée, ce qui suggère que des facteurs psychologiques tels que l'attente consciente de l'effet peut jouer un rôle important dans cette condition. Cette conclusion est partagée par Renáta Szemerszky et ses collègues (2010), qui ont étudié le rôle de l'effet nocebo dans les symptômes physiques rapportés à une fréquence de 50 hertz. Ils ont trouvé un effet nocebo considérable et noté la formation d'un « cercle vicieux de facteurs psychosociaux, tels qu'une perception accrue du risque et des attentes, l'autosurveillance, la somatisation et l'amplification somatosensorielle, la précarisation et la mauvaise attribution ».

Une approche cognitive

D'une part, les études de provocation n'ont pas réussi à déterminer une relation causale avec l'exposition à de faibles niveaux de rayonnement électromagnétique, et il n'y a pas de candidat sérieux pour un mécanisme biologique. D'autre part, les résultats de certaines études montrent un nombre important de personnes déclarant souffrir du syndrome EHS. Ces constats contradictoires appellent une nouvelle voie d'investigation. Comme suggéré par certains auteurs, une étiologie possible est psychologique. Je suggère un mécanisme cognitif pour expliquer le syndrome EHS comme une forme potentielle de phobie dans laquelle le biais de confirmation pourrait avoir un rôle central. Une vue de ma proposition de mécanisme est illustrée à la figure 2. La justification et l'hypothèse utilisées pour le construire sont discutées ci-dessous.

Vulnérabilité biologique

La symptomatologie anxieuse a été décrite comme étant sous l'influence de certains facteurs génétiques (Jardine et al. 1984 Kendler et al. 1992 Andrews 1996). En étudiant l'étiologie de la phobie sociale, Ronald M. Rapee et Richard G. Heimberg (1997) ont suggéré que des facteurs génétiques pourraient expliquer l'attribution préférentielle de l'attention au danger. Le rôle du facteur biologique a été intégré dans de nombreux modèles d'anxiété, y compris le modèle biopsychosocial de Jones et Barlow de stress post-traumatique (Jones et Barlow 1992) et le modèle de panique de Clark (Clark 1986). Dans ce dernier modèle, les personnes souffrant de troubles paniques sont excessivement sensibles à certaines perceptions corporelles normales ou pathologiques, qu'elles considèrent comme une menace catastrophique et qui peuvent déclencher une attaque de panique. La manifestation biologique de cette attaque de panique peut amplifier la perception de la menace. Certains résultats récents ont montré que cette vulnérabilité biologique aux troubles anxieux, dont la dépression et le stress post-traumatique, pourrait être liée au volume des hippocampes (Campbell et MacQueen 2004 Bremner et al. 1995). La théorie largement acceptée de l'anxiété par Jeffrey A. Gray et Neil McNaughton (2003) souligne également le rôle principal des hippocampes dans les comportements anxieux. Mais certaines études suggèrent que l'évolution du volume hippocampique n'est pas le résultat d'une anxiété, d'un traumatisme ou d'une dépression mais serait, au contraire, un facteur causal (Gilbertson et al. 2002). La vulnérabilité biologique et l'allocation préférentielle de son attention à la menace sont acceptées comme l'une des bases du développement des troubles anxieux. Pour considérer le syndrome EHS comme une forme de phobie, il faut faire l'hypothèse fondamentale que les individus EHS sont porteurs, avant l'apparition des symptômes, de ce type de vulnérabilité biologique..

Exposition alléguée en tant que stimulus neutre et représentation mentale des troubles de la santé

Les troubles anxieux sont souvent associés à un stimulus neutre, tel qu'il est compris dans une approche pavlovienne. Si le syndrome EHS est une phobie, une exposition présumée au rayonnement électromagnétique pourrait jouer le rôle de stimulus neutre. De mon point de vue, plusieurs indices appuient cette hypothèse.

Comme l'ont démontré les études de provocation, les personnes, y compris celles qui prétendent être atteintes du syndrome EHS, ne sont pas en mesure de détecter les rayonnements électromagnétiques à des niveaux domestiques faibles. Comme le rayonnement électromagnétique de radiofréquence de faible intensité n'est ni visible ni détectable, l'exposition ne peut être déduite que sur la base d'indices tels que la proximité de téléphones portables ou d'antennes. Pourtant, certaines recherches ont montré une forte relation entre la perte de contrôle perçu et les troubles anxieux (Gallagher et al. 2014). L'exposition au rayonnement électromagnétique pourrait être un stimulus neutre alimenté par le sentiment que la personne n'a aucun contrôle sur cette exposition.

Les médias d'information se concentrent de plus en plus sur les effets potentiels des rayonnements électromagnétiques, en particulier avec le déploiement actuel de la technologie 5G. Ce traitement médiatique pourrait inciter les personnes à se concentrer sur les téléphones portables, les antennes ou les émetteurs de radiofréquences existant dans leur environnement et sur les perceptions physiques lorsque ces personnes les rencontrent ou les utilisent. Une telle hypothèse est étayée par des résultats récents, en particulier ceux d'Anne-Kathrin Bräsher et ses collègues (2017), qui ont montré que des informations inquiétantes sur les effets du wifi sur la santé augmentent l'inconfort lors d'une exposition fictive, elles augmentent également la sensibilité aux stimuli tactiles. Dans leurs études, Michael Witthöft et G. James Rubin (2013) ont conclu que « les reportages des médias sur les effets néfastes de substances soi-disant dangereuses peuvent augmenter la probabilité de ressentir des symptômes après une exposition fictive et de développer une sensibilité apparente à celle-ci ».

Les symptômes revendiqués par les individus EHS sont divers et non spécifiques. Selon Marjukka Hagström et ses collègues (2013), les symptômes les plus courants sont le « stress » (60,3 %), les « troubles du sommeil » (59,3 %) et la « fatigue » (57,2 %). Ces symptômes sont compatibles avec les troubles anxieux, qui peuvent affecter les organes, les glandes et le système nerveux. Dans une approche cognitive, au lieu de considérer l'anxiété (et tous les symptômes potentiels associés) comme une conséquence collatérale de toute électrosensibilité réelle, tous ces symptômes pourraient être considérés comme existant avant l'apparition du syndrome EHS (résultant d'une vulnérabilité biologique) et étant récemment associé à un stimulus neutre (l'exposition présumée au rayonnement électromagnétique).

Il a été démontré que réduire ou éviter les rayonnements électromagnétiques peut aider les personnes souffrant du syndrome EHS à retrouver un meilleur niveau de confort (Hagström et al. 2013). De tels comportements d'évitement et un gain de bien-être immédiat sont généralement observés dans les troubles anxieux ou paniques. Alternativement, pour le cas des individus EHS, certains objets contre-phobiques peuvent être achetés, tels que des puces anti-rayonnement appliquées aux téléphones portables pour prétendument réduire leur émission. niveau.Suite à de tels comportements d'évitement ou de défense, la diminution de l'inconfort pourrait servir de confirmation que la source de l'inconfort était liée au rayonnement électromagnétique. Cela renforcerait peut-être la croyance des individus EHS dans les effets néfastes des rayonnements électromagnétiques sur la santé.

Il est également bien admis que les individus anxieux consacrent leur attention à la menace (Dalgleish et Watts 1990), ce qui pourrait être une stratégie évolutive pour protéger l'organisme (Ohman 1996). Considérant le syndrome EHS comme un trouble anxieux, cette focalisation attentionnelle sur les perceptions physiques, liée à la croyance que le sujet est exposé et que cette exposition peut entraîner des effets néfastes sur la santé, pourrait amplifier et renforcer la croyance en une menace réelle.

Le mécanisme de rétroaction que j'ai exploré ici (renforcement de la croyance par la focalisation attentionnelle sur les symptômes et les bons résultats de la stratégie d'évitement) pourrait faire entrer les individus EHS dans une boucle de peur dont le moteur principal est le biais de confirmation.

Figure 2 : Modèle théorique possible du syndrome EHS considéré comme un trouble anxieux.

Conclusion

La science n'a pas démontré de relation causale entre l'exposition réelle aux rayonnements électromagnétiques et le syndrome EHS. Il y a, cependant, une accumulation croissante de preuves que le syndrome EHS est lié à des facteurs psychologiques. J'ai proposé que le syndrome EHS pourrait être une forme de phobie expliquée par des mécanismes se produisant dans d'autres troubles anxieux. La vulnérabilité biologique à l'anxiété - existant avant l'apparition du syndrome EHS - amènerait les gens à confondre les symptômes d'anxiété avec un effet biologique du rayonnement électromagnétique. Une exposition présumée au rayonnement électromagnétique jouerait le rôle de stimulus neutre. Enfin, le biais de confirmation, basé sur la concentration attentionnelle et les stratégies d'évitement, pousserait les gens encore plus profondément dans leur croyance.

Les chercheurs devraient maintenant arrêter (ou du moins réduire leurs efforts) d'essayer de trouver un lien de moins en moins plausible entre le syndrome EHS et le rayonnement électromagnétique et plutôt concentrer leurs travaux sur la compréhension plus précise des mécanismes poussant les gens à croire à tort que les ménages, les faibles les niveaux de rayonnement électromagnétique sont délétères. Les chercheurs devraient trouver un moyen d'aider ces personnes en diminuant l'anxiété et l'inconfort grâce à des techniques de thérapie cognitivo-comportementale adaptées.


Imagerie cérébrale avec magnétoencéphalographie pendant le repos et pendant le traitement de la parole et du langage

Modèles inverses pour reconstruire l'activité cérébrale à partir de mesures

Des algorithmes inverses sont utilisés pour résoudre le problème inverse bioélectromagnétique, c'est-à-dire estimer les paramètres du modèle de source neuronale à partir de mesures MEG et EEG obtenues à l'extérieur de la tête humaine. Étant donné que les distributions des sources sont intrinsèquement quadridimensionnelles (trois dans l'espace et une dans le temps) et que seules quelques mesures sont effectuées à l'extérieur de la tête, l'estimation est mal posée en d'autres termes, il n'y a pas de solutions uniques pour un ensemble donné de mesures. Pour contourner ce problème de non-unicité, diverses procédures d'estimation intègrent des connaissances et des contraintes préalables sur les caractéristiques de la source, telles que les emplacements possibles de la source, l'étendue spatiale de la source, le nombre total de sources ou les caractéristiques source-fréquence/temps-fréquence.

Les algorithmes inverses peuvent être classés en deux grandes catégories : l'ajustement paramétrique du dipôle et les méthodes d'imagerie tomographique. Les méthodes d'ajustement de dipôles paramétriques supposent qu'un petit ensemble de dipôles de courant (généralement deux à cinq) peut représenter de manière adéquate une distribution de source inconnue. Dans ce cas, les emplacements et les moments des dipôles forment un ensemble de paramètres inconnus qui sont généralement trouvés à l'aide d'un ajustement non linéaire des moindres carrés ou d'algorithmes de classification de signaux multiples ou de méthodes d'estimation du maximum de vraisemblance (Mosher, Baillet, & Leahy, 1999). L'ajustement paramétrique du dipôle a été utilisé avec succès en clinique pour la localisation des réponses sensorielles précoces dans les cortex somatosensoriel et auditif. La Fig. 15.2 montre un exemple de localisation paramétrique de dipôle dans le contexte de réponses évoquées auditives et montre que les réponses aux pics auditifs précoces peuvent souvent être localisées à une activité provenant d'une source située dans le plan temporal supérieur, du cortex auditif et de son environs. Cependant, la localisation des fonctions corticales auditives d'ordre supérieur n'est pas toujours cohérente et fiable avec ces méthodes à travers les paradigmes ou les sujets.

Graphique 15.2 . (A) Réponses évoquées auditivement à un train de tonalités se produisant à 200 ms d'intervalle. Les formes d'onde bleues correspondent à l'hémisphère droit et les formes d'onde violettes correspondent à l'hémisphère gauche. La topographie du champ magnétique sur le réseau de capteurs est représentée par des cercles colorés ci-dessus pour les quatre premières réponses de pic. (B) Amplitude et latences des quatre premiers pics de réponse montrant des similitudes hémisphériques dans la latence et les amplitudes. (C) La localisation dipolaire de chacun des quatre pics montre une activité provenant du cortex auditif et de ses environs immédiats.

Tiré de Hairston, I. S., &amp Nagarajan, S. S. (2007). Mécanismes neuronaux de l'erreur d'ordre temporel : une étude MEG. Journal des neurosciences cognitives, 19, 1163–1174.

Deux problèmes majeurs existent dans les procédures d'ajustement des dipôles. Premièrement, en raison de l'optimisation non linéaire, il existe des problèmes de minima locaux lorsque plus de deux paramètres dipolaires sont estimés. Cela se manifeste généralement par une sensibilité à l'initialisation, et une certaine subjectivité est impliquée dans l'évaluation de la validité des solutions. Les méthodes de recherche par force brute ont une charge de calcul énorme - exponentielle dans le nombre de paramètres. Un deuxième problème, plus difficile, des méthodes paramétriques est que ces méthodes nécessitent souvent une connaissance a priori du nombre de dipôles. Cependant, de telles informations sur l'ordre des modèles ne sont pas toujours connues a priori, en particulier pour les conditions complexes de cartographie cérébrale. Bien que des critères théoriques d'information et de décision aient été proposés pour résoudre ce problème, le succès de ces approches n'est actuellement pas clair, en particulier dans des ensembles de données réels. Alors que les méthodes dipolaires paramétriques sont idéales pour les sources ponctuelles ou focales, elles fonctionnent mal pour les grappes de sources distribuées. Néanmoins, de nombreuses études à ce jour utilisant MEG ont utilisé des procédures d'ajustement de dipôle pour faire des inférences sur l'activité corticale.

L'imagerie tomographique est une approche alternative au problème inverse. Ces méthodes imposent des contraintes sur les emplacements des sources basées sur des informations anatomiques et physiologiques qui peuvent être dérivées d'informations obtenues avec d'autres modalités d'imagerie. L'IRM anatomique offre une excellente résolution spatiale de l'anatomie de la tête et du cerveau, tandis que les techniques d'IRMf fournissent une mesure alternative de l'activation neurale basée sur les changements hémodynamiques associés. En raison du degré élevé de chevauchement des activités mesuré à l'aide de modalités multiples, ces informations peuvent être utilisées pour améliorer les solutions au problème inverse. Si nous supposons que les sources dominantes sont les courants transmembranaires et intracellulaires dans les dendrites apicales des cellules pyramidales corticales, l'image source peut être limitée au cortex, qui peut être extrait d'une IRM de volume enregistrée de la tête du sujet. De plus, l'orientation des cellules normales à la surface corticale peut être utilisée pour contraindre l'orientation des sources de courant corticales. En quadrillant le cortex en régions disjointes et en représentant les sources dans chaque région par un dipôle de courant équivalent orienté perpendiculairement à la surface, le modèle direct reliant les sources et les mesures peut être écrit comme un modèle linéaire avec un bruit additif. Une telle formulation transforme le problème inverse en une méthode d'imagerie linéaire car elle implique l'estimation de l'activité électrique à des emplacements discrets sur une grille de reconstruction finement échantillonnée basée sur des mesures discrètes. Ce problème d'imagerie, bien que linéaire, est également très mal posé en raison du nombre limité de mesures de capteurs disponibles par rapport au nombre d'éléments utilisés dans la grille de tessellation.

Diverses solutions ont été proposées pour résoudre le problème de l'imagerie tomographique, et comme il y a beaucoup plus d'inconnues à estimer simultanément (amplitude de la source et évolutions temporelles) qu'il n'y a de données de capteurs, le problème est indéterminé.

Au lieu d'estimer simultanément toutes les sources, une alternative populaire consiste à scanner le cerveau et à estimer l'amplitude de la source à chaque emplacement de source indépendamment. Il peut être démontré que de telles méthodes de balayage sont étroitement liées aux méthodes de tomographie du cerveau entier, et les algorithmes de balayage les plus populaires sont des techniques de filtrage spatial adaptatif, plus communément appelées « formateurs de faisceaux adaptatifs », ou simplement « formateurs de faisceaux » (Sekihara & Nagarajan, 2008).

Les formateurs de faisceaux adaptatifs se sont avérés simples à mettre en œuvre et constituent des techniques puissantes pour caractériser les oscillations corticales et sont étroitement liés à d'autres méthodes d'imagerie tomographique. Cependant, un problème majeur avec les formateurs de faisceaux adaptatifs est qu'ils sont extrêmement sensibles à la présence de sources fortement corrélées. Bien qu'ils soient robustes à des corrélations modérées, dans le cas des études auditives, parce que les cortex auditifs sont en grande partie synchrones dans leur activité à travers les deux hémisphères, ces algorithmes ont tendance à mal fonctionner pour les ensembles de données évoquées auditives sans solution de contournement ( Fig. 15.5 ), et de nombreuses modifications ont été proposées pour réduire l'influence des sources corrélées ( Dalal, Sekihara, & Nagarajan, 2006 ). La solution de contournement la plus simple consiste à utiliser séparément la moitié des capteurs correspondant à chaque hémisphère, et cette approche fonctionne étonnamment bien pour les interactions inter-hémisphériques. D'autres modifications aux algorithmes originaux ont été proposées dans la littérature, qui nécessitent une certaine connaissance de l'emplacement de la région source corrélée ( Dalal et al., 2006 Quraan & Cheyne, 2010 ).

De nombreux algorithmes ont également été proposés pour l'estimation simultanée de toutes les amplitudes de source, et de telles solutions nécessitent la spécification de connaissances préalables sur les sources, implicitement ou explicitement spécifiées sous la forme de distributions de probabilité. Dans ces cas, les solutions nécessitent souvent une procédure d'inférence bayésienne pour estimer certains aspects de la distribution a posteriori compte tenu des données et des a priori. Nous avons montré que les nombreux algorithmes apparemment disparates pour l'imagerie de source tomographique peuvent être unifiés et montrés, dans certains cas, équivalents, en utilisant un cadre de modélisation bayésien hiérarchique avec une forme générale de distribution a priori (appelée mélange à l'échelle gaussienne) et deux types différents de calculs inférentiels. procédures ( Wipf & Nagarajan, 2008 ). Ces connaissances permettent le développement continu de nouveaux algorithmes pour l'imagerie tomographique en relation avec les efforts antérieurs dans cette entreprise. Des algorithmes ont montré que des améliorations significatives des performances peuvent être obtenues par des méthodes d'inférence bayésiennes modernes qui permettent des reconstructions précises d'un grand nombre de sources à partir de configurations typiques de capteurs MEG ( Wipf, Owen, Attias, Sekihara, & Nagarajan, 2010 Zumer, Attias, Sekihara, & Nagarajan, 2007, 2008). La figure 15.3 montre des reconstructions de sources de réponses évoquées auditivement à l'aide d'un de ces nouveaux algorithme, appelé Champagne, ainsi que des reconstructions à partir d'algorithmes de référence populaires pour des comparaisons qui mettent en évidence des localisations incohérentes, une résolution spatiale plus faible et une sensibilité aux sources corrélées et au bruit.

Graphique 15.3 . Résultats du champ auditif évoqué pour sept sujets différents. Les résultats de Champagne (CHAM P) sont affichés dans la colonne la plus à gauche et les résultats des algorithmes de référence (formateurs de faisceaux adaptatifs à variance minimale (MVA B), sLORETA (SL/dSP M) et MCE) sont affichés dans les trois autres colonnes. Seul le Champagne montre une localisation cohérente des cortex auditifs dans les deux hémisphères pour tous les sujets.


Modélisation du temps de réponse de l'effet de l'environnement du scanner

Les trois expériences ont affiché des réponses ralenties en raison de l'environnement IRM, mais seule l'expérience 3 a montré des taux d'erreur accrus. Par conséquent, sur la base des RT corrects moyens et des taux d'erreur, l'explication candidate la plus probable de ces effets est le compte de foyer attentionnel. Parce que le compte de foyer attentionnel suppose que le stress induit par le scanner IRM détourne l'attention du stimulus impératif, les réponses ralentissent et deviennent plus sujettes aux erreurs. L'une des raisons pour lesquelles cet effet de précision n'est pas observé dans les expériences 1 et 2 pourrait être qu'un autre mécanisme contrecarre l'augmentation des réponses erronées. C'est-à-dire que si les participants sont moins concentrés, ils pourraient réagir à la détérioration potentielle du comportement avec une augmentation de la prudence de réponse. En termes de modèle LBA, cela signifie une augmentation du paramètre de seuil.

Cette hypothèse est examinée à l'aide d'une modélisation LBA formelle des distributions RT pour les réponses correctes et erronées et les taux d'erreur. Tout d'abord, nous présentons notre approche générale pour obtenir le meilleur ensemble de paramètres de modèle (en termes de différentes manières d'égaliser les paramètres selon les conditions). Ensuite, nous présentons les résultats de cette analyse et ce que cela signifie pour les estimations des paramètres.

Méthodes

Pour chaque expérience, nous avons défini le mannequin comme modèle dans lequel tous les paramètres pouvaient varier d'une session à l'autre (comportement et IRM, certaines exceptions sont discutées ci-dessous). De plus, les meilleurs modèles ne permettaient que la variation de ces paramètres dans d'autres conditions expérimentales pour lesquelles il existe un consensus dans la littérature. Par exemple, pour tenir compte du repérage directionnel dans l'expérience 1, nous avons permis au paramètre de seuil dans LBA de varier entre les alternatives de réponse (cf. Forstmann et al., 2010. Ce paramètre permet une différence dans la quantité de preuves requises pour une réponse entre les options de choix, similaire à la différence de probabilité a priori induite dans l'expérience 1.

En utilisant le modèle supérieur, nous avons généré une hiérarchie de modèles de modèles plus simples (Heathcote & amp Love, 2012). C'est-à-dire que nous avons généré tous les modèles possibles contenant moins de paramètres libres en fixant un paramètre dans toutes les conditions. Ainsi, les modèles les plus simples qui ont été ajustés estiment les mêmes paramètres de chaque type pour toutes les conditions. Les valeurs de paramètres les mieux ajustées des modèles les plus simples ont été utilisées comme estimations initiales pour les modèles plus complexes. De cette façon, nous réduisons l'impact des minima locaux dans l'espace des paramètres. Les modèles ont été ajustés en utilisant le maximum de vraisemblance (Donkin, Brown, & Heathcote, 2011).

Le meilleur modèle parmi les participants a été déterminé à l'aide de l'AIC (Akaike, 1974). L'AIC est une mesure qui équilibre l'ajustement d'un modèle avec le nombre de paramètres libres. Le nombre de paramètres libres est une approximation de la complexité du modèle, car les modèles avec plus de paramètres sont intrinsèquement plus flexibles. Pour cette raison, dans une hiérarchie de modèles, des modèles plus complexes s'adaptent nécessairement mieux (par exemple, Collyer, 1985 Myung & Pitt, 1997). Ainsi, l'AIC permet de déduire quel paramètre doit être maintenu libre dans les conditions expérimentales et quels paramètres ne le doivent pas. Pour déterminer le meilleur modèle, nous avons additionné le score AIC des participants individuels et calculé les poids AIC de chaque modèle (Wagenmakers & Farrell, 2004). Cela reflète la probabilité qu'un modèle particulier soit le meilleur modèle de l'ensemble de modèles ajustés (étant donné les données).

En plus de l'AIC, nous avons également calculé les critères d'information bayésiens (BIC Schwarz, 1978). Le BIC est généralement plus prudent que l'AIC en ce qui concerne la complexité du modèle. Cela a également été observé dans nos comparaisons de modèles, néanmoins, les résultats des analyses BIC concordaient généralement avec les analyses AIC. Pour cette raison, nous concentrons notre analyse sur les résultats basés sur l'AIC et ne mentionnerons que brièvement les écarts par rapport à ceux-ci selon BIC.

Nous avons effectué une analyse bayésienne de la variance, similaire aux analyses sur les données comportementales, sur les paramètres du top model. Cette analyse nous permet de déduire si un paramètre était libre en raison des différences dues aux manipulations expérimentales, ou si les différences individuelles entre les participants ont forcé la sélection du modèle AIC à autoriser un paramètre libre, même si la variance dans les estimations n'est pas systématique par rapport aux conditions. . Les estimations de paramètres utilisées dans cette analyse étaient une moyenne pondérée des estimations de toutes les différentes paramétrisations de modèle que nous avons ajustées obtenues en utilisant la moyenne du modèle (Hoeting, Madigan, Raftery, & Volinsky, 1999 Raftery, 1995). Nous aurions pu d'abord sélectionner un modèle comme vrai modèle pour tous les participants, sur la base d'un critère comme avoir le plus petit AIC total et analysé les estimations de paramètres à partir de ce modèle uniquement. Cependant, cela ne tient pas compte de toutes les informations disponibles (par exemple, l'AIC total peut ne pas être beaucoup plus important pour certains autres modèles, ce qui rend la sélection d'un seul modèle discutable) et des différences individuelles (par exemple, différents modèles peuvent être meilleurs pour différentes personnes ). Au lieu de cela, nous avons utilisé les valeurs AIC pour chaque modèle pour pondérer (Wagenmakers et amp Farrell, 2004) la contribution de leurs paramètres aux estimations globales utilisées dans l'analyse bayésienne de la variance. Les estimations résultantes étaient assez proches de celles du modèle avec le meilleur AIC global mais prennent mieux en compte l'incertitude dans le processus de sélection du modèle.

Expérience 1 : Biais de choix

Le meilleur modèle LBA a permis aux cinq paramètres du modèle de varier d'une session à l'autre. Ainsi, le taux de dérive v, temps de non-décision (t 0) et bUNE ainsi que les paramètres de variance UNE et sv étaient libres de varier d'une session à l'autre. Nous avons estimé la différence entre la borne supérieure de la distribution du point de départ et le seuil (bUNE) pour s'assurer que le seuil b ne pouvait pas être en dessous du point de départ. Étant donné que LBA estime des taux de dérive séparés pour les accumulateurs à réponse correcte et incorrecte, v et la variation du taux de dérive sv ont également été autorisés à varier selon le type de réponse (c'est-à-dire, correcte ou incorrecte). De plus, nous avons autorisé bUNE de varier par accumulateur en fonction du type d'indice (gauche vs droite), en ligne avec les modèles précédents estimant les effets de biais (Forstmann et al., 2010).

Expérience 2 : Compromis vitesse-précision

Comme pour l'expérience 4, le modèle LBA supérieur a permis à tous les paramètres du modèle de varier d'une session à l'autre. De même, des paramètres de taux de dérive séparés (les deux taux de dérive moyen v et l'écart type du taux de dérive sv) ont été estimés pour les réponses correctes et incorrectes. De plus, le seuil, les taux de dérive et le temps de non-décision étaient tous libres de varier avec la manipulation vitesse-précision. De nombreuses études montrent que le comportement de compromis vitesse-précision peut être obtenu à travers différentes valeurs de seuil (par exemple, Boehm, Van Maanen, Forstmann, & Van Rijn, 2014 Forstmann et al., 2008 Mulder et al., 2010 Van Maanen et al. , 2011 Winkel et al., 2012). Cependant, certaines études montrent également différentes estimations de paramètres pour les temps de non-décision (Heitz & Schall, 2012 Mulder et al., 2013) ou les taux de dérive (Dambacher & Hübner, 2014 Heitz & Schall, 2012 Ho et al., 2012 Mulder et al. ., 2010 Rae et al., 2014).

Expérience 3 : difficulté de la tâche

Encore une fois, tous les paramètres du modèle étaient libres de varier d'une session à l'autre. Parce qu'il n'y avait pas d'effet crédible de l'ITI (voir les résultats), le modèle LBA supérieur pour l'expérience 3 n'a pas inclus l'ITI comme facteur sur tous les paramètres. Au lieu de cela, nous avons autorisé uniquement le paramètre de seuil à varier avec l'ITI. Sur la base de la littérature (Churchland et al., 2011 Donkin, Averell, Brown, & Heathcote, 2009 Ho, Brown, & Serences, 2009 Mulder et al., 2013 Palmer et al., 2005), nous avons autorisé le taux de dérive (moyenne et écart-type) pour varier avec cohérence.

Résultats

Expérience 1 : Biais de choix

La sélection du modèle AIC a préféré le modèle suivant avec un poids AIC de w UNE je C = 1,0 : le seuil pouvait varier en fonction du signal, le taux de dérive pouvait varier en fonction de la session et du type de réponse (correct/incorrect) et le temps de non-décision pouvait varier en fonction de la session uniquement. Ainsi, ces paramètres libres ont contribué à l'explication des données, selon l'AIC. Note de bas de page 2 La figure 5 montre que ce modèle capture à la fois la précision et la distribution RT. Permettre à un paramètre d'être libre d'une condition à l'autre n'implique pas nécessairement qu'il diffère également systématiquement d'un participant à l'autre. Pour tester cela, nous avons soumis chaque paramètre à une ANOVA bayésienne. Les facteurs qui ont été inclus dans le modèle ANOVA dépendaient des conditions pour lesquelles une valeur de paramètre libre a été estimée, mais dans tous les cas inclus les sessions. Ici, nous concentrons l'analyse sur la probabilité qu'un paramètre diffère par session. En particulier, nous concentrons notre analyse sur le paramètre seuil b, le paramètre de temps de non-décision t 0, et la somme et la différence des taux de dérive pour les réponses correctes et incorrectes, v c + v e et v cv e, respectivement.

Le modèle LBA correspond bien aux données de l'expérience 3. Panneaux supérieurs .1, .5, .9 quantiles RT pour des réponses correctes Panneaux inférieurs Taux d'erreur. Les données ainsi que les prédictions du modèle sont moyennées entre les participants

Ces quatre paramètres représentent les quatre comptes théoriques sur lesquels nous nous concentrons. La figure 6 (colonne de gauche) montre les estimations moyennes des paramètres parmi les participants représentant les quatre comptes théoriques. Le tableau 2 montre les facteurs de Bayes pour l'omission du facteur de session crucial d'un modèle ANOVA. Pour l'expérience 1, il est prouvé que le paramètre de temps de non-décision t 0 variait avec Session, car le facteur Bayes pour l'inclure dans le modèle ANOVA est assez important. Pour les autres paramètres b, v c + v e et v cv e les preuves de l'inclusion du facteur Session ne sont pas concluantes. Note de bas de page 3 Le paramètre de seuil a montré des preuves en faveur de l'inclusion du facteur d'indice dans le modèle ANOVA (BF= 1,3 × 10 11 ), cohérent avec les études précédentes qui induisaient un biais dans la réponse (Forstmann et al., 2010 Mulder et al., 2012). De plus, le paramètre de variabilité du point de départ (UNE) a montré des preuves en faveur d'un effet lié aux signaux (BF= 681), indiquant que la variabilité due à la distance vers le seuil était la plus faible pour les indices neutres, et plus grande pour les indices valides et invalides.

Paramètres du modèle LBA pour les meilleurs modèles pour les expériences 1 à 3. Colonne de gauche Expérience 1 Colonne du milieu Expérience 2 Colonne de droite Expérience 3. Rangée du haut temps de non-décision t 0, représentant l'exécution de la réponse retardée deuxième rang seuil du bon accumulateur b 1, représentant la prudence de réponse Troisième rangée somme des taux de dérive v c + v e, représentant l'excitation globale Rangée du bas différence de taux de dérive v cv e, représentant le foyer attentionnel. Barres d'erreur sont des erreurs types intra-sujet de la moyenne

Sur la base des résultats de l'expérience 1, l'explication la plus probable est que les participants augmentent la quantité de contrôle moteur qu'ils exercent pour répondre à l'intérieur du scanner IRM. Cela se traduit par un paramètre de temps de non-décision accru, ce qui entraîne des réponses plus lentes mais tout aussi précises.

Expérience 2 : Compromis vitesse-précision

La sélection du modèle AIC sur la hiérarchie du modèle LBA a montré que, afin d'équilibrer au mieux la complexité du modèle et de l'adapter à l'ensemble des participants, le seuil et le temps de non-décision devraient pouvoir différer pour les deux sessions ainsi que les paramètres de variabilité UNE et sv (poids AIC de ce modèle w UNE je C = 1,0). De plus, les paramètres de seuil et de taux de dérive doivent pouvoir varier en fonction de la manipulation SAT, et le taux de dérive (moyenne et écart type) doit différer pour les accumulateurs à réponse correcte et incorrecte. Ce modèle a fourni un bon ajustement aux données (Fig. 7). Note de bas de page 4 La figure 6 (colonne du milieu) montre les estimations moyennes des paramètres parmi les participants, et le tableau 2 montre à nouveau les facteurs de Bayes pour l'omission du facteur Session d'un modèle ANOVA. L'omission du facteur Session du modèle ANOVA n'a donné aucune preuve concluante pour aucun des comptes théoriques.

Le modèle LBA correspond bien aux données de l'expérience 2. Panneaux supérieurs .1, .5, .9 quantiles RT pour des réponses correctes Panneaux inférieurs Taux d'erreur. Les données ainsi que les prédictions du modèle sont moyennées entre les participants

La manipulation SAT a influencé l'estimation du seuil (BF SAM = 6,3 × 10 21 , mais encore une fois il n'y a pas eu d'interaction (tous les BF < 0,20). Cette constatation est conforme aux travaux antérieurs qui rapportent que la SAT implique des ajustements dans la prudence de réponse (par exemple, Boehm et al., 2014 Forstmann et al., 2008 Mulder et al., 2010 Van Maanen et al., 2011 Winkel et al., 2012). Cependant, en plus d'un changement de seuil, il y avait aussi des effets de SAT sur les taux de dérive. En particulier, la différence de taux de dérive, qui selon l'AIC ne pouvait être affectée que par la manipulation SAT, était en effet plus élevée sur les essais de précision par rapport aux essais de vitesse (BF SAM = 1,2 × 10 19 ). Ce résultat est en accord avec la littérature récente rapportant des résultats similaires (Dambacher & Hübner, 2014 Heitz & Schall, 2012 Ho et al., 2012 Mulder et al., 2010 Rae et al., 2014). Enfin, il existe également des preuves pour inclure des paramètres de temps de non-décision séparés pour les trois conditions SAT (BF SAM = 40). Des études antérieures rapportent également que les paramètres de temps de non-décision peuvent différer entre les instructions de vitesse et de précision (Heitz & Schall, 2012 Mulder et al., 2013).

Expérience 3 : difficulté de la tâche

Le modèle LBA qui a été préféré par AIC était un modèle dans lequel le seuil variait avec l'ITI et la session, le taux de dérive moyen variait avec la session et la cohérence, et le temps de non-décision variait avec la session uniquement (w UNE je C = 1,0). Comme c'est souvent le cas pour les modèles LBA, le taux de dérive moyen ainsi que l'écart type variaient selon qu'une réponse était correcte ou non. Note de bas de page 5 L'ajustement de ce modèle est généralement assez bon (figure 8). Les estimations moyennes des paramètres sont présentées dans la colonne de droite de la figure 6.

Le modèle LBA correspond bien aux données de l'expérience 4. Panneaux supérieurs .1, .5, .9 quantiles RT pour des réponses correctes Panneaux inférieurs Taux d'erreur. Les données ainsi que les prédictions du modèle sont moyennées entre les participants

Selon une ANOVA bayésienne, le paramètre de non-décision était plus élevé en séance d'IRM qu'en séance comportementale (BF = 6,2, voir également le tableau 2). Le paramètre de seuil ne différait pas entre les sessions, les ITI, ni l'interaction (BFs < 0,32, voir aussi le tableau 2). La somme des taux de dérive non plus (tous les BF < 0,22). La différence de taux de dérive a cependant augmenté à la fois avec la cohérence et la session (BF C o h e r e m c e = 7.3 × 10 22 BF S e s s je o m = 75). Il n'y avait aucune preuve en faveur d'une interaction entre ces effets (BF C o h e r e m c e×S e s s je o m = 0.21).

La diminution de la différence de taux de dérive que nous avons trouvée est cohérente avec une explication du foyer attentionnel des effets de l'environnement du scanner. C'est-à-dire que si la concentration attentionnelle est moindre, l'extraction d'informations du stimulus est affectée négativement, ce qui se traduit par une diminution des taux de dérive.

L'augmentation de la différence de taux de dérive avec la cohérence est cohérente avec la littérature (Churchland et al., 2011 Donkin et al., 2009 Ho et al., 2009 Mulder et al., 2013 Palmer et al., 2005). C'est-à-dire que lorsque la direction du mouvement devient plus reconnaissable, l'extraction d'informations du stimulus en faveur de l'alternative correcte augmente. Par conséquent, la différence de taux de dérive entre l'alternative correcte et l'alternative incorrecte augmente également.

En accord avec les analyses de RT et de précision, les paramètres du modèle ne différaient pas entre la première et la deuxième session, ni isolément (tous les BF < 0,75) ni en interaction avec le type de session (tous les BF < 1,14). Ainsi, la conclusion qu'il n'y a pas d'effet pratique appréciable de la première à la deuxième séance semble justifiée. Ce résultat ajoute une justification à l'interprétation des expériences 1 et 2, car il est probable qu'il n'y a pas non plus d'effet important de la pratique dans les ordres de session.


Risques pour la santé liés à l'exposition aux champs électromagnétiques

Une étude sur l'exposition réelle aux rayonnements non ionisants des champs magnétiques chez les femmes enceintes a révélé un taux de fausses couches significativement plus élevé, fournissant de nouvelles preuves concernant leurs risques potentiels pour la santé. L'étude Kaiser Permanente a été publiée aujourd'hui dans la revue Rapports scientifiques (Groupe d'édition Nature).

Le rayonnement non ionisant des champs magnétiques est produit lorsque des appareils électriques sont utilisés et que l'électricité circule. Il peut être généré par un certain nombre de sources environnementales, notamment les appareils électriques, les lignes électriques et les transformateurs, les appareils sans fil et les réseaux sans fil. Les humains sont exposés à des champs magnétiques à proximité de ces sources pendant leur utilisation.

Alors que les risques pour la santé des rayonnements ionisants sont bien établis et comprennent la maladie des rayonnements, le cancer et les dommages génétiques, les preuves des risques pour la santé des humains dus aux rayonnements non ionisants restent limitées, a déclaré De-Kun Li, MD, PhD, chercheur principal du et épidémiologiste de la reproduction et de la périnatalité à la Kaiser Permanente Division of Research à Oakland, en Californie.

"Peu d'études ont pu mesurer avec précision l'exposition aux rayonnements non ionisants du champ magnétique", a déclaré le Dr Li. "De plus, en raison du manque actuel de recherche sur ce sujet, nous ne connaissons pas le seuil biologique au-delà duquel des problèmes peuvent se développer, et nous ne comprenons pas encore non plus les mécanismes possibles d'une augmentation des risques."

Dans une nouvelle étude financée par le National Institute of Environmental Health Sciences, des chercheurs ont demandé aux femmes de plus de 18 ans ayant une grossesse confirmée de porter un petit appareil de surveillance du champ magnétique (un peu plus grand qu'un jeu de cartes) pendant 24 heures. Les participants ont également tenu un journal de leurs activités ce jour-là et ont été interrogés en personne pour mieux contrôler les facteurs de confusion possibles, ainsi que la façon dont leurs activités étaient typiques le jour de la surveillance. Les chercheurs ont contrôlé plusieurs variables connues pour influencer le risque de fausse couche, notamment les nausées/vomissements, les antécédents de fausse couche, la consommation d'alcool, la consommation de caféine, la fièvre et les infections maternelles.

Des mesures objectives du champ magnétique et des résultats de grossesse ont été obtenus pour 913 femmes enceintes, toutes membres de Kaiser Permanente Northern California. Une fausse couche s'est produite chez 10,4 % des femmes présentant le niveau d'exposition mesuré le plus faible (1er quartile) aux rayonnements non ionisants du champ magnétique au cours d'une journée typique, et chez 24,2 % des femmes présentant le niveau d'exposition mesuré le plus élevé (2e, 3e et 4e quartiles ), un risque relatif presque trois fois plus élevé. Le taux de fausses couches signalé dans la population générale se situe entre 10 et 15 pour cent, a déclaré le Dr Li.

"Cette étude fournit des preuves provenant d'une population humaine que les rayonnements non ionisants du champ magnétique pourraient avoir des effets biologiques néfastes sur la santé humaine", a-t-il déclaré.

Les points forts de cette étude, a noté le Dr Li, incluaient le fait que les chercheurs utilisaient un appareil de mesure objectif et étudiaient un résultat à court terme (fausse couche) plutôt qu'un résultat qui se produira des années ou des décennies plus tard, comme le cancer ou les maladies auto-immunes. La principale limite de l'étude est qu'il n'était pas possible pour les chercheurs de demander aux participantes de porter l'appareil de mesure tout au long de la grossesse.

Le Dr Li a noté que le risque potentiel pour la santé des rayonnements non ionisants des champs magnétiques nécessite davantage de recherches. "Nous espérons que les résultats de cette étude stimuleront des études supplémentaires indispensables sur les risques environnementaux potentiels pour la santé humaine, y compris la santé des femmes enceintes."


Les champs électromagnétiques affectent les cellules humaines

Les champs électromagnétiques, similaires à ceux trouvés dans les lignes électriques aériennes, peuvent avoir un effet biologique sur les cellules humaines, un effet qui pourrait contribuer au processus cellulaire complexe qui conduit au cancer, selon une recherche de la Michigan State University.

Les travaux de James E. Trosko, professeur de pédiatrie et de développement humain, et de ses collègues sont publiés dans le numéro d'octobre de Environmental Health Perspectives, le journal de l'Institut national des sciences de la santé environnementale.

"Nos études ont contribué à ce que de nombreuses autres études ont montré, à savoir qu'il existe un effet biologique de l'énergie transmise par les CEM à fréquence extrêmement basse (ELF-EMF) sur les systèmes vivants", a déclaré Trosko.

Jusqu'à présent, a-t-il déclaré, la plupart des études sur les effets biologiques et sur la santé des ELF-EMF étaient "non concluantes ou contradictoires".

"Jusqu'à présent, le poids des preuves théoriques et expérimentales a suggéré que ELF-EMF n'avait pas la capacité d'interagir avec le matériel génétique pour l'endommager, provoquant ainsi des mutations qui, nous le savons, peuvent conduire au cancer", a déclaré Trosko.

Trosko et ses collègues ont étudié les effets des ELF-EMF sur les cellules leucémiques de souris qui avaient le potentiel de devenir des cellules produisant de l'hémoglobine après exposition à un produit chimique. L'hémoglobine est la substance qui est nécessaire pour lier l'oxygène dans le sang. Ils ont découvert que des champs électromagnétiques de 60 hertz et d'intensités allant de 0,05 à 10 gauss interféraient avec le processus de maturation induit chimiquement dans les cellules de souris et permettaient aux cellules de continuer à proliférer.

Après quatre jours d'exposition, environ 35 pour cent des cellules traitées chimiquement qui ont été exposées à ELF-EMF ont montré ces effets.

Ce que Trosko et ses collègues ont découvert, c'est que ELF/EMF n'est pas un initiateur de tumeur, mais plutôt un promoteur potentiel de tumeur.

"ELF-EMF ne semble pas muter les gènes, ce qui pourrait convertir une cellule normale en une cellule" initiée "", a-t-il déclaré. "Mais cela peut les allumer et les éteindre à des moments inappropriés, provoquant la prolifération de ces cellules initiées alors qu'elles resteraient normalement assises là sans rien faire."

"Le but de notre étude n'était pas de voir si les champs électromagnétiques de fréquence extrêmement basse provoquent le cancer, mais s'ils modifient l'expression des gènes", a déclaré Trosko. "En fin de compte, nous avons montré qu'il existe un effet biologique des CEM mesuré en modifiant l'expression du gène producteur d'hémoglobine.

"Je pense qu'il est important de noter qu'il y a une distinction entre un effet biologique et un effet sur la santé. Juste parce que je suis assis sous une ligne de transmission à haute puissance, et juste parce que cette exposition peut altérer une certaine activité biologique dans mon corps, cela ne change rien. signifie automatiquement que je vais avoir un cancer. Et même si je devais avoir un cancer, cela ne signifie pas que ELF-EMF a quelque chose à voir avec la production de ce cancer en particulier.

Trosko a souligné que le processus par lequel une cellule passe d'une cellule normale et saine à une cellule cancéreuse est long et complexe, impliquant différentes étapes moléculaires/biochimiques.

"Ces cellules initiées ont besoin d'agents promoteurs pour provoquer le cancer", a-t-il déclaré. "Ils peuvent être naturels, comme des hormones ou des produits chimiques dans les aliments que nous mangeons. Ou ils peuvent être des produits chimiques, des médicaments ou des polluants fabriqués par l'homme.

"Plus important encore, pour agir en tant que promoteur de tumeur, de nombreuses conditions doivent être remplies, notamment la capacité du promoteur à surmonter les effets de suppression naturels sur la prolifération cellulaire, le moment de l'exposition au promoteur, l'absence d'anti-promoteurs et l'exposition pendant des périodes régulières et longues."

Les autres membres de l'équipe de recherche de Trosko étaient Gang Chen, Brad L. Upham, Wei Sun, Chia-Cheng Chang, tous du département de pédiatrie et de développement humain de la MSU, Edward J. Rothwell et Kun-Mu Chen, du département de génie électrique de la MSU et Hiroshi Yamasaki du Centre International de Recherche sur le Cancer à Lyon, France.

Le travail a été financé par une subvention de l'Institut de recherche sur l'énergie électrique.

Source de l'histoire :

Matériel fourni par Université de Michigan. Remarque : Le contenu peut être modifié pour le style et la longueur.


Fond

Trouble bipolaire et dépressif majeur

Le trouble bipolaire et le trouble dépressif majeur (TDM) sont des troubles mentaux avec une prévalence sur 12 mois dans l'UE d'environ 1 et 7 %, respectivement [1]. Ils sont associés à une qualité de vie réduite, à un risque de mortalité accru et sont une cause majeure d'incapacité de travail [2,3].

La prise en charge de la dépression comprend des approches de traitement psychosocial, une pharmacothérapie et, pour les patients les plus sévères et résistants au traitement, un traitement par électrochocs (ECT).

Traitement par électrochocs

L'idée que les convulsions pouvaient traiter la maladie mentale remonte au 16 e siècle, lorsque l'huile de camphre était utilisée pour provoquer des convulsions. L'induction de crise par application de courant électrique au cerveau humain a été introduite par les Italiens Cerletti et Bini en 1938 [4]. Depuis son introduction, l'ECT ​​a été appliquée à diverses affections psychiatriques et à certaines affections somatiques. L'ECT moderne a moins d'indications et a été développée dans le but de réduire les effets secondaires [5].

Pour certains patients dans un épisode dépressif résistant au traitement, l'ECT ​​est le seul traitement efficace. L'ECT est généralement considérée comme sûre et a montré son efficacité dans des essais contrôlés randomisés [6]. Un récent essai contrôlé randomisé a révélé que l'ECT ​​était plus efficace que le traitement pharmacologique pour la dépression bipolaire résistante au traitement [7]. Cependant, le traitement reste controversé et stigmatisé [8]. Cela peut en partie être attribué à notre manque de connaissances, puisque les mécanismes d'action sont encore largement inconnus.

Certains ont comparé l'ECT ​​à la lobotomie [9] ou émettent l'hypothèse que l'ECT ​​affecte le cerveau d'une manière similaire à un stress ou à un traumatisme grave [10]. D'autres le considèrent comme un traitement sûr et sous-utilisé [11], et une revue systématique n'a trouvé aucun déficit cognitif persistant après ECT [12]. Un essai contrôlé randomisé récent de l'ECT ​​unilatérale droite dans la dépression résistante au traitement n'a trouvé aucun changement dans la fonction neurocognitive générale, mais une cohérence de la mémoire autobiographique réduite après l'ECT ​​[13]. Ce résultat est conforme aux rapports subjectifs des patients [14], et des recherches supplémentaires sont nécessaires.

Les lignes directrices du NICE stipulent : « Envisagez l'ECT ​​pour le traitement aigu de la dépression grave mettant la vie en danger et lorsqu'une réponse rapide est requise, ou lorsque d'autres traitements ont échoué » [15].Ceci est conforme aux directives nationales norvégiennes qui recommandent l'ECT ​​dans la dépression majeure lorsque les autres traitements se sont révélés inefficaces (niveau de preuve A, [16]), et son utilisation a augmenté ces dernières années [17].

L'augmentation des connaissances acquises grâce à des enquêtes scientifiques approfondies peut réduire les stigmates et informer les patients et les prestataires de soins de santé pour qu'ils utilisent l'ECT ​​de manière appropriée. Une meilleure compréhension de l'ECT ​​et de ses mécanismes d'action peut aider les patients à faire face aux effets secondaires et contribuer au développement de nouvelles options de traitement.

Mécanismes d'action possibles de l'ECT

Plus d'une centaine de théories ont été suggérées pour les effets de l'ECT ​​[5]. Bien que des modifications de la structure cérébrale dans la dépression majeure aient été confirmées par plusieurs méta-analyses [18-20] et que des modifications structurelles et fonctionnelles induites par l'ECT ​​aient été caractérisées (pour des revues récentes, voir [21-23]), nous manquons encore d'une théorie unificatrice pour ses mécanismes d'action. Le projet se concentrera sur trois effets suggérés de l'ECT, chacun reflétant les changements physiopathologiques et les mécanismes d'action proposés, voir ci-dessous. En tant qu'étude multidisciplinaire, les résultats des mesures neuroradiologiques peuvent être corrélés à des biomarqueurs dans les paramètres sanguins et comportementaux, par ex. l'amélioration/rémission après ECT devrait être corrélée à l'amélioration des performances aux tests neuropsychologiques. Pour l'écoute dichotique, des scores améliorés dans la condition gauche forcée indiqueraient un meilleur contrôle cognitif.

Volume hippocampique

Le système nerveux humain s'adapte aux défis. Elle peut être modifiée par l'apprentissage ainsi que par des conditions pathologiques, telles que des troubles psychiatriques. Une structure qui a été étudiée en détail à cet égard est l'hippocampe, une structure importante pour l'apprentissage et la mémoire. Les volumes hippocampiques sont réduit dans le trouble dépressif majeur [19,24,25] et dans un certain nombre d'autres troubles psychiatriques et somatiques (revue dans [26]). La réduction du volume de l'hippocampe a été associée à la durée de la dépression non traitée [27]. D'autre part, augmenté les volumes hippocampiques peuvent survenir après un apprentissage approfondi, par ex. étudier pour devenir l'un des chauffeurs de taxi de Londres [28,29]. Les augmenter dans les volumes de l'hippocampe peut être liée à la neurogenèse, qui a été démontrée dans des modèles animaux [30,31]. Chez les primates, la prolifération des cellules granuleuses dans le gyrus denté de l'hippocampe s'est avérée réduite par le stress [30]. Les crises induisent la neurogenèse chez les rongeurs [32], et des modèles animaux ont montré que les crises électroconvulsives avaient des effets sur les neurotransmetteurs, l'expression des gènes, les facteurs de croissance (tels que le facteur neurotrophique dérivé du cerveau - BDNF, le facteur de croissance endothélial vasculaire - VEGF, le facteur de croissance des fibroblastes - FGF) et les neuropeptides (tels que le neuropeptide Y - NPY, Thyrotropin-releasing hormone - TRH, VGF) et conduisent à un remodelage synaptique et à une prolifération cellulaire (revue dans [33]). Des recherches sur des modèles animaux indiquent également que les chocs électroconvulsifs peuvent inverser l'effet du cortisol et même provoquer une augmentation des volumes de l'hippocampe (examiné dans [5]).

Des niveaux accrus de BDNF ont été rapportés après ECT [34], et le BDNF a été suggéré comme biomarqueur potentiel de la dépression [35]. Il a été démontré que la neurogenèse se produit dans le gyrus denté de l'hippocampe chez l'homme adulte [36], et la neuroplasticité induite par l'ECT ​​gagne en importance en tant que cadre pour comprendre les effets de l'ECT ​​[23]. Quelques études chez l'homme ont rapporté une augmentation des volumes hippocampiques et/ou d'autres changements structurels après ECT [37-41]. Nordanskog et al. [39,41] ont effectué une segmentation manuelle sans aveuglement complet du point temporel de l'IRM tracé (avant ou après l'ECT), introduisant un biais potentiel de l'observateur. Dukart et al. [38] ont utilisé la morphométrie à base de voxels, tandis que Tendolkar et al. [40] et Abbot et al. [37] ont tous deux utilisé FreeSurfer [42] pour la segmentation et l'analyse volumétrique. Par rapport à ces études, nous recruterons davantage de patients, utiliserons des procédures de segmentation automatique de pointe et les lecteurs de radiologie ne connaîtront pas le groupe d'étude et le moment des examens IRM. De plus, en appliquant l'imagerie multimodale, les changements structurels peuvent être évalués en ce qui concerne les changements dans les propriétés de diffusion, l'imagerie pondérée en susceptibilité (SWI) et l'imagerie de récupération d'inversion atténuée par fluide (FLAIR). Notre conception permettra un suivi longitudinal des changements cérébraux 1 à 2 heures après le premier ECT, après la fin du traitement et à 6 mois de suivi.

Acide gamma-aminobutyrique (GABA) et connectivité

L'ECT a des effets anticonvulsivants et est parfois utilisée dans le traitement de l'état de mal épileptique [43]. Une hypothèse suggère que l'amplitude de l'augmentation du seuil épileptique, induite par l'ECT, est importante pour l'efficacité des antidépresseurs [44]. Les médicaments qui améliorent la neurotransmission GABAergique sont connus pour leur effet anticonvulsivant, et le rôle des systèmes de neurotransmission des acides aminés, en particulier la fonction réduite de la neurotransmission GABAergique, est de plus en plus apprécié dans la dépression majeure (pour les revues, voir [45,46]). La tiagabine, un inhibiteur sélectif de la recapture du GABA, s'est avérée efficace dans le traitement de la dépression avec anxiété [47]. Une étude post mortem de l'expression génique chez des patients âgés déprimés a trouvé des altérations des marqueurs des voies GABA et glutamate indiquant une activité diminuée dans le cortex cingulaire antérieur (ACC) [48]. Une méta-analyse récente a suggéré une activité accrue à l'état de repos dans l'ACC rostral en tant que biomarqueur de la réponse au traitement dans la dépression majeure, et un passage de la modulation GABA à la modulation médiée par le glutamate a été suggéré [49].

Fait intéressant, une première étude a trouvé des concentrations accrues de GABA cortical après ECT chez des patients déprimés en utilisant la spectroscopie par résonance magnétique du proton ( 1 H-MRS) [50], mais cette découverte n'a, à notre connaissance, pas été reproduite par d'autres groupes.

Il a été récemment suggéré que «l'hyperconnectivité» dans les réseaux impliqués dans la régulation de l'humeur peut être réduite après un cours d'ECT [51,52]. Ce résultat peut sembler contraire aux résultats d'une augmentation de l'anisotropie fractionnelle (AF) dans les projections limbiques frontales après une cure d'ECT [53,54]. L'AF est souvent considérée comme une mesure de l'intégrité des voies de la substance blanche et une intégrité axonale accrue peut sembler contre-intuitive si l'on s'attend à une connectivité réduite après l'ECT. Des explications possibles pourraient être que les projections qui sont « améliorées » par l'ECT ​​sont GABAergiques, ou que l'amélioration de l'intégrité de certaines projections peut conduire à une activité électrique plus coordonnée dans ces projections, ce qui est globalement détecté comme une « connectivité réduite ».

Notre projet englobera des mesures de neurotransmetteurs (GABA et glutamate par 1 H-MRS) et de paramètres de diffusion (par exemple, anisotropie fractionnelle, diffusivité moyenne et séparation de l'eau restreinte et encombrée par Restriction Spectrum Imaging, RSI [55]), permettant des études longitudinales du GABA - et les niveaux de glutamate ainsi que les propriétés de la substance blanche chez les mêmes patients.

ECT et effets nocifs

L'ECT a été un traitement controversé depuis son introduction. Les effets secondaires les plus importants sont liés aux troubles de la mémoire [6] et il est recommandé de surveiller le fonctionnement cognitif des patients pendant et après le traitement [16]. Un récent essai contrôlé randomisé sur la dépression bipolaire résistante au traitement a révélé une cohérence de la mémoire autobiographique réduite après l'ECT ​​mais aucune détérioration de la fonction neurocognitive générale [13]. Les dommages structurels au cerveau humain n'ont, à notre connaissance, jamais été documentés comme étant causés par l'ECT. Des études de cas avec des complications rares, telles que l'hématome sous-dural, ont été publiées [56], mais une étude utilisant la tomodensitométrie cérébrale chez 40 patients avant et après l'ECT ​​n'a détecté aucun changement causé par l'ECT, même avec des convulsions durant plusieurs minutes [57]. L'IRM conventionnelle et l'imagerie pondérée en diffusion (DWI une séquence sensible à l'œdème) n'ont pas réussi à trouver de dommages structurels [58]. Cependant, des changements sur DWI ont été montrés pour les patients après l'état de mal épileptique [59]. Si une lésion cérébrale survient à la suite de l'ECT, on peut s'attendre à trouver des micro-hémorragies. Le SWI est extrêmement sensible aux hémorragies et est couramment utilisé dans l'imagerie des accidents vasculaires cérébraux [60]. Cependant, le SWI, en tant qu'indicateur de désintégrité microvasculaire, n'a, à notre connaissance, jamais été appliqué après ECT. De plus, en utilisant 1 H-MRS, nous mesurerons le N-acétylaspartate (NAA), qui est principalement localisé dans les neurones et considéré comme un marqueur de l'intégrité neuronale [61].

Notre projet utilisera une intensité de champ élevée, une IRM de pointe et combinera RSI, SWI et 1 H-MRS qui devraient permettre la détection d'effets post-ECT plus subtils.

Hypothèses et objectifs

Sur la base des discussions ci-dessus, les principales hypothèses suivantes définissent les grandes lignes et les objectifs de ce projet :

Les volumes hippocampiques augmentent après le traitement par ECT. A) Plus précisément, il y a une augmentation du volume du gyrus denté, ce qui suggère que l'augmentation est causée par la neurogenèse. B) Les modifications de la structure de l'hippocampe sont en corrélation avec la réponse au traitement, les mesures neurocognitives et l'augmentation des concentrations de facteurs neurotrophiques dans les échantillons de sang.

L'ECT provoque une augmentation des niveaux du neurotransmetteur GABA et modifie l'équilibre glutamate/GABA. A) Les concentrations de GABA sont en corrélation avec la réponse au traitement. B) Les gènes régulant la synthèse et le cycle du GABA sont régulés à la hausse ou activés. C) Un sous-ensemble de projections corticales est renforcé, un mécanisme possible entraînant une connectivité réduite dans les zones frontales.

L'ECT ne provoque pas de signes mesurables d'effets nocifs sur le cerveau. A) Aucun changement n'est détecté sur l'imagerie microvasculaire (SWI) et microstructurale (RSI). NAA (mesuré dans l'ACC) n'est pas affecté. B) Effets post-ECT immédiats possibles, par ex. les œdèmes, détectables par imagerie pondérée en diffusion, sont réversibles.

Méthodes et conception

L'étude est prospective et observationnelle, et tous les patients recevront le traitement ECT standard, tel qu'il est fourni au service ECT de l'hôpital universitaire de Haukeland.

Un organigramme de la conception de l'étude est présenté à la figure 1, et les détails sur les mesures et les variables de l'étude sont répertoriés dans le tableau 1.


Recherche avec des volontaires humains

  • Une méthode appelée «microdosage» peut fournir des informations vitales sur la sécurité d'un médicament expérimental et sur la façon dont il est métabolisé chez l'homme avant les essais humains à grande échelle. Les volontaires reçoivent une dose unique de médicament extrêmement faible et des techniques d'imagerie sophistiquées sont utilisées pour surveiller le comportement du médicament dans le corps. Le microdosage peut remplacer certains tests sur les animaux et aider à éliminer les composés médicamenteux qui ne fonctionneront pas chez l'homme afin qu'ils ne soient jamais testés sur les animaux.
  • Des techniques avancées d'imagerie et d'enregistrement du cerveau, telles que l'imagerie par résonance magnétique fonctionnelle (IRMf), avec des volontaires humains peuvent être utilisées pour remplacer les expériences archaïques dans lesquelles le cerveau des rats, des chats et des singes est endommagé. Ces techniques modernes permettent d'étudier en toute sécurité le cerveau humain jusqu'au niveau d'un seul neurone (comme dans le cas de l'électroencéphalographie intracrânienne), et les chercheurs peuvent même induire temporairement et de manière réversible des troubles cérébraux en utilisant la stimulation magnétique transcrânienne.

Les effets des IRM et autres appareils électromagnétiques sur la psychologie humaine ont-ils été étudiés ? - Psychologie

Cet article présente une revue systématique des études scientifiques publiées sur les effets écologiques potentiels des champs électromagnétiques radiofréquences (RF-EMF) dans la gamme de 10 MHz à 3,6 GHz (de la modulation d'amplitude, AM, aux micro-ondes de bande inférieure, MW, EMF).

Méthodes

Les publications en anglais ont été recherchées dans ISI Web of Knowledge et Scholar Google sans restriction de date de publication. Cinq groupes d'espèces ont été identifiés : oiseaux, insectes, autres vertébrés, autres organismes et plantes. Non seulement des articles écologiques clairs, tels que des études sur le terrain, ont été pris en considération, mais également des articles biologiques sur des études de laboratoire étudiant les effets des RF-EMF avec des paramètres biologiques tels que la fertilité, la reproduction, le comportement et le développement, qui ont une signification écologique claire, ont également été inclus.

Résultats

Les informations ont été recueillies à partir de 113 études à partir de publications originales évaluées par des pairs ou de revues existantes pertinentes. Un nombre limité d'études écologiques sur le terrain a été identifié. La majorité des études ont été menées en laboratoire sur des oiseaux (embryons ou œufs), de petits rongeurs et des plantes. Dans 65 % des études, des effets écologiques des RF-EMF (50 % des études sur les animaux et environ 75 % des études sur les plantes) ont été trouvés à la fois à des doses élevées et faibles. Aucune relation dose-effet claire n'a pu être discernée. Les études trouvant un effet appliquaient des durées d'exposition plus longues et se concentraient davantage sur les gammes de fréquences GSM.

Conclusion

Dans environ deux tiers des études examinées, les effets écologiques des RF-EMF ont été signalés à des doses élevées et faibles. Les dosages très faibles sont compatibles avec des situations réelles de terrain, et pourraient être trouvés dans des conditions environnementales. Cependant, un manque de standardisation et un nombre limité d'observations limitent la possibilité de généraliser les résultats d'un organisme à un écosystème. Nous proposons dans les études futures de mener plus de répétitions d'observations et d'utiliser explicitement les normes disponibles pour rapporter les paramètres physiques RF-EMF pertinents dans les études en laboratoire et sur le terrain.

Points forts

► La littérature scientifique a été examinée à la recherche d'articles sur les effets écologiques des RF-EMF. ► Les RF-EMF ont eu un effet significatif sur les oiseaux, les insectes, les autres vertébrés, les autres organismes et les plantes dans 70 % des études. ► Le développement et la reproduction des oiseaux et des insectes sont les paramètres les plus fortement touchés. ► Il y a un manque d'études de terrain et écologiques sur les populations et l'interaction des espèces. ► Il est urgent de répéter les études sur les effets et les enquêtes sur les effets sur les écosystèmes.


Modélisation du temps de réponse de l'effet de l'environnement du scanner

Les trois expériences ont affiché des réponses ralenties en raison de l'environnement IRM, mais seule l'expérience 3 a montré des taux d'erreur accrus. Par conséquent, sur la base des RT corrects moyens et des taux d'erreur, l'explication candidate la plus probable de ces effets est le compte de foyer attentionnel. Parce que le compte de foyer attentionnel suppose que le stress induit par le scanner IRM détourne l'attention du stimulus impératif, les réponses ralentissent et deviennent plus sujettes aux erreurs. L'une des raisons pour lesquelles cet effet de précision n'est pas observé dans les expériences 1 et 2 pourrait être qu'un autre mécanisme contrecarre l'augmentation des réponses erronées. C'est-à-dire que si les participants sont moins concentrés, ils pourraient réagir à la détérioration potentielle du comportement avec une augmentation de la prudence de réponse. En termes de modèle LBA, cela signifie une augmentation du paramètre de seuil.

Cette hypothèse est examinée à l'aide d'une modélisation LBA formelle des distributions RT pour les réponses correctes et erronées et les taux d'erreur. Tout d'abord, nous présentons notre approche générale pour obtenir le meilleur ensemble de paramètres de modèle (en termes de différentes manières d'égaliser les paramètres selon les conditions). Ensuite, nous présentons les résultats de cette analyse et ce que cela signifie pour les estimations des paramètres.

Méthodes

Pour chaque expérience, nous avons défini le mannequin comme modèle dans lequel tous les paramètres pouvaient varier d'une session à l'autre (comportement et IRM, certaines exceptions sont discutées ci-dessous). De plus, les meilleurs modèles ne permettaient que la variation de ces paramètres dans d'autres conditions expérimentales pour lesquelles il existe un consensus dans la littérature. Par exemple, pour tenir compte du repérage directionnel dans l'expérience 1, nous avons permis au paramètre de seuil dans LBA de varier entre les alternatives de réponse (cf. Forstmann et al., 2010. Ce paramètre permet une différence dans la quantité de preuves requises pour une réponse entre les options de choix, similaire à la différence de probabilité a priori induite dans l'expérience 1.

En utilisant le modèle supérieur, nous avons généré une hiérarchie de modèles de modèles plus simples (Heathcote & amp Love, 2012). C'est-à-dire que nous avons généré tous les modèles possibles contenant moins de paramètres libres en fixant un paramètre dans toutes les conditions. Ainsi, les modèles les plus simples qui ont été ajustés estiment les mêmes paramètres de chaque type pour toutes les conditions. Les valeurs de paramètres les mieux ajustées des modèles les plus simples ont été utilisées comme estimations initiales pour les modèles plus complexes. De cette façon, nous réduisons l'impact des minima locaux dans l'espace des paramètres. Les modèles ont été ajustés en utilisant le maximum de vraisemblance (Donkin, Brown, & Heathcote, 2011).

Le meilleur modèle parmi les participants a été déterminé à l'aide de l'AIC (Akaike, 1974). L'AIC est une mesure qui équilibre l'ajustement d'un modèle avec le nombre de paramètres libres. Le nombre de paramètres libres est une approximation de la complexité du modèle, car les modèles avec plus de paramètres sont intrinsèquement plus flexibles. Pour cette raison, dans une hiérarchie de modèles, des modèles plus complexes s'adaptent nécessairement mieux (par exemple, Collyer, 1985 Myung & Pitt, 1997). Ainsi, l'AIC permet de déduire quel paramètre doit être maintenu libre dans les conditions expérimentales et quels paramètres ne le doivent pas. Pour déterminer le meilleur modèle, nous avons additionné le score AIC des participants individuels et calculé les poids AIC de chaque modèle (Wagenmakers & Farrell, 2004). Cela reflète la probabilité qu'un modèle particulier soit le meilleur modèle de l'ensemble de modèles ajustés (étant donné les données).

En plus de l'AIC, nous avons également calculé les critères d'information bayésiens (BIC Schwarz, 1978). Le BIC est généralement plus prudent que l'AIC en ce qui concerne la complexité du modèle. Cela a également été observé dans nos comparaisons de modèles, néanmoins, les résultats des analyses BIC concordaient généralement avec les analyses AIC. Pour cette raison, nous concentrons notre analyse sur les résultats basés sur l'AIC et ne mentionnerons que brièvement les écarts par rapport à ceux-ci selon BIC.

Nous avons effectué une analyse bayésienne de la variance, similaire aux analyses sur les données comportementales, sur les paramètres du top model. Cette analyse nous permet de déduire si un paramètre était libre en raison des différences dues aux manipulations expérimentales, ou si les différences individuelles entre les participants ont forcé la sélection du modèle AIC à autoriser un paramètre libre, même si la variance dans les estimations n'est pas systématique par rapport aux conditions. . Les estimations de paramètres utilisées dans cette analyse étaient une moyenne pondérée des estimations de toutes les différentes paramétrisations de modèle que nous avons ajustées obtenues en utilisant la moyenne du modèle (Hoeting, Madigan, Raftery, & Volinsky, 1999 Raftery, 1995). Nous aurions pu d'abord sélectionner un modèle comme vrai modèle pour tous les participants, sur la base d'un critère comme avoir le plus petit AIC total et analysé les estimations de paramètres à partir de ce modèle uniquement. Cependant, cela ne tient pas compte de toutes les informations disponibles (par exemple, l'AIC total peut ne pas être beaucoup plus important pour certains autres modèles, ce qui rend la sélection d'un seul modèle discutable) et des différences individuelles (par exemple, différents modèles peuvent être meilleurs pour différentes personnes ).Au lieu de cela, nous avons utilisé les valeurs AIC pour chaque modèle pour pondérer (Wagenmakers et amp Farrell, 2004) la contribution de leurs paramètres aux estimations globales utilisées dans l'analyse bayésienne de la variance. Les estimations résultantes étaient assez proches de celles du modèle avec le meilleur AIC global mais prennent mieux en compte l'incertitude dans le processus de sélection du modèle.

Expérience 1 : Biais de choix

Le meilleur modèle LBA a permis aux cinq paramètres du modèle de varier d'une session à l'autre. Ainsi, le taux de dérive v, temps de non-décision (t 0) et bUNE ainsi que les paramètres de variance UNE et sv étaient libres de varier d'une session à l'autre. Nous avons estimé la différence entre la borne supérieure de la distribution du point de départ et le seuil (bUNE) pour s'assurer que le seuil b ne pouvait pas être en dessous du point de départ. Étant donné que LBA estime des taux de dérive séparés pour les accumulateurs à réponse correcte et incorrecte, v et la variation du taux de dérive sv ont également été autorisés à varier selon le type de réponse (c'est-à-dire, correcte ou incorrecte). De plus, nous avons autorisé bUNE de varier par accumulateur en fonction du type d'indice (gauche vs droite), en ligne avec les modèles précédents estimant les effets de biais (Forstmann et al., 2010).

Expérience 2 : Compromis vitesse-précision

Comme pour l'expérience 4, le modèle LBA supérieur a permis à tous les paramètres du modèle de varier d'une session à l'autre. De même, des paramètres de taux de dérive séparés (les deux taux de dérive moyen v et l'écart type du taux de dérive sv) ont été estimés pour les réponses correctes et incorrectes. De plus, le seuil, les taux de dérive et le temps de non-décision étaient tous libres de varier avec la manipulation vitesse-précision. De nombreuses études montrent que le comportement de compromis vitesse-précision peut être obtenu à travers différentes valeurs de seuil (par exemple, Boehm, Van Maanen, Forstmann, & Van Rijn, 2014 Forstmann et al., 2008 Mulder et al., 2010 Van Maanen et al. , 2011 Winkel et al., 2012). Cependant, certaines études montrent également différentes estimations de paramètres pour les temps de non-décision (Heitz & Schall, 2012 Mulder et al., 2013) ou les taux de dérive (Dambacher & Hübner, 2014 Heitz & Schall, 2012 Ho et al., 2012 Mulder et al. ., 2010 Rae et al., 2014).

Expérience 3 : difficulté de la tâche

Encore une fois, tous les paramètres du modèle étaient libres de varier d'une session à l'autre. Parce qu'il n'y avait pas d'effet crédible de l'ITI (voir les résultats), le modèle LBA supérieur pour l'expérience 3 n'a pas inclus l'ITI comme facteur sur tous les paramètres. Au lieu de cela, nous avons autorisé uniquement le paramètre de seuil à varier avec l'ITI. Sur la base de la littérature (Churchland et al., 2011 Donkin, Averell, Brown, & Heathcote, 2009 Ho, Brown, & Serences, 2009 Mulder et al., 2013 Palmer et al., 2005), nous avons autorisé le taux de dérive (moyenne et écart-type) pour varier avec cohérence.

Résultats

Expérience 1 : Biais de choix

La sélection du modèle AIC a préféré le modèle suivant avec un poids AIC de w UNE je C = 1,0 : le seuil pouvait varier en fonction du signal, le taux de dérive pouvait varier en fonction de la session et du type de réponse (correct/incorrect) et le temps de non-décision pouvait varier en fonction de la session uniquement. Ainsi, ces paramètres libres ont contribué à l'explication des données, selon l'AIC. Note de bas de page 2 La figure 5 montre que ce modèle capture à la fois la précision et la distribution RT. Permettre à un paramètre d'être libre d'une condition à l'autre n'implique pas nécessairement qu'il diffère également systématiquement d'un participant à l'autre. Pour tester cela, nous avons soumis chaque paramètre à une ANOVA bayésienne. Les facteurs qui ont été inclus dans le modèle ANOVA dépendaient des conditions pour lesquelles une valeur de paramètre libre a été estimée, mais dans tous les cas inclus les sessions. Ici, nous concentrons l'analyse sur la probabilité qu'un paramètre diffère par session. En particulier, nous concentrons notre analyse sur le paramètre seuil b, le paramètre de temps de non-décision t 0, et la somme et la différence des taux de dérive pour les réponses correctes et incorrectes, v c + v e et v cv e, respectivement.

Le modèle LBA correspond bien aux données de l'expérience 3. Panneaux supérieurs .1, .5, .9 quantiles RT pour des réponses correctes Panneaux inférieurs Taux d'erreur. Les données ainsi que les prédictions du modèle sont moyennées entre les participants

Ces quatre paramètres représentent les quatre comptes théoriques sur lesquels nous nous concentrons. La figure 6 (colonne de gauche) montre les estimations moyennes des paramètres parmi les participants représentant les quatre comptes théoriques. Le tableau 2 montre les facteurs de Bayes pour l'omission du facteur de session crucial d'un modèle ANOVA. Pour l'expérience 1, il est prouvé que le paramètre de temps de non-décision t 0 variait avec Session, car le facteur Bayes pour l'inclure dans le modèle ANOVA est assez important. Pour les autres paramètres b, v c + v e et v cv e les preuves de l'inclusion du facteur Session ne sont pas concluantes. Note de bas de page 3 Le paramètre de seuil a montré des preuves en faveur de l'inclusion du facteur d'indice dans le modèle ANOVA (BF= 1,3 × 10 11 ), cohérent avec les études précédentes qui induisaient un biais dans la réponse (Forstmann et al., 2010 Mulder et al., 2012). De plus, le paramètre de variabilité du point de départ (UNE) a montré des preuves en faveur d'un effet lié aux signaux (BF= 681), indiquant que la variabilité due à la distance vers le seuil était la plus faible pour les indices neutres, et plus grande pour les indices valides et invalides.

Paramètres du modèle LBA pour les meilleurs modèles pour les expériences 1 à 3. Colonne de gauche Expérience 1 Colonne du milieu Expérience 2 Colonne de droite Expérience 3. Rangée du haut temps de non-décision t 0, représentant l'exécution de la réponse retardée deuxième rang seuil du bon accumulateur b 1, représentant la prudence de réponse Troisième rangée somme des taux de dérive v c + v e, représentant l'excitation globale Rangée du bas différence de taux de dérive v cv e, représentant le foyer attentionnel. Barres d'erreur sont des erreurs types intra-sujet de la moyenne

Sur la base des résultats de l'expérience 1, l'explication la plus probable est que les participants augmentent la quantité de contrôle moteur qu'ils exercent pour répondre à l'intérieur du scanner IRM. Cela se traduit par un paramètre de temps de non-décision accru, ce qui entraîne des réponses plus lentes mais tout aussi précises.

Expérience 2 : Compromis vitesse-précision

La sélection du modèle AIC sur la hiérarchie du modèle LBA a montré que, afin d'équilibrer au mieux la complexité du modèle et de l'adapter à l'ensemble des participants, le seuil et le temps de non-décision devraient pouvoir différer pour les deux sessions ainsi que les paramètres de variabilité UNE et sv (poids AIC de ce modèle w UNE je C = 1,0). De plus, les paramètres de seuil et de taux de dérive doivent pouvoir varier en fonction de la manipulation SAT, et le taux de dérive (moyenne et écart type) doit différer pour les accumulateurs à réponse correcte et incorrecte. Ce modèle a fourni un bon ajustement aux données (Fig. 7). Note de bas de page 4 La figure 6 (colonne du milieu) montre les estimations moyennes des paramètres parmi les participants, et le tableau 2 montre à nouveau les facteurs de Bayes pour l'omission du facteur Session d'un modèle ANOVA. L'omission du facteur Session du modèle ANOVA n'a donné aucune preuve concluante pour aucun des comptes théoriques.

Le modèle LBA correspond bien aux données de l'expérience 2. Panneaux supérieurs .1, .5, .9 quantiles RT pour des réponses correctes Panneaux inférieurs Taux d'erreur. Les données ainsi que les prédictions du modèle sont moyennées entre les participants

La manipulation SAT a influencé l'estimation du seuil (BF SAM = 6,3 × 10 21 , mais encore une fois il n'y a pas eu d'interaction (tous les BF < 0,20). Cette constatation est conforme aux travaux antérieurs qui rapportent que la SAT implique des ajustements dans la prudence de réponse (par exemple, Boehm et al., 2014 Forstmann et al., 2008 Mulder et al., 2010 Van Maanen et al., 2011 Winkel et al., 2012). Cependant, en plus d'un changement de seuil, il y avait aussi des effets de SAT sur les taux de dérive. En particulier, la différence de taux de dérive, qui selon l'AIC ne pouvait être affectée que par la manipulation SAT, était en effet plus élevée sur les essais de précision par rapport aux essais de vitesse (BF SAM = 1,2 × 10 19 ). Ce résultat est en accord avec la littérature récente rapportant des résultats similaires (Dambacher & Hübner, 2014 Heitz & Schall, 2012 Ho et al., 2012 Mulder et al., 2010 Rae et al., 2014). Enfin, il existe également des preuves pour inclure des paramètres de temps de non-décision séparés pour les trois conditions SAT (BF SAM = 40). Des études antérieures rapportent également que les paramètres de temps de non-décision peuvent différer entre les instructions de vitesse et de précision (Heitz & Schall, 2012 Mulder et al., 2013).

Expérience 3 : difficulté de la tâche

Le modèle LBA qui a été préféré par AIC était un modèle dans lequel le seuil variait avec l'ITI et la session, le taux de dérive moyen variait avec la session et la cohérence, et le temps de non-décision variait avec la session uniquement (w UNE je C = 1,0). Comme c'est souvent le cas pour les modèles LBA, le taux de dérive moyen ainsi que l'écart type variaient selon qu'une réponse était correcte ou non. Note de bas de page 5 L'ajustement de ce modèle est généralement assez bon (figure 8). Les estimations moyennes des paramètres sont présentées dans la colonne de droite de la figure 6.

Le modèle LBA correspond bien aux données de l'expérience 4. Panneaux supérieurs .1, .5, .9 quantiles RT pour des réponses correctes Panneaux inférieurs Taux d'erreur. Les données ainsi que les prédictions du modèle sont moyennées entre les participants

Selon une ANOVA bayésienne, le paramètre de non-décision était plus élevé en séance d'IRM qu'en séance comportementale (BF = 6,2, voir également le tableau 2). Le paramètre de seuil ne différait pas entre les sessions, les ITI, ni l'interaction (BFs < 0,32, voir aussi le tableau 2). La somme des taux de dérive non plus (tous les BF < 0,22). La différence de taux de dérive a cependant augmenté à la fois avec la cohérence et la session (BF C o h e r e m c e = 7.3 × 10 22 BF S e s s je o m = 75). Il n'y avait aucune preuve en faveur d'une interaction entre ces effets (BF C o h e r e m c e×S e s s je o m = 0.21).

La diminution de la différence de taux de dérive que nous avons trouvée est cohérente avec une explication du foyer attentionnel des effets de l'environnement du scanner. C'est-à-dire que si la concentration attentionnelle est moindre, l'extraction d'informations du stimulus est affectée négativement, ce qui se traduit par une diminution des taux de dérive.

L'augmentation de la différence de taux de dérive avec la cohérence est cohérente avec la littérature (Churchland et al., 2011 Donkin et al., 2009 Ho et al., 2009 Mulder et al., 2013 Palmer et al., 2005). C'est-à-dire que lorsque la direction du mouvement devient plus reconnaissable, l'extraction d'informations du stimulus en faveur de l'alternative correcte augmente. Par conséquent, la différence de taux de dérive entre l'alternative correcte et l'alternative incorrecte augmente également.

En accord avec les analyses de RT et de précision, les paramètres du modèle ne différaient pas entre la première et la deuxième session, ni isolément (tous les BF < 0,75) ni en interaction avec le type de session (tous les BF < 1,14). Ainsi, la conclusion qu'il n'y a pas d'effet pratique appréciable de la première à la deuxième séance semble justifiée. Ce résultat ajoute une justification à l'interprétation des expériences 1 et 2, car il est probable qu'il n'y a pas non plus d'effet important de la pratique dans les ordres de session.


4. Conclusion

De Flora et al. a écrit ce qui suit : « Depuis la fin du 20e siècle, les maladies dégénératives chroniques ont vaincu les maladies infectieuses en tant que principales causes de décès au 21e siècle, donc une augmentation de la longévité humaine dépendra de la recherche d'une intervention qui inhibe le développement de ces maladies et ralentit leur progression” [33].

Une telle intervention pourrait-elle se situer juste sous nos pieds ? La recherche sur la terre, les observations et les théories connexes soulèvent une possibilité intéressante concernant les électrons de surface de la Terre en tant que ressource de santé inexploitée. La Terre en tant que table de traitement globale. à l'intérieur connecté à des systèmes conducteurs mis à la terre peut être une stratégie environnementale simple, naturelle et pourtant profondément efficace contre le stress chronique, le dysfonctionnement du SNA, l'inflammation, la douleur, le manque de sommeil, la VRC perturbée, le sang hypercoagulable et de nombreux troubles de santé courants, y compris les maladies cardiovasculaires. Les recherches effectuées à ce jour soutiennent le concept selon lequel la mise à la terre ou la mise à la terre du corps humain peut être un élément essentiel de l'équation de la santé avec le soleil, l'air et l'eau purs, les aliments nutritifs et l'activité physique.


Fond

Trouble bipolaire et dépressif majeur

Le trouble bipolaire et le trouble dépressif majeur (TDM) sont des troubles mentaux avec une prévalence sur 12 mois dans l'UE d'environ 1 et 7 %, respectivement [1]. Ils sont associés à une qualité de vie réduite, à un risque de mortalité accru et sont une cause majeure d'incapacité de travail [2,3].

La prise en charge de la dépression comprend des approches de traitement psychosocial, une pharmacothérapie et, pour les patients les plus sévères et résistants au traitement, un traitement par électrochocs (ECT).

Traitement par électrochocs

L'idée que les convulsions pouvaient traiter la maladie mentale remonte au 16 e siècle, lorsque l'huile de camphre était utilisée pour provoquer des convulsions. L'induction de crise par application de courant électrique au cerveau humain a été introduite par les Italiens Cerletti et Bini en 1938 [4]. Depuis son introduction, l'ECT ​​a été appliquée à diverses affections psychiatriques et à certaines affections somatiques. L'ECT moderne a moins d'indications et a été développée dans le but de réduire les effets secondaires [5].

Pour certains patients dans un épisode dépressif résistant au traitement, l'ECT ​​est le seul traitement efficace. L'ECT est généralement considérée comme sûre et a montré son efficacité dans des essais contrôlés randomisés [6]. Un récent essai contrôlé randomisé a révélé que l'ECT ​​était plus efficace que le traitement pharmacologique pour la dépression bipolaire résistante au traitement [7]. Cependant, le traitement reste controversé et stigmatisé [8]. Cela peut en partie être attribué à notre manque de connaissances, puisque les mécanismes d'action sont encore largement inconnus.

Certains ont comparé l'ECT ​​à la lobotomie [9] ou émettent l'hypothèse que l'ECT ​​affecte le cerveau d'une manière similaire à un stress ou à un traumatisme grave [10]. D'autres le considèrent comme un traitement sûr et sous-utilisé [11], et une revue systématique n'a trouvé aucun déficit cognitif persistant après ECT [12]. Un essai contrôlé randomisé récent de l'ECT ​​unilatérale droite dans la dépression résistante au traitement n'a trouvé aucun changement dans la fonction neurocognitive générale, mais une cohérence de la mémoire autobiographique réduite après l'ECT ​​[13]. Ce résultat est conforme aux rapports subjectifs des patients [14], et des recherches supplémentaires sont nécessaires.

Les lignes directrices du NICE stipulent : « Envisagez l'ECT ​​pour le traitement aigu de la dépression grave mettant la vie en danger et lorsqu'une réponse rapide est requise, ou lorsque d'autres traitements ont échoué » [15]. Ceci est conforme aux directives nationales norvégiennes qui recommandent l'ECT ​​dans la dépression majeure lorsque les autres traitements se sont révélés inefficaces (niveau de preuve A, [16]), et son utilisation a augmenté ces dernières années [17].

L'augmentation des connaissances acquises grâce à des enquêtes scientifiques approfondies peut réduire les stigmates et informer les patients et les prestataires de soins de santé pour qu'ils utilisent l'ECT ​​de manière appropriée. Une meilleure compréhension de l'ECT ​​et de ses mécanismes d'action peut aider les patients à faire face aux effets secondaires et contribuer au développement de nouvelles options de traitement.

Mécanismes d'action possibles de l'ECT

Plus d'une centaine de théories ont été suggérées pour les effets de l'ECT ​​[5]. Bien que des modifications de la structure cérébrale dans la dépression majeure aient été confirmées par plusieurs méta-analyses [18-20] et que des modifications structurelles et fonctionnelles induites par l'ECT ​​aient été caractérisées (pour des revues récentes, voir [21-23]), nous manquons encore d'une théorie unificatrice pour ses mécanismes d'action. Le projet se concentrera sur trois effets suggérés de l'ECT, chacun reflétant les changements physiopathologiques et les mécanismes d'action proposés, voir ci-dessous. En tant qu'étude multidisciplinaire, les résultats des mesures neuroradiologiques peuvent être corrélés à des biomarqueurs dans les paramètres sanguins et comportementaux, par ex. l'amélioration/rémission après ECT devrait être corrélée à l'amélioration des performances aux tests neuropsychologiques. Pour l'écoute dichotique, des scores améliorés dans la condition gauche forcée indiqueraient un meilleur contrôle cognitif.

Volume hippocampique

Le système nerveux humain s'adapte aux défis. Elle peut être modifiée par l'apprentissage ainsi que par des conditions pathologiques, telles que des troubles psychiatriques. Une structure qui a été étudiée en détail à cet égard est l'hippocampe, une structure importante pour l'apprentissage et la mémoire. Les volumes hippocampiques sont réduit dans le trouble dépressif majeur [19,24,25] et dans un certain nombre d'autres troubles psychiatriques et somatiques (revue dans [26]). La réduction du volume de l'hippocampe a été associée à la durée de la dépression non traitée [27]. D'autre part, augmenté les volumes hippocampiques peuvent survenir après un apprentissage approfondi, par ex. étudier pour devenir l'un des chauffeurs de taxi de Londres [28,29]. Les augmenter dans les volumes de l'hippocampe peut être liée à la neurogenèse, qui a été démontrée dans des modèles animaux [30,31]. Chez les primates, la prolifération des cellules granuleuses dans le gyrus denté de l'hippocampe s'est avérée réduite par le stress [30]. Les crises induisent la neurogenèse chez les rongeurs [32], et des modèles animaux ont montré que les crises électroconvulsives avaient des effets sur les neurotransmetteurs, l'expression des gènes, les facteurs de croissance (tels que le facteur neurotrophique dérivé du cerveau - BDNF, le facteur de croissance endothélial vasculaire - VEGF, le facteur de croissance des fibroblastes - FGF) et les neuropeptides (tels que le neuropeptide Y - NPY, Thyrotropin-releasing hormone - TRH, VGF) et conduisent à un remodelage synaptique et à une prolifération cellulaire (revue dans [33]). Des recherches sur des modèles animaux indiquent également que les chocs électroconvulsifs peuvent inverser l'effet du cortisol et même provoquer une augmentation des volumes de l'hippocampe (examiné dans [5]).

Des niveaux accrus de BDNF ont été rapportés après ECT [34], et le BDNF a été suggéré comme biomarqueur potentiel de la dépression [35]. Il a été démontré que la neurogenèse se produit dans le gyrus denté de l'hippocampe chez l'homme adulte [36], et la neuroplasticité induite par l'ECT ​​gagne en importance en tant que cadre pour comprendre les effets de l'ECT ​​[23]. Quelques études chez l'homme ont rapporté une augmentation des volumes hippocampiques et/ou d'autres changements structurels après ECT [37-41]. Nordanskog et al. [39,41] ont effectué une segmentation manuelle sans aveuglement complet du point temporel de l'IRM tracé (avant ou après l'ECT), introduisant un biais potentiel de l'observateur. Dukart et al. [38] ont utilisé la morphométrie à base de voxels, tandis que Tendolkar et al. [40] et Abbot et al. [37] ont tous deux utilisé FreeSurfer [42] pour la segmentation et l'analyse volumétrique. Par rapport à ces études, nous recruterons davantage de patients, utiliserons des procédures de segmentation automatique de pointe et les lecteurs de radiologie ne connaîtront pas le groupe d'étude et le moment des examens IRM. De plus, en appliquant l'imagerie multimodale, les changements structurels peuvent être évalués en ce qui concerne les changements dans les propriétés de diffusion, l'imagerie pondérée en susceptibilité (SWI) et l'imagerie de récupération d'inversion atténuée par fluide (FLAIR).Notre conception permettra un suivi longitudinal des changements cérébraux 1 à 2 heures après le premier ECT, après la fin du traitement et à 6 mois de suivi.

Acide gamma-aminobutyrique (GABA) et connectivité

L'ECT a des effets anticonvulsivants et est parfois utilisée dans le traitement de l'état de mal épileptique [43]. Une hypothèse suggère que l'amplitude de l'augmentation du seuil épileptique, induite par l'ECT, est importante pour l'efficacité des antidépresseurs [44]. Les médicaments qui améliorent la neurotransmission GABAergique sont connus pour leur effet anticonvulsivant, et le rôle des systèmes de neurotransmission des acides aminés, en particulier la fonction réduite de la neurotransmission GABAergique, est de plus en plus apprécié dans la dépression majeure (pour les revues, voir [45,46]). La tiagabine, un inhibiteur sélectif de la recapture du GABA, s'est avérée efficace dans le traitement de la dépression avec anxiété [47]. Une étude post mortem de l'expression génique chez des patients âgés déprimés a trouvé des altérations des marqueurs des voies GABA et glutamate indiquant une activité diminuée dans le cortex cingulaire antérieur (ACC) [48]. Une méta-analyse récente a suggéré une activité accrue à l'état de repos dans l'ACC rostral en tant que biomarqueur de la réponse au traitement dans la dépression majeure, et un passage de la modulation GABA à la modulation médiée par le glutamate a été suggéré [49].

Fait intéressant, une première étude a trouvé des concentrations accrues de GABA cortical après ECT chez des patients déprimés en utilisant la spectroscopie par résonance magnétique du proton ( 1 H-MRS) [50], mais cette découverte n'a, à notre connaissance, pas été reproduite par d'autres groupes.

Il a été récemment suggéré que «l'hyperconnectivité» dans les réseaux impliqués dans la régulation de l'humeur peut être réduite après un cours d'ECT [51,52]. Ce résultat peut sembler contraire aux résultats d'une augmentation de l'anisotropie fractionnelle (AF) dans les projections limbiques frontales après une cure d'ECT [53,54]. L'AF est souvent considérée comme une mesure de l'intégrité des voies de la substance blanche et une intégrité axonale accrue peut sembler contre-intuitive si l'on s'attend à une connectivité réduite après l'ECT. Des explications possibles pourraient être que les projections qui sont « améliorées » par l'ECT ​​sont GABAergiques, ou que l'amélioration de l'intégrité de certaines projections peut conduire à une activité électrique plus coordonnée dans ces projections, ce qui est globalement détecté comme une « connectivité réduite ».

Notre projet englobera des mesures de neurotransmetteurs (GABA et glutamate par 1 H-MRS) et de paramètres de diffusion (par exemple, anisotropie fractionnelle, diffusivité moyenne et séparation de l'eau restreinte et encombrée par Restriction Spectrum Imaging, RSI [55]), permettant des études longitudinales du GABA - et les niveaux de glutamate ainsi que les propriétés de la substance blanche chez les mêmes patients.

ECT et effets nocifs

L'ECT a été un traitement controversé depuis son introduction. Les effets secondaires les plus importants sont liés aux troubles de la mémoire [6] et il est recommandé de surveiller le fonctionnement cognitif des patients pendant et après le traitement [16]. Un récent essai contrôlé randomisé sur la dépression bipolaire résistante au traitement a révélé une cohérence de la mémoire autobiographique réduite après l'ECT ​​mais aucune détérioration de la fonction neurocognitive générale [13]. Les dommages structurels au cerveau humain n'ont, à notre connaissance, jamais été documentés comme étant causés par l'ECT. Des études de cas avec des complications rares, telles que l'hématome sous-dural, ont été publiées [56], mais une étude utilisant la tomodensitométrie cérébrale chez 40 patients avant et après l'ECT ​​n'a détecté aucun changement causé par l'ECT, même avec des convulsions durant plusieurs minutes [57]. L'IRM conventionnelle et l'imagerie pondérée en diffusion (DWI une séquence sensible à l'œdème) n'ont pas réussi à trouver de dommages structurels [58]. Cependant, des changements sur DWI ont été montrés pour les patients après l'état de mal épileptique [59]. Si une lésion cérébrale survient à la suite de l'ECT, on peut s'attendre à trouver des micro-hémorragies. Le SWI est extrêmement sensible aux hémorragies et est couramment utilisé dans l'imagerie des accidents vasculaires cérébraux [60]. Cependant, le SWI, en tant qu'indicateur de désintégrité microvasculaire, n'a, à notre connaissance, jamais été appliqué après ECT. De plus, en utilisant 1 H-MRS, nous mesurerons le N-acétylaspartate (NAA), qui est principalement localisé dans les neurones et considéré comme un marqueur de l'intégrité neuronale [61].

Notre projet utilisera une intensité de champ élevée, une IRM de pointe et combinera RSI, SWI et 1 H-MRS qui devraient permettre la détection d'effets post-ECT plus subtils.

Hypothèses et objectifs

Sur la base des discussions ci-dessus, les principales hypothèses suivantes définissent les grandes lignes et les objectifs de ce projet :

Les volumes hippocampiques augmentent après le traitement par ECT. A) Plus précisément, il y a une augmentation du volume du gyrus denté, ce qui suggère que l'augmentation est causée par la neurogenèse. B) Les modifications de la structure de l'hippocampe sont en corrélation avec la réponse au traitement, les mesures neurocognitives et l'augmentation des concentrations de facteurs neurotrophiques dans les échantillons de sang.

L'ECT provoque une augmentation des niveaux du neurotransmetteur GABA et modifie l'équilibre glutamate/GABA. A) Les concentrations de GABA sont en corrélation avec la réponse au traitement. B) Les gènes régulant la synthèse et le cycle du GABA sont régulés à la hausse ou activés. C) Un sous-ensemble de projections corticales est renforcé, un mécanisme possible entraînant une connectivité réduite dans les zones frontales.

L'ECT ne provoque pas de signes mesurables d'effets nocifs sur le cerveau. A) Aucun changement n'est détecté sur l'imagerie microvasculaire (SWI) et microstructurale (RSI). NAA (mesuré dans l'ACC) n'est pas affecté. B) Effets post-ECT immédiats possibles, par ex. les œdèmes, détectables par imagerie pondérée en diffusion, sont réversibles.

Méthodes et conception

L'étude est prospective et observationnelle, et tous les patients recevront le traitement ECT standard, tel qu'il est fourni au service ECT de l'hôpital universitaire de Haukeland.

Un organigramme de la conception de l'étude est présenté à la figure 1, et les détails sur les mesures et les variables de l'étude sont répertoriés dans le tableau 1.


Imagerie cérébrale avec magnétoencéphalographie pendant le repos et pendant le traitement de la parole et du langage

Modèles inverses pour reconstruire l'activité cérébrale à partir de mesures

Des algorithmes inverses sont utilisés pour résoudre le problème inverse bioélectromagnétique, c'est-à-dire estimer les paramètres du modèle de source neuronale à partir de mesures MEG et EEG obtenues à l'extérieur de la tête humaine. Étant donné que les distributions des sources sont intrinsèquement quadridimensionnelles (trois dans l'espace et une dans le temps) et que seules quelques mesures sont effectuées à l'extérieur de la tête, l'estimation est mal posée en d'autres termes, il n'y a pas de solutions uniques pour un ensemble donné de mesures. Pour contourner ce problème de non-unicité, diverses procédures d'estimation intègrent des connaissances et des contraintes préalables sur les caractéristiques de la source, telles que les emplacements possibles de la source, l'étendue spatiale de la source, le nombre total de sources ou les caractéristiques source-fréquence/temps-fréquence.

Les algorithmes inverses peuvent être classés en deux grandes catégories : l'ajustement paramétrique du dipôle et les méthodes d'imagerie tomographique. Les méthodes d'ajustement de dipôles paramétriques supposent qu'un petit ensemble de dipôles de courant (généralement deux à cinq) peut représenter de manière adéquate une distribution de source inconnue. Dans ce cas, les emplacements et les moments des dipôles forment un ensemble de paramètres inconnus qui sont généralement trouvés à l'aide d'un ajustement non linéaire des moindres carrés ou d'algorithmes de classification de signaux multiples ou de méthodes d'estimation du maximum de vraisemblance (Mosher, Baillet, & Leahy, 1999). L'ajustement paramétrique du dipôle a été utilisé avec succès en clinique pour la localisation des réponses sensorielles précoces dans les cortex somatosensoriel et auditif. La Fig. 15.2 montre un exemple de localisation paramétrique de dipôle dans le contexte de réponses évoquées auditives et montre que les réponses aux pics auditifs précoces peuvent souvent être localisées à une activité provenant d'une source située dans le plan temporal supérieur, du cortex auditif et de son environs. Cependant, la localisation des fonctions corticales auditives d'ordre supérieur n'est pas toujours cohérente et fiable avec ces méthodes à travers les paradigmes ou les sujets.

Graphique 15.2 . (A) Réponses évoquées auditivement à un train de tonalités se produisant à 200 ms d'intervalle. Les formes d'onde bleues correspondent à l'hémisphère droit et les formes d'onde violettes correspondent à l'hémisphère gauche. La topographie du champ magnétique sur le réseau de capteurs est représentée par des cercles colorés ci-dessus pour les quatre premières réponses de pic. (B) Amplitude et latences des quatre premiers pics de réponse montrant des similitudes hémisphériques dans la latence et les amplitudes. (C) La localisation dipolaire de chacun des quatre pics montre une activité provenant du cortex auditif et de ses environs immédiats.

Tiré de Hairston, I. S., &amp Nagarajan, S. S. (2007). Mécanismes neuronaux de l'erreur d'ordre temporel : une étude MEG. Journal des neurosciences cognitives, 19, 1163–1174.

Deux problèmes majeurs existent dans les procédures d'ajustement des dipôles. Premièrement, en raison de l'optimisation non linéaire, il existe des problèmes de minima locaux lorsque plus de deux paramètres dipolaires sont estimés. Cela se manifeste généralement par une sensibilité à l'initialisation, et une certaine subjectivité est impliquée dans l'évaluation de la validité des solutions. Les méthodes de recherche par force brute ont une charge de calcul énorme - exponentielle dans le nombre de paramètres. Un deuxième problème, plus difficile, des méthodes paramétriques est que ces méthodes nécessitent souvent une connaissance a priori du nombre de dipôles. Cependant, de telles informations sur l'ordre des modèles ne sont pas toujours connues a priori, en particulier pour les conditions complexes de cartographie cérébrale. Bien que des critères théoriques d'information et de décision aient été proposés pour résoudre ce problème, le succès de ces approches n'est actuellement pas clair, en particulier dans des ensembles de données réels. Alors que les méthodes dipolaires paramétriques sont idéales pour les sources ponctuelles ou focales, elles fonctionnent mal pour les grappes de sources distribuées. Néanmoins, de nombreuses études à ce jour utilisant MEG ont utilisé des procédures d'ajustement de dipôle pour faire des inférences sur l'activité corticale.

L'imagerie tomographique est une approche alternative au problème inverse. Ces méthodes imposent des contraintes sur les emplacements des sources basées sur des informations anatomiques et physiologiques qui peuvent être dérivées d'informations obtenues avec d'autres modalités d'imagerie. L'IRM anatomique offre une excellente résolution spatiale de l'anatomie de la tête et du cerveau, tandis que les techniques d'IRMf fournissent une mesure alternative de l'activation neurale basée sur les changements hémodynamiques associés. En raison du degré élevé de chevauchement des activités mesuré à l'aide de modalités multiples, ces informations peuvent être utilisées pour améliorer les solutions au problème inverse. Si nous supposons que les sources dominantes sont les courants transmembranaires et intracellulaires dans les dendrites apicales des cellules pyramidales corticales, l'image source peut être limitée au cortex, qui peut être extrait d'une IRM de volume enregistrée de la tête du sujet. De plus, l'orientation des cellules normales à la surface corticale peut être utilisée pour contraindre l'orientation des sources de courant corticales. En quadrillant le cortex en régions disjointes et en représentant les sources dans chaque région par un dipôle de courant équivalent orienté perpendiculairement à la surface, le modèle direct reliant les sources et les mesures peut être écrit comme un modèle linéaire avec un bruit additif. Une telle formulation transforme le problème inverse en une méthode d'imagerie linéaire car elle implique l'estimation de l'activité électrique à des emplacements discrets sur une grille de reconstruction finement échantillonnée basée sur des mesures discrètes. Ce problème d'imagerie, bien que linéaire, est également très mal posé en raison du nombre limité de mesures de capteurs disponibles par rapport au nombre d'éléments utilisés dans la grille de tessellation.

Diverses solutions ont été proposées pour résoudre le problème de l'imagerie tomographique, et comme il y a beaucoup plus d'inconnues à estimer simultanément (amplitude de la source et évolutions temporelles) qu'il n'y a de données de capteurs, le problème est indéterminé.

Au lieu d'estimer simultanément toutes les sources, une alternative populaire consiste à scanner le cerveau et à estimer l'amplitude de la source à chaque emplacement de source indépendamment. Il peut être démontré que de telles méthodes de balayage sont étroitement liées aux méthodes de tomographie du cerveau entier, et les algorithmes de balayage les plus populaires sont des techniques de filtrage spatial adaptatif, plus communément appelées « formateurs de faisceaux adaptatifs », ou simplement « formateurs de faisceaux » (Sekihara & Nagarajan, 2008).

Les formateurs de faisceaux adaptatifs se sont avérés simples à mettre en œuvre et constituent des techniques puissantes pour caractériser les oscillations corticales et sont étroitement liés à d'autres méthodes d'imagerie tomographique. Cependant, un problème majeur avec les formateurs de faisceaux adaptatifs est qu'ils sont extrêmement sensibles à la présence de sources fortement corrélées. Bien qu'ils soient robustes à des corrélations modérées, dans le cas des études auditives, parce que les cortex auditifs sont en grande partie synchrones dans leur activité à travers les deux hémisphères, ces algorithmes ont tendance à mal fonctionner pour les ensembles de données évoquées auditives sans solution de contournement ( Fig. 15.5 ), et de nombreuses modifications ont été proposées pour réduire l'influence des sources corrélées ( Dalal, Sekihara, & Nagarajan, 2006 ). La solution de contournement la plus simple consiste à utiliser séparément la moitié des capteurs correspondant à chaque hémisphère, et cette approche fonctionne étonnamment bien pour les interactions inter-hémisphériques. D'autres modifications aux algorithmes originaux ont été proposées dans la littérature, qui nécessitent une certaine connaissance de l'emplacement de la région source corrélée ( Dalal et al., 2006 Quraan & Cheyne, 2010 ).

De nombreux algorithmes ont également été proposés pour l'estimation simultanée de toutes les amplitudes de source, et de telles solutions nécessitent la spécification de connaissances préalables sur les sources, implicitement ou explicitement spécifiées sous la forme de distributions de probabilité. Dans ces cas, les solutions nécessitent souvent une procédure d'inférence bayésienne pour estimer certains aspects de la distribution a posteriori compte tenu des données et des a priori. Nous avons montré que les nombreux algorithmes apparemment disparates pour l'imagerie de source tomographique peuvent être unifiés et montrés, dans certains cas, équivalents, en utilisant un cadre de modélisation bayésien hiérarchique avec une forme générale de distribution a priori (appelée mélange à l'échelle gaussienne) et deux types différents de calculs inférentiels. procédures ( Wipf & Nagarajan, 2008 ). Ces connaissances permettent le développement continu de nouveaux algorithmes pour l'imagerie tomographique en relation avec les efforts antérieurs dans cette entreprise. Des algorithmes ont montré que des améliorations significatives des performances peuvent être obtenues par des méthodes d'inférence bayésiennes modernes qui permettent des reconstructions précises d'un grand nombre de sources à partir de configurations typiques de capteurs MEG ( Wipf, Owen, Attias, Sekihara, & Nagarajan, 2010 Zumer, Attias, Sekihara, & Nagarajan, 2007, 2008). La figure 15.3 montre des reconstructions de sources de réponses évoquées auditivement à l'aide d'un de ces nouveaux algorithme, appelé Champagne, ainsi que des reconstructions à partir d'algorithmes de référence populaires pour des comparaisons qui mettent en évidence des localisations incohérentes, une résolution spatiale plus faible et une sensibilité aux sources corrélées et au bruit.

Graphique 15.3 . Résultats du champ auditif évoqué pour sept sujets différents. Les résultats de Champagne (CHAM P) sont affichés dans la colonne la plus à gauche et les résultats des algorithmes de référence (formateurs de faisceaux adaptatifs à variance minimale (MVA B), sLORETA (SL/dSP M) et MCE) sont affichés dans les trois autres colonnes. Seul le Champagne montre une localisation cohérente des cortex auditifs dans les deux hémisphères pour tous les sujets.


Risques pour la santé liés à l'exposition aux champs électromagnétiques

Une étude sur l'exposition réelle aux rayonnements non ionisants des champs magnétiques chez les femmes enceintes a révélé un taux de fausses couches significativement plus élevé, fournissant de nouvelles preuves concernant leurs risques potentiels pour la santé. L'étude Kaiser Permanente a été publiée aujourd'hui dans la revue Rapports scientifiques (Groupe d'édition Nature).

Le rayonnement non ionisant des champs magnétiques est produit lorsque des appareils électriques sont utilisés et que l'électricité circule. Il peut être généré par un certain nombre de sources environnementales, notamment les appareils électriques, les lignes électriques et les transformateurs, les appareils sans fil et les réseaux sans fil. Les humains sont exposés à des champs magnétiques à proximité de ces sources pendant leur utilisation.

Alors que les risques pour la santé des rayonnements ionisants sont bien établis et comprennent la maladie des rayonnements, le cancer et les dommages génétiques, les preuves des risques pour la santé des humains dus aux rayonnements non ionisants restent limitées, a déclaré De-Kun Li, MD, PhD, chercheur principal du et épidémiologiste de la reproduction et de la périnatalité à la Kaiser Permanente Division of Research à Oakland, en Californie.

"Peu d'études ont pu mesurer avec précision l'exposition aux rayonnements non ionisants du champ magnétique", a déclaré le Dr Li. "De plus, en raison du manque actuel de recherche sur ce sujet, nous ne connaissons pas le seuil biologique au-delà duquel des problèmes peuvent se développer, et nous ne comprenons pas encore non plus les mécanismes possibles d'une augmentation des risques."

Dans une nouvelle étude financée par le National Institute of Environmental Health Sciences, des chercheurs ont demandé aux femmes de plus de 18 ans ayant une grossesse confirmée de porter un petit appareil de surveillance du champ magnétique (un peu plus grand qu'un jeu de cartes) pendant 24 heures. Les participants ont également tenu un journal de leurs activités ce jour-là et ont été interrogés en personne pour mieux contrôler les facteurs de confusion possibles, ainsi que la façon dont leurs activités étaient typiques le jour de la surveillance. Les chercheurs ont contrôlé plusieurs variables connues pour influencer le risque de fausse couche, notamment les nausées/vomissements, les antécédents de fausse couche, la consommation d'alcool, la consommation de caféine, la fièvre et les infections maternelles.

Des mesures objectives du champ magnétique et des résultats de grossesse ont été obtenus pour 913 femmes enceintes, toutes membres de Kaiser Permanente Northern California. Une fausse couche s'est produite chez 10,4 % des femmes présentant le niveau d'exposition mesuré le plus faible (1er quartile) aux rayonnements non ionisants du champ magnétique au cours d'une journée typique, et chez 24,2 % des femmes présentant le niveau d'exposition mesuré le plus élevé (2e, 3e et 4e quartiles ), un risque relatif presque trois fois plus élevé. Le taux de fausses couches signalé dans la population générale se situe entre 10 et 15 pour cent, a déclaré le Dr Li.

"Cette étude fournit des preuves provenant d'une population humaine que les rayonnements non ionisants du champ magnétique pourraient avoir des effets biologiques néfastes sur la santé humaine", a-t-il déclaré.

Les points forts de cette étude, a noté le Dr Li, incluaient le fait que les chercheurs utilisaient un appareil de mesure objectif et étudiaient un résultat à court terme (fausse couche) plutôt qu'un résultat qui se produira des années ou des décennies plus tard, comme le cancer ou les maladies auto-immunes. La principale limite de l'étude est qu'il n'était pas possible pour les chercheurs de demander aux participantes de porter l'appareil de mesure tout au long de la grossesse.

Le Dr Li a noté que le risque potentiel pour la santé des rayonnements non ionisants des champs magnétiques nécessite davantage de recherches. "Nous espérons que les résultats de cette étude stimuleront des études supplémentaires indispensables sur les risques environnementaux potentiels pour la santé humaine, y compris la santé des femmes enceintes."


Les champs électromagnétiques affectent les cellules humaines

Les champs électromagnétiques, similaires à ceux trouvés dans les lignes électriques aériennes, peuvent avoir un effet biologique sur les cellules humaines, un effet qui pourrait contribuer au processus cellulaire complexe qui conduit au cancer, selon une recherche de la Michigan State University.

Les travaux de James E.Trosko, professeur de pédiatrie et de développement humain, et ses collègues est publié dans le numéro d'octobre de Environmental Health Perspectives, le journal de l'Institut national des sciences de la santé environnementale.

"Nos études ont contribué à ce que de nombreuses autres études ont montré, à savoir qu'il existe un effet biologique de l'énergie conférée par les CEM à fréquence extrêmement basse (ELF-EMF) sur les systèmes vivants", a déclaré Trosko.

Jusqu'à présent, a-t-il déclaré, la plupart des études sur les effets biologiques et sur la santé des ELF-EMF étaient "non concluantes ou contradictoires".

"Jusqu'à présent, le poids des preuves théoriques et expérimentales a suggéré que ELF-EMF n'avait pas la capacité d'interagir avec le matériel génétique pour l'endommager, provoquant ainsi des mutations qui, nous le savons, peuvent conduire au cancer", a déclaré Trosko.

Trosko et ses collègues ont étudié les effets des ELF-EMF sur les cellules leucémiques de souris qui avaient le potentiel de devenir des cellules produisant de l'hémoglobine après exposition à un produit chimique. L'hémoglobine est la substance qui est nécessaire pour lier l'oxygène dans le sang. Ils ont découvert que des champs électromagnétiques de 60 hertz et d'intensités allant de 0,05 à 10 gauss interféraient avec le processus de maturation induit chimiquement dans les cellules de souris et permettaient aux cellules de continuer à proliférer.

Après quatre jours d'exposition, environ 35 pour cent des cellules traitées chimiquement qui ont été exposées à ELF-EMF ont montré ces effets.

Ce que Trosko et ses collègues ont découvert, c'est que ELF/EMF n'est pas un initiateur de tumeur, mais plutôt un promoteur potentiel de tumeur.

"ELF-EMF ne semble pas muter les gènes, ce qui pourrait convertir une cellule normale en une cellule" initiée "", a-t-il déclaré. "Mais cela peut les allumer et les éteindre à des moments inappropriés, provoquant la prolifération de ces cellules initiées alors qu'elles resteraient normalement assises là sans rien faire."

"Le but de notre étude n'était pas de voir si les champs électromagnétiques de fréquence extrêmement basse provoquent le cancer, mais s'ils modifient l'expression des gènes", a déclaré Trosko. "En fin de compte, nous avons montré qu'il existe un effet biologique des CEM mesuré en modifiant l'expression du gène producteur d'hémoglobine.

"Je pense qu'il est important de noter qu'il y a une distinction entre un effet biologique et un effet sur la santé. Juste parce que je suis assis sous une ligne de transmission à haute puissance, et juste parce que cette exposition peut altérer une certaine activité biologique dans mon corps, cela ne change rien. signifie automatiquement que je vais avoir un cancer. Et même si je devais avoir un cancer, cela ne signifie pas que ELF-EMF a quelque chose à voir avec la production de ce cancer en particulier.

Trosko a souligné que le processus par lequel une cellule passe d'une cellule normale et saine à une cellule cancéreuse est long et complexe, impliquant différentes étapes moléculaires/biochimiques.

"Ces cellules initiées ont besoin d'agents promoteurs pour provoquer le cancer", a-t-il déclaré. "Ils peuvent être naturels, comme des hormones ou des produits chimiques dans les aliments que nous mangeons. Ou ils peuvent être des produits chimiques, des médicaments ou des polluants fabriqués par l'homme.

"Plus important encore, pour agir en tant que promoteur de tumeur, de nombreuses conditions doivent être remplies, y compris la capacité du promoteur à surmonter les effets de suppression naturels sur la prolifération cellulaire, le moment de l'exposition au promoteur, l'absence d'anti-promoteurs et l'exposition pendant des périodes régulières et longues."

Les autres membres de l'équipe de recherche de Trosko étaient Gang Chen, Brad L. Upham, Wei Sun, Chia-Cheng Chang, tous du département de pédiatrie et de développement humain de la MSU, Edward J. Rothwell et Kun-Mu Chen, du département de génie électrique de la MSU et Hiroshi Yamasaki du Centre International de Recherche sur le Cancer à Lyon, France.

Le travail a été financé par une subvention de l'Institut de recherche sur l'énergie électrique.

Source de l'histoire :

Matériel fourni par Université de Michigan. Remarque : Le contenu peut être modifié pour le style et la longueur.


Pointe Sébastien

Le syndrome d'électrohypersensibilité peut avoir peu à voir avec l'exposition réelle au rayonnement électromagnétique. Il peut plutôt être mieux compris comme une phobie expliquée par des mécanismes de trouble anxieux.

Le développement des technologies de communication (telles que les téléphones portables et autres appareils sans fil) a été suivi au cours des vingt dernières années avec l'apparition d'un nouveau syndrome d'électrohypersensibilité (EHS) auto-évalué, que certaines personnes, y compris certains médecins, attribuent à une exposition permanente à de faibles niveaux de rayonnement électromagnétique domestique. Le syndrome EHS n'est pas la seule préoccupation potentielle soulevée par les personnes préoccupées par les effets des rayonnements électromagnétiques sur la cognition, le sommeil et l'initiation ou la croissance des tumeurs, sans preuves scientifiques convaincantes ni propositions satisfaisantes concernant les mécanismes biologiques potentiels. Mais jusqu'à présent, le syndrome EHS (souvent appelé hypersensibilité électromagnétique) semble avoir concerné les effets supposés sur la santé de l'exposition aux rayonnements électromagnétiques. Certaines études (Hallberg et Oberfeld 2006 Eltiti et al. 2007 Schröttner et Leitgeb 2008) ont tenté de dénombrer les personnes affectées par l'EHS, ce qui est une tâche difficile en raison de l'absence de description médicale du syndrome EHS. Les résultats de ces études sont présentés à la figure 1. Une tendance à la hausse continue est observée dans les autodiagnostics EHS entre 1985 et 2005, bien que les dernières études suggèrent une diminution.

Figure 1 : Pourcentage d'individus EHS dans la population tel que mesuré dans différents pays européens entre 1985 et 2008 (adapté de Bellayer 2016).

Face aux nombreuses allégations concernant les effets néfastes sur la santé des rayonnements électromagnétiques en général et du syndrome EHS en particulier, l'Agence française de sécurité sanitaire de l'alimentation, de l'environnement et du travail (ANSES) a souligné dans son rapport 2018 la nécessité de prendre soin des personnes souffrant du syndrome EHS, bien qu'il n'ait pas reconnu la relation causale entre les rayonnements électromagnétiques et le syndrome EHS (Anses 2018). Parallèlement, depuis quelques années, un nombre croissant de décisions de justice ont reconnu le droit des personnes atteintes du syndrome EHS de refuser les technologies sans fil pour des raisons médicales, et certains juges ont décidé une relation causale entre le rayonnement électromagnétique et le syndrome EHS. Les médias de masse s'intéressent également au problème, et il est facile de trouver de nombreux témoignages en ligne de personnes souffrant du syndrome EHS.

Les scientifiques ont tenté de clarifier la nature de ce syndrome EHS et de vérifier la réalité de la relation présumée avec l'exposition aux rayonnements électromagnétiques. Dans cet article, je résumerai les résultats produits par les études de provocation et partagerai mon point de vue selon lequel l'étiologie du syndrome EHS n'est pas liée à une exposition réelle au rayonnement électromagnétique. Au lieu de cela, un trouble de type phobie devrait être étudié comme explication possible du syndrome EHS.

Études de provocation

Les effets biologiques des rayonnements électromagnétiques sont pris en compte par des normes normatives basées sur les déclarations de la Commission internationale de protection contre les rayonnements non ionisants (ICNIRP) (ICNIRP 1998). Les limites d'exposition normatives visent à protéger les personnes contre de fortes doses de rayonnement électromagnétique, qui peuvent entraîner des effets électriques ou thermiques (ou les deux) selon la fréquence de rayonnement. En effet, les courants induits ou l'élévation de température sont les seuls effets biologiques néfastes avérés associés à une exposition aiguë aux rayonnements électromagnétiques (Perrin et Souques 2012). En Europe, la directive 2013/35/UE a été créée pour protéger les travailleurs contre l'exposition à des conditions susceptibles de générer de tels effets. Cependant, le syndrome EHS apparaîtrait lorsque les personnes sont exposées à bas niveaux de rayonnement électromagnétique.

Une étude ou un essai de provocation est une forme d'essai clinique médical fréquemment utilisée dans ce domaine. Les participants sont exposés à une substance ou à un appareil censé provoquer une réponse ou à une substance ou un appareil fictif qui ne devrait provoquer aucune réponse. Plusieurs études de provocation ont été menées pour tenter de révéler une relation potentielle entre l'exposition aux rayonnements électromagnétiques à de faibles niveaux et le syndrome EHS. Le postulat est assez simple : comme les personnes EHS prétendent souffrir de divers symptômes lorsqu'elles sont exposées aux rayonnements électromagnétiques, des expérimentations devraient pouvoir examiner le phénomène en comparant le niveau d'inconfort des personnes EHS en fonction des conditions d'exposition mesurées par rapport à une population témoin. De telles études doivent traiter un effet potentiel de faible dose, ce qui rend les expériences sensibles aux variables confuses. Ainsi, pour être utilisables, de telles expériences doivent au moins être en simple aveugle et si possible en double aveugle, randomisées et contrebalancées.

Plusieurs auteurs ont tenté de créer de telles expériences. Une analyse complète et pertinente de ces études de provocation a été réalisée par E. van Rongen et ses collègues (2009), qui concluent que dans les études de provocation, une relation causale entre l'exposition aux rayonnements électromagnétiques et les symptômes « n'a pas été démontrée, ce qui suggère que des facteurs psychologiques tels que l'attente consciente de l'effet peut jouer un rôle important dans cette condition. Cette conclusion est partagée par Renáta Szemerszky et ses collègues (2010), qui ont étudié le rôle de l'effet nocebo dans les symptômes physiques rapportés à une fréquence de 50 hertz. Ils ont trouvé un effet nocebo considérable et noté la formation d'un « cercle vicieux de facteurs psychosociaux, tels qu'une perception accrue du risque et des attentes, l'autosurveillance, la somatisation et l'amplification somatosensorielle, la précarisation et la mauvaise attribution ».

Une approche cognitive

D'une part, les études de provocation n'ont pas réussi à déterminer une relation causale avec l'exposition à de faibles niveaux de rayonnement électromagnétique, et il n'y a pas de candidat sérieux pour un mécanisme biologique. D'autre part, les résultats de certaines études montrent un nombre important de personnes déclarant souffrir du syndrome EHS. Ces constats contradictoires appellent une nouvelle voie d'investigation. Comme suggéré par certains auteurs, une étiologie possible est psychologique. Je suggère un mécanisme cognitif pour expliquer le syndrome EHS comme une forme potentielle de phobie dans laquelle le biais de confirmation pourrait avoir un rôle central. Une vue de ma proposition de mécanisme est illustrée à la figure 2. La justification et l'hypothèse utilisées pour le construire sont discutées ci-dessous.

Vulnérabilité biologique

La symptomatologie anxieuse a été décrite comme étant sous l'influence de certains facteurs génétiques (Jardine et al. 1984 Kendler et al. 1992 Andrews 1996). En étudiant l'étiologie de la phobie sociale, Ronald M. Rapee et Richard G. Heimberg (1997) ont suggéré que des facteurs génétiques pourraient expliquer l'attribution préférentielle de l'attention au danger. Le rôle du facteur biologique a été intégré dans de nombreux modèles d'anxiété, y compris le modèle biopsychosocial de Jones et Barlow de stress post-traumatique (Jones et Barlow 1992) et le modèle de panique de Clark (Clark 1986). Dans ce dernier modèle, les personnes souffrant de troubles paniques sont excessivement sensibles à certaines perceptions corporelles normales ou pathologiques, qu'elles considèrent comme une menace catastrophique et qui peuvent déclencher une attaque de panique. La manifestation biologique de cette attaque de panique peut amplifier la perception de la menace. Certains résultats récents ont montré que cette vulnérabilité biologique aux troubles anxieux, dont la dépression et le stress post-traumatique, pourrait être liée au volume des hippocampes (Campbell et MacQueen 2004 Bremner et al. 1995). La théorie largement acceptée de l'anxiété par Jeffrey A. Gray et Neil McNaughton (2003) souligne également le rôle principal des hippocampes dans les comportements anxieux. Mais certaines études suggèrent que l'évolution du volume hippocampique n'est pas le résultat d'une anxiété, d'un traumatisme ou d'une dépression mais serait, au contraire, un facteur causal (Gilbertson et al. 2002). La vulnérabilité biologique et l'allocation préférentielle de son attention à la menace sont acceptées comme l'une des bases du développement des troubles anxieux. Pour considérer le syndrome EHS comme une forme de phobie, il faut faire l'hypothèse fondamentale que les individus EHS sont porteurs, avant l'apparition des symptômes, de ce type de vulnérabilité biologique..

Exposition alléguée en tant que stimulus neutre et représentation mentale des troubles de la santé

Les troubles anxieux sont souvent associés à un stimulus neutre, tel qu'il est compris dans une approche pavlovienne. Si le syndrome EHS est une phobie, l'exposition présumée au rayonnement électromagnétique pourrait jouer le rôle de stimulus neutre. De mon point de vue, plusieurs indices appuient cette hypothèse.

Comme l'ont démontré les études de provocation, les personnes, y compris celles qui prétendent être atteintes du syndrome EHS, ne sont pas en mesure de détecter les rayonnements électromagnétiques à des niveaux domestiques faibles. Comme le rayonnement électromagnétique de radiofréquence de faible intensité n'est ni visible ni détectable, l'exposition ne peut être déduite que sur la base d'indices tels que la proximité de téléphones portables ou d'antennes. Pourtant, certaines recherches ont montré une forte relation entre la perte de contrôle perçu et les troubles anxieux (Gallagher et al. 2014). L'exposition au rayonnement électromagnétique pourrait être un stimulus neutre alimenté par le sentiment que la personne n'a aucun contrôle sur cette exposition.

Les médias d'information se concentrent de plus en plus sur les effets potentiels des rayonnements électromagnétiques, en particulier avec le déploiement actuel de la technologie 5G. Ce traitement médiatique pourrait inciter les personnes à se concentrer sur les téléphones portables, les antennes ou les émetteurs de radiofréquences existant dans leur environnement et sur les perceptions physiques lorsque ces personnes les rencontrent ou les utilisent. Une telle hypothèse est étayée par des résultats récents, en particulier ceux d'Anne-Kathrin Bräsher et ses collègues (2017), qui ont montré que des informations inquiétantes sur les effets du wifi sur la santé augmentent l'inconfort lors d'une exposition fictive, elles augmentent également la sensibilité aux stimuli tactiles. Dans leurs études, Michael Witthöft et G. James Rubin (2013) ont conclu que « les reportages des médias sur les effets néfastes de substances soi-disant dangereuses peuvent augmenter la probabilité de ressentir des symptômes après une exposition fictive et de développer une sensibilité apparente à celle-ci ».

Les symptômes revendiqués par les individus EHS sont divers et non spécifiques. Selon Marjukka Hagström et ses collègues (2013), les symptômes les plus courants sont le « stress » (60,3 %), les « troubles du sommeil » (59,3 %) et la « fatigue » (57,2 %). Ces symptômes sont compatibles avec les troubles anxieux, qui peuvent affecter les organes, les glandes et le système nerveux. Dans une approche cognitive, au lieu de considérer l'anxiété (et tous les symptômes potentiels associés) comme une conséquence collatérale de toute électrosensibilité réelle, tous ces symptômes pourraient être considérés comme existant avant l'apparition du syndrome EHS (résultant d'une vulnérabilité biologique) et étant récemment associé à un stimulus neutre (l'exposition présumée au rayonnement électromagnétique).

Il a été démontré que réduire ou éviter les rayonnements électromagnétiques peut aider les personnes souffrant du syndrome EHS à retrouver un meilleur niveau de confort (Hagström et al. 2013). De tels comportements d'évitement et un gain de bien-être immédiat sont généralement observés dans les troubles anxieux ou paniques. Alternativement, pour le cas des individus EHS, certains objets contre-phobiques peuvent être achetés, tels que des puces anti-rayonnement appliquées aux téléphones portables pour prétendument réduire leur émission. niveau. Suite à de tels comportements d'évitement ou de défense, la diminution de l'inconfort pourrait servir de confirmation que la source de l'inconfort était liée au rayonnement électromagnétique. Cela renforcerait peut-être la croyance des individus EHS dans les effets néfastes des rayonnements électromagnétiques sur la santé.

Il est également bien admis que les individus anxieux consacrent leur attention à la menace (Dalgleish et Watts 1990), ce qui pourrait être une stratégie évolutive pour protéger l'organisme (Ohman 1996). Considérant le syndrome EHS comme un trouble anxieux, cette focalisation attentionnelle sur les perceptions physiques, liée à la croyance que le sujet est exposé et que cette exposition peut entraîner des effets néfastes sur la santé, pourrait amplifier et renforcer la croyance en une menace réelle.

Le mécanisme de rétroaction que j'ai exploré ici (renforcement de la croyance par la focalisation attentionnelle sur les symptômes et les bons résultats de la stratégie d'évitement) pourrait faire entrer les individus EHS dans une boucle de peur dont le moteur principal est le biais de confirmation.

Figure 2 : Modèle théorique possible du syndrome EHS considéré comme un trouble anxieux.

Conclusion

La science n'a pas réussi à montrer une relation causale entre l'exposition réelle aux rayonnements électromagnétiques et le syndrome EHS. Il y a, cependant, une accumulation croissante de preuves que le syndrome EHS est lié à des facteurs psychologiques. J'ai proposé que le syndrome EHS pourrait être une forme de phobie expliquée par des mécanismes se produisant dans d'autres troubles anxieux. La vulnérabilité biologique à l'anxiété - existant avant l'apparition du syndrome EHS - amènerait les gens à confondre les symptômes d'anxiété avec un effet biologique du rayonnement électromagnétique. Une exposition présumée au rayonnement électromagnétique jouerait le rôle de stimulus neutre. Enfin, le biais de confirmation, basé sur la concentration attentionnelle et les stratégies d'évitement, pousserait les gens encore plus profondément dans leur croyance.

Les chercheurs devraient maintenant arrêter (ou du moins réduire leurs efforts) d'essayer de trouver un lien de moins en moins plausible entre le syndrome EHS et le rayonnement électromagnétique et plutôt concentrer leurs travaux sur la compréhension plus précise des mécanismes poussant les gens à croire à tort que les les niveaux de rayonnement électromagnétique sont délétères. Les chercheurs devraient trouver un moyen d'aider ces personnes en diminuant l'anxiété et l'inconfort grâce à des techniques de thérapie cognitivo-comportementale adaptées.


Voir la vidéo: IRM PCEM2 (Novembre 2021).