Informations

Effet de la compacité de la notation sur la cognition ?

Effet de la compacité de la notation sur la cognition ?

Je me souviens vaguement d'avoir lu quelque part que l'une des raisons pour lesquelles les Romains n'ont pas réussi à faire de progrès mathématiques est que leur système de numération est illogique et ne se prête pas aux observations triviales que permet le système de numération arabe (ou indien).

De même, la compacité croissante de la notation mathématique moderne permet d'écrire et de traiter des pensées de plus en plus complexes avec beaucoup plus de facilité (le seul inconvénient étant l'augmentation des connaissances de base requises pour comprendre la notation).

Je me souviens aussi avoir lu quelque part que la réduction des 20 équations différentielles de Maxwell à 4 a considérablement amélioré la capacité de penser des physiciens, à tel point que même un étudiant diplômé en physique est aujourd'hui capable d'avoir des pensées complexes que même Newton n'était pas capable d'avoir, purement à cause à la compacité de la notation.

En fait, je pense que la source a dit que l'ensemble réduit d'équations mettait l'accent sur les paramètres auxquels les physiciens se souciaient normalement - j'ai oublié exactement ce qu'il disait.

Existe-t-il des études ou des livres à ce sujet ? J'ai cherché et essayé de trouver les sources d'où j'ai obtenu ces informations, mais en vain.


Si je me souviens bien, dans son livre "Le sens des nombres", Stanislas Dehaene dit qu'une des raisons pour lesquelles les Chinois ont des compétences en mathématiques supérieures à la moyenne est que tous les chiffres n'ont qu'une syllabe et que le nombre de syllabes augmente linéairement avec le nombre de chiffres (vs. par exemple l'horrible soixante-dix-sept en anglais). Si je me souviens encore bien, il cite des études à ce sujet. Ce n'est pas exactement ce que vous avez demandé, mais c'est définitivement une référence pertinente à votre question.

Dehaene, S. (2011). Le sens des nombres : Comment l'esprit crée les mathématiques. OUP États-Unis.


Votre hypothèse n'est pas tout à fait vraie. Même si nous limitons les discussions aux chiffres seulement, la concision (le terme utilisé dans la littérature pour votre « compacité ») n'est pas la plus grande pour le système occidental ; le système de numérotation géorgien est supérieur à cet égard. Je reproduis le tableau suivant du livre de Chrisomalis (p. 391).

Le système romain, qui est essentiellement cumulatif-additif, n'est pas inclus dans le tableau ci-dessus car il a une sous-base (de 5). L'ajout d'une sous-base améliore la concision (par rapport à un système c-a qui en manque, comme l'égyptien). Il est assez facile d'écrire un petit programme pour calculer ses 1-999 signes requis pour Roman, mais je manque de temps en ce moment (peut-être plus tard aujourd'hui). Aussi, citant le livre :

Pour tout nombre naturel, aucun système n'est jamais plus concis qu'un système purement additif chiffré

c'est-à-dire que le géorgien est toujours le plus concis (pour la même base).

En outre, Chrisomalis énonce un certain nombre d'observations / "théorèmes" sur les systèmes de nombres, y compris leur développement au fil du temps, et les agrémente d'une discussion sur la base cognitive de chaque observation. Hélas, il y en a un peu trop pour les résumer ici. Je vais juste vous donner un tableau récapitulatif qui prend également en compte le nombre de signes :

Ainsi, les additifs chiffrés se classent moins bien que les positionnels chiffrés sur l'aspect du nombre de signes.

Et pour rendre cette réponse un peu plus autonome, au lieu du système géorgien (dont je ne peux pas taper les symboles), je reproduirai ici les chiffres alphabétiques latins, qui ont été brièvement utilisés en Europe occidentale au XIIe siècle.

Ainsi, par exemple, pour écrire 101, vous écrivez ta dans ce système.

Référence:

  • Stephen Chrisomalis, Notation numérique : une histoire comparée, COUPE 2010

Question: Dans une expérience de psychologie cognitive, le chercheur s'intéresse à savoir si la condition d'encodage a un effet sur la mémoire d'une liste de mots. Elle recrute 16 sujets pour participer à l'expérience. Chaque sujet vient au laboratoire deux fois pour être testé dans deux conditions d'encodage différentes et leurs scores de performance de mémoire sont répertoriés ci-dessous. Le chercheur .

Dans une expérience de psychologie cognitive, le chercheur cherche à savoir si la condition d'encodage a un effet sur la mémoire d'une liste de mots. Elle recrute 16 sujets pour participer à l'expérience. Chaque sujet vient au laboratoire deux fois pour être testé dans deux conditions d'encodage différentes et leurs scores de performances de mémoire sont répertoriés ci-dessous. La chercheuse souhaite laisser l'hypothèse non directionnelle sans prédire quelle condition d'encodage conduirait à une meilleure mémoire, et elle fixe le niveau de signification à = 0,05 pour un test bilatéral.

une. Identifiez la variable dépendante (c'est la mesure du résultat) et la variable indépendante (c'est ce qui différencie les deux groupes de points de données comparés). (total de 1 point : 0,5 pour DV, 0,5 pour IV)

b. Quelles seraient les hypothèses nulles et alternatives dans les deux notations de mots et de symboles ? (total de 1 point : 0,5 pour chaque hypothèse. La forme écrite et la notation des symboles doivent être correctes pour obtenir le point 0,5 pour l'hypothèse)

Effectuez les étapes ci-dessous pour obtenir la statistique t pour l'échantillon :

c. Calculer la moyenne des scores de différence. (1 point : 0,5 si le processus est correct mais la réponse est fausse)

e. Estimation de l'écart type de la population (1 point : 0,5 si le processus est correct mais la réponse est fausse)

F. Erreur standard (1 point : 0,5 si le processus est correct mais la réponse est fausse)

g. Calculé t statistique (1 point : 0,5 si le processus est correct mais la réponse est fausse) Avec la statistique t calculée, effectuez les étapes suivantes pour conclure le test d'hypothèse.

h. Critique t valeur (0,5 point)

je. Prenez une décision concernant le test d'hypothèse, en indiquant explicitement « rejeter » ou « ne pas rejeter » en conséquence. (0,5 point)

k. Calculer la taille d'effet standardisée de ce test d'hypothèse (1 point : 0,5 si le processus est correct mais la réponse est fausse)


[email protected]

Cette thèse a exploré la traduction de l'imprimé au son de la langue tonale mandarin versus anglais versus notation musicale chez des volontaires sains. La performance des musiciens et des non-musiciens a été comparée à travers une variété de tâches de lecture afin d'essayer d'examiner si la formation musicale peut faciliter le traitement du ton mandarin ou phonologique. Les effets de l'augmentation de la charge de mémoire de travail sur les performances de lecture à travers les tâches ont également été examinés. Les résultats ont montré que les demandes croissantes de mémoire de travail dans les tâches de reconnaissance visuelle réduisaient considérablement la précision des performances pour les musiciens et les non-musiciens dans toutes les tâches. Des différences significatives dans les taux de précision ont été observées entre les musiciens et les non-musiciens. Bien que les informations tonales en mandarin soient intégrées dans les informations phonologiques, la présente étude a prouvé que les musiciens sont mieux à même d'extraire ces informations tonales de l'imprimé que les non-musiciens, ou de les conserver dans leur mémoire de travail. Même dans la tâche homophone mandarin, qui nécessite des jugements phonologiques d'impression, les musiciens ont démontré des performances supérieures. La présente étude fournit des preuves que la formation musicale facilite le traitement du langage phonologique.


Outils de page

Les échelles de grandeur sont tirées de Cohen, J. (1988). Analyse de puissance statistique pour les sciences du comportement (2e éd.). Hillsdale, NJ : Lawrence Erlbaum Associates (voir aussi ici). Les échelles de grandeur pour les $omega^text<2>$ partiels sont tirées du tableau 2.2 de Murphy et Myors (2004). Bakker et al. (2019) notent que les tailles d'effet contextuel doivent être utilisées dans la mesure du possible plutôt que des effets « conservés » comme ceux de Cohen.

Il y a aussi un tableau des grandeurs de taille d'effet à la fin de Kotrlik JW et Williams HA (2003) ici. Un aperçu des tailles d'effet couramment utilisées en psychologie est donné par Vacha-Haase et Thompson (2004). Whitehead, Julious, Cooper et Campbell (2015) suggèrent également les règles empiriques de Cohen pour le d de Cohen lors de la comparaison de deux groupes indépendants avec une suggestion supplémentaire d'un d < 0,1 correspondant à un très petit effet.

Kraemer et Thiemann (1987, p.54 et 55) utilisent les mêmes valeurs de taille d'effet (qu'ils appellent delta) pour les corrélations intra-classes et les corrélations de Pearson. Cela implique que les règles empiriques ci-dessous de Cohen (1988) pour les magnitudes des tailles d'effet pour les corrélations de Pearson pourraient également être utilisées pour les corrélations intra-classes. Il convient toutefois de noter que la corrélation intra-classe est calculée à partir d'une ANOVA à mesures répétées dont la taille d'effet habituelle (donnée ci-dessous) est un éta-carré partiel. De plus, Shrout et Fleiss (1979) discutent de différents types de coefficients de corrélation intra-classe et de la façon dont leurs amplitudes peuvent différer.

Les règles générales de base données par Cohen et Miles & Shevlin (2001) concernent l'éta-carré, qui utilise la somme totale des carrés dans le dénominateur, mais celles-ci s'appliqueraient sans doute davantage à l'éta-carré partiel qu'à l'éta-carré. En effet, l'éta-carré partiel dans l'ANOVA factorielle se rapproche sans doute plus de ce que l'éta-carré aurait été pour le facteur s'il s'agissait d'une ANOVA à sens unique et c'est vraisemblablement une ANOVA à sens unique qui a donné lieu aux règles empiriques de Cohen.

Définitions

Pour les tests t à deux échantillons, d = (différence entre une paire de moyennes de groupe) / (écart type moyen de groupe) de Cohen = t Sqrt [(1/n1) + (1/n2)] (Pustejovsky (2014), p. 95 et Borenstein (2009), tableau 12.1)

Pour un test t à un échantillon, d = différence entre la moyenne et sa valeur attendue / écart type = t / Sqrt(n) pour n sujets dans chaque groupe. Le d de Cohen est également égal à t / Sqrt(n) dans un test t apparié (Rosenthal, 1991) puisque t / Sqrt(n) = différence entre deux moyennes / écart type de la différence et le test t sur le score de différence est considéré comme cas particulier d'un test t à un échantillon. Dunlap, Cortina, Vaslow et Burke (1996) suggèrent dans leur équation (3) d'utiliser une transformation alternative de la statistique t appariée pour obtenir d = t Sqrt[2(1-r)/n] pour n sujets et une corrélation, r , entre les réponses appariées. Ils soutiennent que leur estimateur de d est préféré à celui de Rosenthal puisqu'il ajuste le d de Cohen pour la corrélation résultant du plan apparié. Ils concluent cependant que pour des tailles d'échantillon inférieures à 50, les différences entre les deux estimations de taille d'effet pour le d de Cohen sont « assez petites et insignifiantes ».

Hedges et Olkin (2016) proposent des formules faciles à calculer pour redimensionner le d de Cohen afin d'obtenir la proportion (et sa variance) d'observations dans le groupe de traitement qui sont supérieures à la moyenne du groupe témoin. Ils n'évaluent cependant pas sa robustesse aux hypothèses de distribution.

$eta 2 $ = SS(effet) / [ Somme de SS(effets ayant le même terme d'erreur que l'effet d'intérêt) + SS(l'erreur associée à ces effets) ]

Cohen's f = Racine carrée de êta-carré / (1-eta-carré)

À partir de là, on peut calculer $eta 2 $ à partir d'un rapport F dans une ANOVA à un facteur puisque

Il y a aussi une $mbox eta 2 $ = SS(effet) / [ SS(effet) + SS(erreur pour cet effet) ]

Multivarié $eta^text<2>$ = 1 - $Lambda 1/s $ où $Lambda$ est le lambda de Wilk et s est égal au nombre de niveaux du facteur moins 1 ou au nombre de variables dépendantes, selon est le plus petit (voir Green et al (1997)). Il peut être interprété comme un êta-carré partiel.

$kappa 2 $ = ab / (Valeur maximale de ab) où a et b sont les coefficients de régression représentant la variable indépendante à l'effet médiateur et le médiateur au résultat respectivement pour estimer l'effet indirect de IV sur le résultat. Voir Preacher et Kelley (2011) pour plus de détails, y compris le logiciel de procédure MBESS pour l'adapter à R. Il existe également une calculatrice en ligne pour calculer $kappa 2 $ ici. Pour plus de détails sur l'analyse de la médiation, voir également ici. Field (2013) fait également référence à cette mesure. Wen et Fan (2015) suggèrent des limites à l'utilisation de $kappa 2 $ et suggèrent plutôt d'utiliser ab/c. où c est la somme de l'effet indirect (ab) et de l'effet direct (c') en utilisant la notation de l'article de Preacher et Kelley.

Suggestion : Utilisez le carré d'une corrélation de Pearson pour les tailles d'effet pour $eta 2 $ partiel (R-carré dans une régression multiple) donnant 0,01 (petit), 0,09 (moyen) et 0,25 (grand) qui sont intuitivement des valeurs plus grandes que eta -au carré. Suite à cela, Cohen, Cohen, West et Aiken (2003) à la page 95 de Applied Multiple Regression/Correlation Analysis pour la troisième édition des sciences du comportement pour examiner les effets semi-partiels de prédicteurs uniques dans une régression plutôt que dans un modèle global R-carré c'est-à-dire en regardant sqrt (changement de R-carré) à partir d'un modèle avec et sans le régresseur et en utilisant les corrélations de Pearson comme règle empirique pour les tailles d'effet.

$omega 2 $ de Cohen = Somme sur tous les groupes $ (mbox <(proportion observée - proportion attendue)>2 ) $ / (proportion attendue)

Bakker, A, Cai, J, English, L, Kaiser, G, Mesa, V et Van Dooren, W (2019) Beyond small, medium, or large : points à prendre en compte lors de l'interprétation des tailles d'effet. Études pédagogiques en mathématiques 102 1-8.

Borenstein, M (2009) Tailles d'effet pour les données continues. Dans H. Cooper, L. V.Hedges, & J. C. Valentine (Eds.), Le manuel de synthèse de recherche et de méta-analyse (2e éd., pp. 221-235). Fondation Sage : New York, NY.

Cohen, J (1988) Analyse de puissance statistique pour les sciences du comportement (2e éd.). Hillsdale, New Jersey : Erlbaum.

Cohen, J, Cohen, P, West, SG et Aiken, LS (2003) Application d'une analyse de régression/corrélation multiple pour les sciences du comportement. Troisième édition. Routledge : New York.

Dunlap, WP, Cortina, JM, Vaslow, JB et Burke, MJ (1996). Méta-analyse d'expériences avec des groupes appariés ou des conceptions de mesures répétées. Méthodes psychologiques 1(2) 170-177.

Field, A (2013) Découvrir les statistiques à l'aide d'IBM SPSS Statistics. Quatrième édition. Sauge : Londres.

Green, SB, Salkind, NJ et Akey, TM (1997). Utilisation de SPSS pour Windows : Analyse et compréhension des données. Upper Saddle River, New Jersey :

Haddock, CK, Rinkdskopf, D. & Shadish, C. (1998) Utilisation des rapports de cotes comme tailles d'effet pour la méta-analyse de données dichotomiques : une amorce sur les méthodes et les problèmes. Méthodes psychologiques 3 339-353.

Hedges, LV et Olkin I (2016) Chevauchement entre les distributions de traitement et de contrôle en tant que mesure de la taille de l'effet dans les expériences. Méthodes psychologiques 21(1) 61–68

Kotrlik, JW et Williams, HA (2003) L'incorporation de la taille de l'effet dans la recherche sur les technologies de l'information, l'apprentissage et la performance. Journal des technologies de l'information, de l'apprentissage et de la performance 21(1) 1-7.

Jeon, M et De Boeck, P (2017) Qualités de décision du facteur de Bayes et test d'hypothèse basé sur la valeur p. Méthodes psychologiques 22(2) 340-360.

Kraemer, HC et Thiemann, S (1987) Combien de sujets ? Analyse de puissance statistique dans la recherche. Sauge : Londres. Dans la bibliothèque CBSU.

Miles, J et Shevlin, M (2001) Application de la régression et de la corrélation : un guide pour les étudiants et les chercheurs. Sauge : Londres.

Murphy, KR et Myors, B (2004) Analyse de puissance statistique : Un modèle simple et général pour les tests d'hypothèse traditionnels et modernes (2e éd.). Lawrence Erlbaum, Mahwah NJ. (Des règles empiriques alternatives pour les tailles d'effet à celles de Cohen sont données ici dans le tableau 2.2).

Preacher, KJ et Kelley, K (2011) Mesures de la taille de l'effet pour les modèles de médiation : stratégies quantitatives pour communiquer les effets indirects. Méthodes psychologiques 16(2) 93-115.

Pustejovsky JE (2014) Conversion de d en r en z lorsque la conception utilise des groupes extrêmes, une dichotomisation ou un contrôle expérimental. Méthodes psychologiques 19(1) 92-112. Cette référence donne également plusieurs formules utiles pour les variances des tailles d'effet telles que d et également sur la façon de convertir d en un r de Pearson.

Rosenthal R (1991). Procédures méta-analytiques pour la recherche sociale. Sage : Newbury Park, Californie.

Shrout, PE et Fleiss, JL (1979) Intraclass Correlations: Uses in Assessing Rater Reliability, Bulletin psychologique, 86 (2) 420-428. (Une bonne introduction montrant comment la sortie anova peut être utilisée pour calculer les ICC).

Tabachnick, BG et Fidell, LS (2007) Utilisation de statistiques multivariées. Cinquième édition. Pearson Education : Londres.

Vacha-Haase, T et Thompson, B (2004) Comment estimer et interpréter diverses tailles d'effet. Journal de psychologie du conseil 51(4) 473-481.

Wen, Z. et Fan, X. (2015) Monotonie des tailles d'effet: questionner le Kappa-Squared en tant que mesure de la taille de l'effet de médiation. Méthodes psychologiques 20(2) 193-203.

Whitehead, A. L., Julious, S. A., Cooper, C. L. et Campbell, M. J. (2015) Estimation de la taille de l'échantillon pour un essai pilote randomisé afin de minimiser la taille globale de l'échantillon d'essai pour le pilote externe et l'essai principal pour une variable de résultat continue. Méthodes statistiques Rés. méd. (Disponible en lecture gratuite en ligne ici).

Aucun : FAQ/effectSize (последним исправлял пользователь PeterWatson 2021-04-12 09:05:53)


Différents effets de l'attention spatiale et temporelle sur l'intégration et la ségrégation des stimuli dans le temps

Poppy Sharp, David Melcher et Clayton Hickey

dans la presse, Attention, perception et psychophysique

Avoir des attentes quant au moment et à l'endroit où les stimuli pertinents apparaîtront engendre une orientation temporelle et spatiale endogène et peut apporter des avantages vitaux au traitement visuel. Alors que l'on en sait plus sur la façon dont chacune de ces formes d'orientation affecte le traitement spatial, on comprend relativement peu de choses sur leur influence sur l'intégration temporelle et la ségrégation des stimuli séquentiels rapides. Une question cruciale est de savoir si l'influence des repères spatiaux sur le traitement temporel implique des effets d'orientation spatiale et temporelle indépendants ou un impact spatio-temporel synergique. Ici, nous délimitons l'orientation temporelle et spatiale engendrée par des indices endogènes en utilisant un paradigme avec une stimulation visuelle identique lorsque l'objectif est d'intégrer ou de séparer les stimuli dans des blocs d'essais séparés. Nous trouvons de forts effets de l'orientation spatiale sur les performances d'intégration et de ségrégation. En revanche, l'orientation temporelle n'engendre qu'un coût de repérage invalide, pour les essais d'intégration uniquement. Cette différenciation claire entre les effets de repérage spatiaux et temporels fournit des contraintes pour informer l'arbitrage entre les théories sur la façon dont l'attention biaise le flux de traitement visuel et influence l'organisation de la perception visuelle dans le temps.


Effet de la compacité de la notation sur la cognition ? - Psychologie

Tous les articles publiés par MDPI sont rendus immédiatement disponibles dans le monde entier sous une licence en libre accès. Aucune autorisation particulière n'est requise pour réutiliser tout ou partie de l'article publié par MDPI, y compris les figures et les tableaux. Pour les articles publiés sous licence Creative Common CC BY en accès libre, toute partie de l'article peut être réutilisée sans autorisation à condition que l'article original soit clairement cité.

Les articles de fond représentent la recherche la plus avancée avec un potentiel important d'impact élevé dans le domaine. Les articles de fond sont soumis sur invitation individuelle ou sur recommandation des éditeurs scientifiques et font l'objet d'un examen par les pairs avant leur publication.

L'article de fond peut être soit un article de recherche original, soit une nouvelle étude de recherche substantielle qui implique souvent plusieurs techniques ou approches, ou un article de synthèse complet avec des mises à jour concises et précises sur les derniers progrès dans le domaine qui passe systématiquement en revue les avancées les plus passionnantes dans le domaine scientifique. Littérature. Ce type d'article donne un aperçu des orientations futures de la recherche ou des applications possibles.

Les articles du Choix de l'éditeur sont basés sur les recommandations des éditeurs scientifiques des revues MDPI du monde entier. Les rédacteurs en chef sélectionnent un petit nombre d'articles récemment publiés dans la revue qui, selon eux, seront particulièrement intéressants pour les auteurs ou importants dans ce domaine. L'objectif est de fournir un aperçu de certains des travaux les plus passionnants publiés dans les différents domaines de recherche de la revue.


Plasticité au cours de la vie

Les activités musicales peuvent avoir un impact bénéfique sur la plasticité cérébrale et les capacités cognitives et physiques également plus tard dans la vie adulte après les périodes critiques et sensibles de l'enfance (Wan et Schlaug, 2010). Par exemple, Herdender et ses collègues ont montré que l'entraînement de l'oreille musicale chez les étudiants peut évoquer des changements fonctionnels dans l'activation de l'hippocampe en réponse à la détection d'une nouveauté acoustique (Herdener et al., 2010). En général, à un âge avancé, un déclin des fonctions cognitives et de la plasticité cérébrale peut être observé. Cependant, les activités physiques et cognitives peuvent avoir un impact positif sur la préservation de ces capacités à un âge avancé (Pitkala et al., 2013). En ce sens, la formation musicale a été proposée comme un moyen viable d'atténuer les changements liés à l'âge dans la cognition auditive (pour une revue, voir Alain et al., 2013)

Il est souvent rapporté qu'avec l'âge, l'intelligence fluide diminue et que cela peut être lié à une diminution du volume hippocampique (Reuben et al., 2011). À son tour, une étude récente d'Oechslin et al. (2013) ont découvert que l'intelligence fluide est prédite par le volume de l'hippocampe chez les musiciens, ce qui suggère que la formation musicale pourrait être utilisée comme stratégie pour réduire le déclin de l'intelligence fluide lié à l'âge. Dans une autre étude de Hanna-Pladdy et Mackay (2011), des différences significatives entre les musiciens âgés et les non-musiciens (60 ans) ont été trouvées dans la mémoire non verbale, la fluidité verbale et les fonctions exécutives. Cela montre aussi que l'activité musicale peut empêcher dans une certaine mesure le déclin des fonctions cognitives avec le vieillissement. Cependant, ces différences pourraient être dues à des différences de prédisposition. Néanmoins, Bugos et al. (2007) ont réalisé une étude dans laquelle les influences de prédisposition ont été exclues car ils ont assigné les participants au hasard à deux groupes qui ont reçu soit des cours de piano, soit aucun traitement. Ils ont constaté que les personnes de plus de 60 ans qui commençaient seulement à apprendre à jouer du piano et continuaient pendant 6 mois présentaient de meilleurs résultats aux tests de mémoire de travail ainsi qu'aux tests de motricité et de vitesse de perception, par rapport à un groupe témoin sans traitement. Dalcroze Eurhythmics, qui est une méthode pédagogique basée sur l'apprentissage de la musique par le mouvement et le rythme comme éléments de base a également été administrée aux seniors. Une étude a montré qu'un traitement avec cette méthode pendant 6 mois influence positivement l'équilibre et la régularité de la marche chez les personnes âgées (Trombetti et al., 2011). Étant donné que les chutes dans cette population sont un risque majeur, il est particulièrement important de s'engager dans l'entraînement de ces capacités physiques à cet âge, qui semble être plus efficace en combinaison avec les aspects musicaux de la synchronisation et de l'adaptation des mouvements rythmiques au sein d'un groupe.

Bien qu'il y ait des résultats prometteurs suggérant que les musiciens plus âgés par rapport aux témoins appariés présentent des avantages non seulement dans le proche-transfert, mais aussi dans certaines tâches de transfert lointain telles que l'étendue visuospatiale, le contrôle des réponses concurrentes et la distraction vs. le problème de l'éducation demeure. Outre l'étude de Bugos et al. (2007) qui ont utilisé un plan d'assignation aléatoire, les recherches sur l'influence de l'entraînement musical sur la plasticité et les avantages cognitifs à un âge avancé devraient prendre en compte l'influence d'autres stimulations cognitives et de la forme physique globale, qui sont connues pour jouer un rôle important dans la préservation du fonctionnement cognitif et de l'autonomie chez les personnes âgées (Raz et Rodrigue, 2006 Erickson et al., 2012).


Contenu

La signification statistique remonte aux années 1700, dans les travaux de John Arbuthnot et Pierre-Simon Laplace, qui ont calculé le p-valeur du sex-ratio humain à la naissance, en supposant une hypothèse nulle de probabilité égale de naissances masculines et féminines voir p-value § Historique pour plus de détails. [22] [23] [24] [25] [26] [27] [28]

En 1925, Ronald Fisher a avancé l'idée de tests d'hypothèses statistiques, qu'il a appelés « tests de signification », dans sa publication Méthodes statistiques pour les chercheurs. [29] [30] [31] Fisher a suggéré une probabilité d'un sur vingt (0,05) comme niveau de coupure pratique pour rejeter l'hypothèse nulle. [32] Dans un article de 1933, Jerzy Neyman et Egon Pearson ont qualifié cette coupure de niveau de signification, qu'ils ont nommé α . Ils ont recommandé que α soit défini à l'avance, avant toute collecte de données. [32] [33]

Malgré sa suggestion initiale de 0,05 comme niveau de signification, Fisher n'avait pas l'intention de fixer cette valeur seuil. Dans sa publication de 1956 Méthodes statistiques et inférence scientifique, il a recommandé que les seuils de signification soient fixés en fonction de circonstances particulières. [32]

Concepts associés Modifier

Parfois, les chercheurs parlent du niveau de confiance ?? = (1 − ??) au lieu. C'est la probabilité de ne pas rejeter l'hypothèse nulle étant donné qu'elle est vraie. [34] [35] Les niveaux de confiance et les intervalles de confiance ont été introduits par Neyman en 1937. [36]

La signification statistique joue un rôle central dans les tests d'hypothèses statistiques. Il est utilisé pour déterminer si l'hypothèse nulle doit être rejetée ou retenue. L'hypothèse nulle est l'hypothèse par défaut selon laquelle rien ne s'est produit ou n'a changé. [37] Pour que l'hypothèse nulle soit rejetée, un résultat observé doit être statistiquement significatif, c'est-à-dire le p-value est inférieure au niveau de signification prédéfini α .

Pour déterminer si un résultat est statistiquement significatif, un chercheur calcule un p-valeur, qui est la probabilité d'observer un effet de même ampleur ou plus extrême étant donné que l'hypothèse nulle est vraie. [6] [13] L'hypothèse nulle est rejetée si la p-value est inférieur (ou égal à) à un niveau prédéterminé, α . α est aussi appelé le niveau de signification, et est la probabilité de rejeter l'hypothèse nulle étant donné qu'elle est vraie (erreur de type I). Il est généralement fixé à 5 % ou moins.

Par exemple, lorsque α est défini sur 5%, la probabilité conditionnelle d'une erreur de type I, étant donné que l'hypothèse nulle est vraie, est de 5 %, [38] et un résultat statistiquement significatif est celui où la p-valeur est inférieure (ou égale à) 5%. [39] Lors de l'extraction de données à partir d'un échantillon, cela signifie que la région de rejet comprend 5 % de la distribution d'échantillonnage. [40] Ces 5% peuvent être alloués à un côté de la distribution d'échantillonnage, comme dans un test unilatéral, ou répartis des deux côtés de la distribution, comme dans un test bilatéral, avec chaque queue (ou région de rejet) contenant 2,5% de la distribution.

L'utilisation d'un test unilatéral dépend du fait que la question de recherche ou l'hypothèse alternative spécifie une direction telle que si un groupe d'objets est plus lourd ou la performance des élèves lors d'une évaluation est meilleur. [3] Un test bilatéral peut toujours être utilisé mais il sera moins puissant qu'un test unilatéral, car la région de rejet pour un test unilatéral est concentrée sur une extrémité de la distribution nulle et est deux fois plus grande ( 5 % contre 2,5 %) de chaque région de rejet pour un test bilatéral. En conséquence, l'hypothèse nulle peut être rejetée avec un résultat moins extrême si un test unilatéral a été utilisé. [41] Le test unilatéral n'est plus puissant qu'un test bilatéral que si la direction spécifiée de l'hypothèse alternative est correcte. S'il est faux, cependant, le test unilatéral n'a aucun pouvoir.

Seuils de signification dans des domaines spécifiques Modifier

Dans des domaines spécifiques tels que la physique des particules et la fabrication, la signification statistique est souvent exprimée en multiples de l'écart type ou sigma (??) d'une distribution normale, avec des seuils de signification fixés à un niveau beaucoup plus strict (par exemple 5??). [42] [43] Par exemple, la certitude de l'existence de la particule du boson de Higgs était basée sur le 5?? critère, qui correspond à un p-valeur d'environ 1 sur 3,5 millions. [43] [44]

Dans d'autres domaines de la recherche scientifique tels que les études d'association à l'échelle du génome, des niveaux de signification aussi bas que 5 × 10 -8 ne sont pas rares [45] [46] - car le nombre de tests effectués est extrêmement important.

Les chercheurs se concentrant uniquement sur la question de savoir si leurs résultats sont statistiquement significatifs pourraient rapporter des résultats qui ne sont pas substantiels [47] et non reproductibles. [48] ​​[49] Il y a aussi une différence entre la signification statistique et la signification pratique. Une étude qui s'avère statistiquement significative peut ne pas être nécessairement significative sur le plan pratique. [50] [20]

Taille de l'effet Modifier

La taille de l'effet est une mesure de l'importance pratique d'une étude. [50] Un résultat statistiquement significatif peut avoir un effet faible. Pour évaluer l'importance de leur résultat pour la recherche, les chercheurs sont encouragés à toujours rapporter une taille d'effet ainsi que p-valeurs. Une mesure de la taille de l'effet quantifie la force d'un effet, comme la distance entre deux moyennes en unités d'écart-type (cf. le d de Cohen), le coefficient de corrélation entre deux variables ou son carré, et d'autres mesures. [51]

Reproductibilité Modifier

Un résultat statistiquement significatif peut ne pas être facile à reproduire. [49] En particulier, certains résultats statistiquement significatifs seront en fait des faux positifs. Chaque tentative infructueuse de reproduire un résultat augmente la probabilité que le résultat soit un faux positif. [52]

Surutilisation dans certaines revues Modifier

À partir des années 2010, certaines revues ont commencé à se demander si les tests de signification, et en particulier l'utilisation d'un seuil de ?? = 5 %, était trop utilisé comme mesure principale de la validité d'une hypothèse. [53] Certaines revues ont encouragé les auteurs à faire une analyse plus détaillée qu'un simple test de signification statistique. En psychologie sociale, la revue Psychologie sociale fondamentale et appliquée interdit complètement l'utilisation de tests de signification dans les articles qu'elle a publiés, [54] obligeant les auteurs à utiliser d'autres mesures pour évaluer les hypothèses et l'impact. [55] [56]

D'autres éditeurs, commentant cette interdiction ont noté : « Interdire le reportage des p-valeurs, comme l'a fait récemment la psychologie sociale fondamentale et appliquée, ne résoudra pas le problème parce qu'elle traite simplement un symptôme du problème. Il n'y a rien de mal à tester des hypothèses et p-valeurs en soi tant que les auteurs, les réviseurs et les éditeurs d'actions les utilisent correctement. » [57] Certains statisticiens préfèrent utiliser des mesures alternatives de la preuve, telles que les rapports de vraisemblance ou les facteurs de Bayes. [58] L'utilisation des statistiques bayésiennes peut éviter les niveaux de confiance. , mais nécessite également de faire des hypothèses supplémentaires, [58] et n'améliore pas nécessairement la pratique concernant les tests statistiques. [59]

L'abus généralisé de la signification statistique représente un sujet de recherche important en métascience. [60]

Redéfinir la signification Modifier

En 2016, l'American Statistical Association (ASA) a publié une déclaration sur p-valeurs, en disant que "l'utilisation généralisée de 'signification statistique' (généralement interprétée comme 'p ≤ 0,05') en tant que licence pour revendiquer une découverte scientifique (ou une vérité implicite) conduit à une distorsion considérable du processus scientifique". [58] En 2017, un groupe de 72 auteurs a proposé d'améliorer la reproductibilité en modifiant le p-valeur seuil pour la signification statistique de 0,05 à 0,005. [61] D'autres chercheurs ont répondu que l'imposition d'un seuil de signification plus strict aggraverait des problèmes tels que le dragage des données. p-valeurs seuils avant de collecter des données, [62] ou à interpréter p-valeurs sous forme d'indices continus, éliminant ainsi les seuils et la signification statistique. [63] De plus, le passage à 0,005 augmenterait la probabilité de faux négatifs, l'effet étudié étant réel, mais le test ne le démontre pas. [64]

En 2019, plus de 800 statisticiens et scientifiques ont signé un message appelant à l'abandon du terme « signification statistique » en science [65] et l'American Statistical Association a publié une autre déclaration officielle [66] déclarant (page 2) :

Nous concluons, sur la base de notre examen des articles de ce numéro spécial et de la littérature plus large, qu'il est temps d'arrêter complètement d'utiliser le terme « statistiquement significatif ». Les variantes telles que « significativement différent », « p ≤ 0.05 » et « nonsignificant » ne devraient pas non plus survivre, qu'elles soient exprimées en mots, par des astérisques dans un tableau ou d'une autre manière.


Théorie de la charge cognitive et effets de l'information transitoire sur l'effet de modalité

Basé sur la théorie de la charge cognitive et le effet d'information transitoire, cet article a étudié la effet de modalité tout en interprétant une carte de contour. La longueur et la complexité des instructions textuelles auditives et visuelles ont été manipulées. L'expérience 1 a indiqué que des informations textuelles audio plus longues dans une présentation étaient inférieures aux informations textuelles visuelles plus longues équivalentes démontrant une inversion de l'effet de modalité en raison d'informations transitoires imposant une charge de mémoire de travail importante. Cependant, l'effet de modalité attendu n'a pas été obtenu à partir de la présentation de texte auditif plus courte équivalente par rapport à des informations textuelles visuelles plus courtes. On a émis l'hypothèse que le texte le plus court contenait encore trop d'informations auditives pour que la mémoire de travail puisse les traiter facilement. L'expérience 2 a encore diminué les informations textuelles auditives plus courtes, ce qui a ensuite entraîné un effet de modalité traditionnel comprenant une interaction modalité par longueur de texte dans laquelle les informations audiovisuelles plus courtes étaient meilleures que les informations visuelles uniquement, mais les informations audiovisuelles plus longues étaient pires que les informations visuelles uniquement. informations.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Effet de la compacité de la notation sur la cognition ? - Psychologie

In the present study, participants performed highly comparable task-switching and dual-task paradigms, and the paradigm-specific performance costs were analysed in the context of the commonly postulated core components of cognitive control (i.e., working memory updating, inhibition, and shifting). In the task-switching paradigm, we found switch costs (i.e., switch trials vs. repetition trials) and mixing costs (i.e., repetition trials in mixed-task blocks vs. single-task trials). In the dual-task paradigm, we observed a psychological refractory period (PRP) effect (i.e., Task 2 [T2] performance after short stimulus-onset asynchrony [SOA] vs. long SOA), dual-task costs (i.e., T2 dual-task performance with a long SOA in trials with a task repetition between Task 1 [T1] and T2 vs. single-task performance), and switch costs in T2 (i.e., dual-task performance in trials with a switch between T1 and T2 vs. dual-task performance in trials with a repetition between T1 and T2). A with-in-subjects comparison of the performance costs showed a correlation between mixing costs and dual-task costs, possibly indicating shared underlying cognitive control processes in terms of working memory updating. Surprisingly, there was also a correlation between switch costs and the PRP effect, presumably suggesting that cognitive control, as opposed to passive queuing of response selection processes, contributes to the PRP effect.

Mots clés: cognitive control, task switching, dual tasks, PRP effect

Applying Item Response Theory to Develop a Shortened Version of the Need for Cognition Scale

The 18-item Need for Cognition Scale (NFC-18) is the most commonly used tool to measure the need for cognition. The aim of this study was to explore the possibility of developing an abbreviated version of the scale, applying the item response theory (IRT). Item response theory analyses suggested the exclusion of eight items that did not perform well in measuring the latent trait. The resulting 10-item scale (NFC-10), which included highly discriminative items, covered the same range of the measured trait as the original scale and showed high measurement precision along various levels of the trait. Additionally, since IRT analyses can only confirm the accuracy of the short scale in measuring the underlying construct, we sought to replicate the nomological net of the NFC-18 using the shortened version of the scale. The results showed that the NFC-10 reflects an adequate operationalization of the construct, in line with the longer version. In particular, as expected, the NFC-10 showed moderate relations with various measures of cognitive skills and self- report measures of cognitive styles, confidence, and anxiety. These findings confirm that we have obtained a much shorter version of the NFC that maintains excellent reliability and validity

Mots clés: assessment, item response theory, need for cognition, short form, validity

Comparing Symbolic and Nonsymbolic Number Lines: Consistent Effects of Notation Across Output Measures

The mental number line (MNL) is a popular metaphor for magnitude representation in numerical cognition. Its shape has frequently been reported as being nonlinear, based on nonlinear response functions in magnitude estimation. We investigated whether this shape reflects a phenomenon of the mapping from stimulus to internal magnitude representation or of the mapping from internal representation to response. In five experiments, participants (total N = 66) viewed stimuli that represented numerical magnitude either in a symbolic notation (i.e., Arabic digits) or in a nonsymbolic notation (i.e., clouds of dots). Participants estimated these magnitudes by either adjusting the position of a mark on a ruler-like response bar (nonsymbolic response) or by typing the corresponding number on a keyboard (symbolic response). Responses to symbolic stimuli were markedly different from responses to nonsymbolic stimuli, in that they were mostly power- shaped. We investigated whether the nonlinearity could be explained by effects of previous trials, but such effects were (a) not strong enough to explain the nonlinear responses and (b) existed only between trials of the same input notation, suggesting that the nonlinearity is due to input mappings. Introducing veridical feedback improved the accuracy of responses, thereby showing a calibration based on the feedback. However, this calibration persisted only temporarily, and responses to nonsymbolic stimuli remained nonlinear. Overall, we conclude that the nonlinearity is a phenomenon of the mapping from nonsymbolic input format to internal magnitude representation and that the phenomenon is surprisingly robust to calibration.

Mots clés: numerical cognition, nonsymbolic magnitude, number line, calibration

Consistent Shifts of Stimulus Modality Induce Chunking in Sequence Learning

The ability to learn event sequences is crucial to human behavior because it enables us to interact adaptively with our environment. The sensory environment is essential in guiding the acquisition of these sequences, so the role of the stimulus modality in sequence learning is of high relevance. The present study examined structured stimulus modality shifts in sequence learning using the serial reaction time task (SRT). Participants had to respond to numbers that were presented either in the visual or in the auditory modality. Importantly, the numbers as well as the stimulus modality followed a fixed pattern. We found better performance in sequenced than in random blocks, indicating sequence learning. Moreover, performance was better when the stimulus modality remained the same than when the modality changed between successive trials (the modality shift effect, MSE). However, sequence learning facilitated performance primarily in modality repetitions, so that the MSE became progressively larger in the sequenced blocks, while it was small in the random blocks, and this pattern was particularly pronounced for the participants who showed a high recall level for the response sequence. To account for this effect, we assume that consistent modality shifts induce parsing of the sequence into chunks. Because chunk retrieval at chunk boundaries incurs RT costs, the acquired sequence knowledge is more efficiently expressed in modality repetitions (i.e., within chunks). Together, the data suggest that the formation of explicit knowledge enhances chunking in sequence learning.

Mots clés: sequence learning, serial reaction time task, modality shifting, chunking

The Structure of Speed of Processing Across Cultures

We examined whether a general processing factor emerges when using response times for cognitive processing tasks and whether such a factor is valid across three different cultural groups (Chinese, Canadian, and Greek). Three hundred twenty university students from Canada (n = 115), China (n = 110), and Cyprus (n = 95) were assessed on an adaptation of the Das-Naglieri Cognitive Assessment System (D-N CAS Naglieri & Das, 1997). Three alternative models were contrasted: a distinct abilities processing speed model (Model 1) that is dictated by the latent four cognitive factors of planning, attention, simultaneous and successive (PASS) processing, a unitary ability processing speed model (Model 2) that is dictated by the response time nature of all measures, and a bifactor model (Model 3) which included the latent scores of Models 1 and 2 and served as the full model. Results of structural equation modeling showed that (a) the model representing processing speed as a collection of four cognitive processes rather than a unitary processing speed factor was the most parsimonious, and (b) the loadings of the obtained factors were invariant across the three cultural groups. These findings enhance our understanding of the nature of speed of processing across diverse cultures and suggest that even when cognitive processes (i.e., PASS) are operationalized with response time measures, the processing component dominates speed.

Mots clés: processing speed, general processing, culture, intelligence

Effects of Overlap Between Consecutive Words on Speeded Typing Inform About Representation of Serial Order Within Words

Typing is an everyday activity that requires people to use the correct serial order of phonological and orthographic forms of words. The evidence until now shows that different forms of representation of serial order have mixed contributions to typing performance. It is not clear whether and how representational overlap between subsequent words impacts the speed of typing. In three experiments, we used speeded typing of six-letter words. Including conditions with secondary task load to counteract potential ceiling effects, we varied whether subsequent words had partial overlap with respect to a chaining representation (e.g., kirsch → schaum same triplet in different position) or, in addition, overlapped with respect to a potential positional representation (e.g., berlin → dublin, same triplet in the same position). Differently from previous findings (e.g., Snyder & Logan, 2014), Experiments 1 and 2 suggest that (a) chaining as well as positional coding are involved as representations of serial order and (b) partial overlap of representation of serial order leads to costs in typing speed. Experiment 3 demonstrated that full overlap speeds up typing. Across all experiments, the overlap effects were most revealed in the latency of the first keystroke, indicating the planning of motor programs. Taken together, the results suggest that even in highly practiced tasks such as typing, the activation of representations of serial order has side effects beyond the production of the current sequence.

Mental Size Scaling of Three-Dimensional Objects Perceived Visually or Tactilely

The issue of pictorial or propositional nature of imagery remains unresolved. To take a step for- ward into the debate, we conducted a systematic evaluation of time and accuracy of mental scaling in sighted people. Participants viewed or touched three-dimensional objects and then had to imagine them in a resized version, depending on a given scale. Both the mental scaling time and the estimated object size were measured. To promote verbal or perceptual strategies, the size was estimated verbally or bimanually, respectively. It was found that time taken for mental scaling is a linear function of decreasing and increasing scale and that the modality of perception did not influence the time taken to perform the operation. The results contribute to the knowledge of object size estimation by revealing the interaction between the modality of the object perception and the accuracy of size estimation by sighted adults. The accuracy of estimation was greater when the imagery representation was based on visual rather than tactile perception, but only in the case of verbal size assessment. Verbal height estimation in centimeters showed a tendency towards underestimation, while bimanually estimated sizes tended to be overestimated. The results indicate that people can use pictorial as well as prepositional strategies, depending on the task.

Mots clés: visual perception, tactile perception, imagery debate, scaling time, size estimation


Question: In A Cognitive Psychology Experiment, The Researcher Is Interested In Whether Encoding Condition Has An Effect On Memory For A List Of Words. She Recruits 16 Subjects To Participate In The Experiment. Each Subject Comes To The Lab Twice To Be Tested In Two Different Encoding Conditions And Their Memory Performance Scores Are Listed Below. The Researcher .

In a cognitive psychology experiment, the researcher is interested in whether encoding condition has an effect on memory for a list of words. She recruits 16 subjects to participate in the experiment. Each subject comes to the lab twice to be tested in two different encoding conditions and their memory performance scores are listed below. The researcher would like to leave the hypothesis non-directional without predicting which encoding condition would lead to better memory, and she sets the significance level at α = .05 for a two-tailed test.

une. Identify the dependent variable (this is the outcome measure) and the independent variable (this is what differentiates the two groups of data points being compared). (1 point total: .5 for DV, .5 for IV)

b. What would be the null and alternative hypotheses in both words and symbol notations? (1 point total: .5 for each hypothesis. Both written form and symbol notation need to be correct to get the .5 point for the hypothesis)

Perform the steps below to get the t statistic for the sample:

c. Calculate the mean of the difference scores. (1 point: .5 if process is correct but answer is wrong)

e. Estimated population standard deviation (1 point: .5 if process is correct but answer is wrong)

f. Standard error (1 point: .5 if process is correct but answer is wrong)

g. Calculé t statistic (1 point: .5 if process is correct but answer is wrong) With the calculated t statistic, perform the following steps to conclude the hypothesis test.

h. Critique t value (.5 point)

je. Make a decision about the hypothesis test, stating explicitly “reject” or “fail to reject” accordingly. (.5 point)

k. Calculate the standardized effect size of this hypothesis test (1 point: .5 if process is correct but answer is wrong)


Voir la vidéo: Kognitiiviset vinoumat 6 (Décembre 2021).