Informations

Logiciel gratuit pour exécuter des expériences basées sur des questionnaires

Logiciel gratuit pour exécuter des expériences basées sur des questionnaires

Je suis à la recherche d'un logiciel gratuit pour construire des expériences qui ne reposent pas beaucoup sur un timing précis (où j'utilise PsychoPy et j'ai entendu beaucoup de bonnes choses à propos d'OpenSesame) mais plus sur un moyen simple d'implémenter différents types d'éléments et d'options de réponse.

Il s'agit par exemple d'une expérience qui commence par présenter des textes aux participants, puis des questions contingentes à ce texte et à ce que les participants ont saisi auparavant (potentiellement plus d'une question par page avec différentes options de réponse) suivies de quelques questionnaires standards. Comment mettre en place une telle étude ?


Contexte et motivation

J'avais l'habitude de faire de telles choses en utilisant MediaLab qui est malheureusement un logiciel propriétaire. Cependant, la mise en œuvre des items et des questionnaires était facile. Vous pouvez programmer une simple page html (même en utilisant des variables et des espaces réservés) à l'aide de formulaires html et MediaLab présentera cette page à l'aide du moteur ie en plein écran et recueillera les réponses. Ces réponses pourraient ensuite être utilisées ou transmises à DirectRT pour des expériences de temps de réponse.

Actuellement, j'utilise PsychoPy pour contrôler l'écran et la collecte de données et coder tous les questionnaires et autres éléments à la main à l'aide de wxPython. Cela fonctionne, mais la conception de questionnaires dans wxPython est beaucoup moins pratique et plus difficile que la programmation de pages html avec des formulaires html et certainement rien pour les personnes qui ne maîtrisent pas trop le codage.

Toutes les idées ou conseils seraient vraiment appréciés.

Notez que j'ai lu "Quel est le meilleur programme pour créer des expériences de psychologie informatique sous OS X?", mais ma question concerne des implémentations spécifiques. De plus, je travaille sous Windows 7.


Il semble que vous recherchiez une plate-forme sur laquelle mettre en œuvre des tests adaptatifs informatisés (puisque les questions suivantes dépendent des réponses précédentes).

J'ai trouvé Concerto, qui est basé sur R et MySQL, mais permet une certaine flexibilité dans la présentation (il dit qu'il utilise directement HTML, mais vous pouvez probablement le coupler avec un autre langage).


Vous voudrez vous pencher sur PsychToolbox 3, une boîte à outils Matlab/Octave très performante destinée à exécuter des expériences de psychologie comportementale de haute précision. Si vous n'avez pas accès à Matlab, vous pouvez utiliser Octave (qui est disponible pour Windows 7 ; voir le lien) pour exécuter vos expériences.

La boîte à outils elle-même est une plate-forme pour créer des expériences interactives, allant de simples enquêtes basées sur des questions à des affichages visuels de précision très complexes. Pour le but à portée de main, je construirais une fonction simple qui affiche du texte à l'aide de PsychToolbox DessinerTexte ou DrawFormattedText fonctions et surveille les réponses à l'aide duKo*les fonctions; voir le KbDémopage pour un aperçu. Chacun d'eux a sa propre démo montrant comment utiliser la fonction (le bien nommé DrawSomeTextDemo et DrawFormattedTextDemo fonctions, et leKbDémoun mentionné plus tôt); vérifiez simplement le code source des démos pour voir comment elles fonctionnent.

Je mentionnerai que PsychToolbox a une courbe d'apprentissage et nécessite une familiarité avec la programmation Matlab/Octave. Cela étant dit, avec les fonctions ci-dessus, il devrait être assez facile de créer une fonction "enquête" générique qui accepte quel que soit le nombre de lignes de texte (une question, quel que soit le nombre de réponses), les affiche à l'utilisateur, et surveille et enregistre les commentaires.


Générateur d'expériences

SR Research Experiment Builder est un environnement de programmation graphique par glisser-déposer sophistiqué et intuitif permettant de créer des expériences de psychologie et de neurosciences sur ordinateur.

  • Pas de frais cachés. Les mises à jour sont toujours gratuites et toujours entièrement rétrocompatibles.
  • Compatible multiplateforme pour Windows (32 bits et 64 bits) et macOS (OSX).
  • Fournit des stimuli visuels et auditifs complexes et enregistre les réponses avec des niveaux de précision de synchronisation extrêmement élevés.
  • Présentation de texte multilingue, avec contrôle total des propriétés du texte, du balisage html et de la segmentation automatique des zones d'intérêt.
  • Affiche le contenu vidéo avec une synchronisation précise et un enregistrement d'images.
  • Options de randomisation puissantes, y compris le blocage, le contrôle de la longueur d'exécution et le contre-équilibrage de liste.
  • Des centaines de modèles existants qui peuvent être facilement modifiés (par exemple, changer la cécité, poursuite en douceur, tâche pro-saccade, tâche Stroop et bien d'autres) sont disponibles via le forum de soutien à la recherche SR.
  • Entièrement intégré à EyeLink Data Viewer.
  • Compatible avec tous les trackers EyeLink, facilitant la collaboration de recherche entre laboratoires.
  • Prend en charge les expériences de suivi oculaire (EyeLink) et non oculaires.

Si vous souhaitez en savoir plus sur Experiment Builder et comment il peut vous aider dans vos recherches de suivi oculaire, contactez-nous ! Vous pouvez également télécharger la dernière version de Experiment Builder en cliquant sur le bouton ci-dessous (vous devrez être inscrit sur notre forum d'assistance pour que le lien fonctionne) :


Introduction

L'avènement d'Internet nous a ouvert de nouvelles voies d'exploration en tant que chercheurs en psychologie. Les instruments expérimentaux basés sur Internet nous permettent de mener des expériences avec des échantillons démographiquement et culturellement diversifiés, de recruter de grands groupes de sujets en moins de temps, d'éviter les problèmes d'organisation tels que les conflits d'horaire, de réduire les coûts liés à l'espace de laboratoire, à l'équipement, aux heures de personnel et à l'administration , et d'augmenter notre capacité à mener des expériences internationales [1,2,3]. Pour que ces avantages soient valables, nous devons pouvoir faire confiance aux instruments basés sur Internet pour enregistrer avec précision les réponses des participants, en termes à la fois des réponses réelles et de leurs caractéristiques intrinsèques, telles que les temps de réponse. La présente étude examine ce problème particulier en testant la réplicabilité de la mise en œuvre sur Internet de PsyToolkit pour une utilisation avec des paradigmes nécessitant des tâches complexes de temps de réponse au choix (CRT).

Il a été avancé que, pour les instruments qui enregistrent de manière fiable les réponses des participants, l'expérimentation sur Internet présente trois avantages principaux par rapport à l'expérimentation en laboratoire [2] une généralisabilité accrue, un caractère volontaire accru et une validité écologique accrue. Une généralisabilité accrue fait référence au fait que les participants peuvent être recrutés dans des contextes démographiques et/ou géographiques beaucoup plus larges, ce qui signifie que l'échantillon est plus susceptible d'être vraiment représentatif de la société. Le volontariat accru fait référence aux participants ayant moins de contraintes sur leurs décisions de participer et de continuer à participer car, par exemple, il n'y a pas de chercheur dont la présence pourrait faire pression socialement sur un participant pour qu'il continue. De plus, les réponses peuvent être plus authentiques lorsque les participants sont plus à l'aise dans leur capacité à arrêter l'expérience [2]. La validité écologique est une mesure du niveau auquel le comportement des participants à une expérience ressemble à leur comportement dans un cadre naturaliste. Plus une expérience peut être proche de la réalité, plus le niveau de validité écologique de l'expérience est dit élevé, et plus nous pouvons être sûrs que les résultats obtenus reflètent les comportements réels des participants. A titre d'exemple, les simulateurs de conduite tentent de simuler, à des degrés divers, la sensation de conduire une vraie voiture. Plus le simulateur est proche de l'expérience de conduite naturelle d'une voiture, plus le niveau de validité écologique est élevé. En tant que tel, une expérience dans laquelle vous êtes assis à l'intérieur d'une vraie voiture, observez une scène projetée sur le mur devant et sur les côtés de vous, et répondez en utilisant le volant, l'accélérateur et le frein de la voiture est susceptible d'avoir un niveau plus élevé de validité écologique qu'une expérience dans laquelle vous êtes assis devant un écran d'ordinateur, observez une scène affichée à l'écran et répondez à l'aide de contrôleurs en forme de volant, d'accélérateur et de frein, ce qui à son tour est susceptible d'avoir un niveau plus élevé de validité écologique qu'une expérience dans laquelle vous êtes assis devant un écran d'ordinateur, observez une scène affichée à l'écran et répondez en déplaçant la souris sur l'écran pour contrôler la direction et la vitesse. En ce qui concerne les études basées sur Internet, il a été avancé que la capacité des participants à participer à des expériences dans des environnements (et à l'aide d'équipements) qu'ils connaissent bien, et la capacité des participants à entreprendre des expériences sans la présence d'un chercheur dans la pièce, conduisent à une validité écologique accrue [2].

La capacité d'entreprendre des expériences dans des environnements familiers et avec un équipement familier a le potentiel d'améliorer la validité écologique d'au moins deux manières, une familiarité accrue et une charge cognitive réduite. La familiarité accrue fait référence au fait que les participants peuvent choisir le moment, le lieu et l'environnement dans lesquels entreprendre l'expérience, en veillant à ce que les effets trouvés ne puissent pas être attribués à un environnement inconnu [2]. La charge cognitive fait référence à la quantité de ressources cognitives nécessaires, à partir d'un pool limité, pour répondre aux exigences de tâches mentalement exigeantes [4]. En termes expérimentaux, des niveaux croissants de charge cognitive sont associés à des temps de réaction accrus, car les participants disposent de moins de ressources cognitives disponibles pour entreprendre des tâches expérimentales. Les facteurs environnementaux inconnus sont connus pour augmenter la charge cognitive, car le niveau auquel le cerveau surveille activement l'environnement est plus élevé, ce qui réduit à son tour les ressources cognitives disponibles pour d'autres tâches. En tant que tel, plus un individu est familier avec son environnement, moins les ressources cognitives sont utilisées pour surveiller l'environnement, ce qui signifie qu'il y a plus de ressources cognitives disponibles pour se concentrer sur la tâche expérimentale qui lui est présentée.

L'absence d'un chercheur présent a le potentiel d'améliorer la validité écologique en réduisant le biais de désirabilité sociale et la charge cognitive réduite. Le biais de désirabilité sociale fait référence à un biais cognitif dans lequel les individus agissent pour augmenter le niveau auquel les réponses qu'ils donnent sont conformes aux normes sociales afin de se présenter sous le meilleur jour possible [4, 5]. Le niveau auquel ce biais se produit est, entre autres facteurs, accru en présence des autres [6]. En tant que telles, les réponses données en l'absence de chercheurs sont plus susceptibles d'indiquer ce qu'un individu ressent vraiment à propos du sujet, ce qui conduit à une validité écologique plus élevée. La charge cognitive est également réduite en l'absence d'un chercheur, car la présence d'autres personnes lors de la réalisation d'une tâche divise l'attention, au moins dans une certaine mesure, entre la tâche expérimentale et toute autre personne présente [7, 8].

Bien que l'augmentation de la validité écologique soit un facteur important pour la conception expérimentale, les expériences en laboratoire présentent également des avantages par rapport aux expériences basées sur Internet. Premièrement, les expériences en laboratoire ont une gamme plus large d'approches de recherche possibles. Ceci est principalement dû aux besoins en équipement. Il n'est pas raisonnable, par exemple, d'attendre des participants recrutés dans la population générale qu'ils possèdent tous leur propre équipement de suivi oculaire en tant que tel, il est plus logique d'entreprendre des expériences dans lesquelles le suivi oculaire est inclus dans des conditions de laboratoire. En outre, les problèmes liés au matériel et aux logiciels ont historiquement introduit un niveau élevé de bruit d'erreur dans les résultats obtenus via des instruments basés sur Internet par rapport à ceux obtenus via des instruments en laboratoire, principalement observables sous forme de bruit de temps de réponse. Une grande variété de facteurs peuvent affecter l'enregistrement du temps de réponse, tels que les fonctionnalités de synchronisation du matériel, les problèmes et interactions de pilote de périphérique, les erreurs de script, la variabilité du système d'exploitation, les interactions avec d'autres logiciels, les outils pour construire le paradigme, les interactions avec d'autres matériels et la configuration des paramètres et niveaux [3,9]. Dans les expériences en laboratoire, ces sources de bruit sont moins susceptibles d'affecter les résultats finaux de l'expérience, car tous les participants entreprennent l'expérience avec le même matériel, logiciel, pilotes de périphérique, système d'exploitation et configuration système. Dans les expériences basées sur Internet, cependant, il existe de grandes différences potentielles dans ces éléments entre les ordinateurs des participants, ce qui peut conduire à un niveau de bruit plus élevé dans les résultats obtenus. En outre, les réponses fournies via Internet sont également affectées par le temps nécessaire au site Web hébergeant l'expérience pour envoyer avec succès une image à l'ordinateur des participants, puis, après avoir répondu, par le temps nécessaire pour la réponse. à envoyer de l'ordinateur des participants au site web hébergeant l'expérience [10]. Comme des niveaux de bruit élevés peuvent masquer de petits effets et donner l'illusion de réponses hétérogènes, il faut faire attention lors de l'analyse des résultats obtenus par des instruments basés sur Internet pour s'assurer qu'une augmentation des réponses hétérogènes est due à une amélioration de la validité écologique plutôt qu'à une augmentation du niveau de bruit. Cependant, la technologie continue d'évoluer et les progrès récents dans la conception d'outils expérimentaux basés sur Internet, comme cela s'est produit avec PsyToolkit, l'instrument que nous présentons ensuite, peuvent avoir considérablement réduit le bruit d'erreur par rapport aux instruments Internet plus anciens, même au au point de les aligner pleinement sur les instruments de laboratoire. En tant que tel, pour les instruments avec lesquels il y a un minimum de bruit lié à Internet, si la validité écologique était effectivement augmentée, nous pourrions (par exemple) nous attendre à ce que les participants répondent aux éléments d'une manière moins auto-contrôlée et/ou socialement acceptée, les participants affichant un plus large la variabilité des choix de réponse et des temps de réponse globalement plus rapides.

PsyToolkit est un instrument psychologique en libre accès développé pour permettre aux chercheurs, y compris aux étudiants-chercheurs, de programmer et d'exécuter facilement des expériences et des enquêtes psychologiques expérimentales pour les paramètres de laboratoire et Internet [11,12]. Deux versions de PsyToolkit sont disponibles, une version de laboratoire qui fonctionne sous Linux et une version Internet qui est basée sur Javascript et peut fonctionner sur les navigateurs modernes sans que les participants aient besoin de télécharger des programmes. La version Internet de l'instrument vise spécifiquement à répondre aux limitations financières et techniques couramment rencontrées par les étudiants, car il s'agit d'un logiciel gratuit spécialement conçu pour exécuter des questionnaires en ligne, des tâches de temps de réponse simple (SRT) et des tâches de temps de réponse au choix. (CRT) [12]. Un SRT est une tâche expérimentale dans laquelle un seul stimulus, et seulement ce stimulus, est présenté à plusieurs reprises au même endroit à l'écran, les participants étant chargés de répondre à chaque présentation du stimulus exactement de la même manière et le plus rapidement possible [13 ]. Par exemple, les participants reçoivent l'instruction de regarder une LED et d'appuyer sur un bouton spécifique aussi rapidement que possible chaque fois que la LED s'allume. Un CRT est une tâche expérimentale dans laquelle plusieurs stimuli sont affichés et/ou des stimuli sont présentés sur différentes zones de l'écran, et le participant est chargé de répondre de différentes manières en fonction de la nature de chaque présentation (par exemple, Zajdel et Nowak [13]). Par exemple, les participants sont invités à regarder un écran sur lequel des lettres apparaîtront, avec la tâche d'appuyer sur la lettre correspondante sur un clavier. Les CRT peuvent également différer en complexité. Les CRT simples, comme dans l'exemple ci-dessus, exigent que les participants reconnaissent les stimuli et répondent en conséquence. Les CRT plus complexes exigent que les participants portent également des jugements sur la nature des stimuli.

Dans la présente expérience, les participants ont été invités à regarder un écran sur lequel des prénoms associés à des noms de rôle apparaissaient, avec la tâche d'appuyer sur l'un des deux boutons selon qu'ils pensaient que cela avait un sens logique pour quelqu'un avec le nom indiqué pour tenir le rôle affiché. Stoet [12] déclare que PsyToolkit est conçu pour un environnement d'enseignement, avec des barrières techniques minimales et un hébergement Web gratuit de leurs études. Une bibliothèque d'échelles et d'expériences psychologiques existantes est disponible pour que les étudiants puissent les examiner et les adapter, et une documentation et des didacticiels en ligne complets sont disponibles pour aider les étudiants confrontés à des problèmes. De plus, Stoet [12] déclare que PsyToolkit est conçu pour permettre aux étudiants de randomiser l'ordre des éléments à la fois dans les questionnaires et dans les expériences cognitives, pour permettre un moyen pratique de notation et pour donner des commentaires aux participants sur leurs options de résultats de test non disponibles dans tous les instruments basés sur Internet. Tous les utilisateurs de la version Internet doivent créer un compte pour pouvoir créer des expériences, mais les comptes sont gratuits. La randomisation est possible à la fois dans l'enquête et dans l'expérimentation, et une randomisation partielle est également possible si l'on souhaite que seules certaines parties de l'enquête et/ou de l'expérimentation soient randomisées. De plus, des versions alternatives de l'expérience peuvent être créées, les participants étant assignés au hasard entre les versions. En termes de fiabilité, Stoet [14] déclare que les versions Internet et Linux de PsyToolkit peuvent mesurer de manière fiable de petits effets de moins de 50 ms, la version Linux étant plus précise. Cependant, à notre connaissance, aucune recherche n'a été publiée actuellement sur la réplicabilité de la version Internet de PsyToolkit.

Comme PsyToolkit est destiné à être un instrument axé sur les étudiants et que de nombreuses universités n'installent pas d'ordinateurs expérimentaux avec Linux pour leurs étudiants, il a été décidé de comparer les résultats obtenus via l'implémentation Internet de PsyToolkit aux résultats obtenus via E-Prime 3.0 dans un cadre de laboratoire. E-Prime a été choisi car il s'agit d'un outil de recherche psychologique couramment utilisé dans les milieux universitaires, y compris dans les environnements d'enseignement, et, comme PsyToolkit, il a une faible barrière à l'entrée et possède une bibliothèque d'expériences. De plus, Stoet [14] déclare que la version Linux de PsyToolkit est à égalité avec E-Prime, donc, bien qu'il soit probable qu'il y ait du bruit dû aux différences de logiciels, cela devrait être minime.

Bien que la réplicabilité de PsyToolkit n'ait pas été examinée, la réplicabilité d'autres instruments basés sur Internet a été testée via des tâches CRT (par exemple, Reimers et Stewart [15] Schubert, Murteira, Collins, & Lopes [16]). Reimers et Stewart [15] ont utilisé une tâche CRT pour tester la réplicabilité d'une expérience dans la version Internet d'Adobe Flash par rapport à la même expérience dans une version en laboratoire d'Adobe Flash, avec la même expérience codée en C utilisée comme une ligne de base. Les participants ont vu des rectangles verts et rouges et devaient appuyer sur des boutons correspondant à la couleur du rectangle sur l'écran. Ils ont constaté que, par rapport à la ligne de base, (a) les temps de réponse de la version de laboratoire de Flash étaient 10 ms plus longs, (b) les temps de réponse de la version Internet de Flash étaient plus longs de 30 à 40 ms, et (c) il y avait n'y avait pas de différences significatives dans les erreurs standard du temps de réponse entre les conditions. Schubert et al. [16] ont utilisé à la fois des expériences SRT et CRT dans une étude testant la réplicabilité de ScriptingRT en Flash. Six expériences ont été menées au cours de leur étude. Les trois premières études ont utilisé des tâches SRT mais ont été automatisées pour tester des aspects spécifiques de ScriptingRT. Les trois dernières études ont utilisé des tâches CRT, en particulier une version de la tâche Stroop, où les participants se sont vu présenter soit les mots « rouge » ou « bleu », soit une chaîne de lettres neutre, en rouge ou en bleu sur fond blanc. Les participants ont été invités à appuyer sur les touches correspondant à la couleur du mot ou à la chaîne de lettres neutre affichée. L'expérience 4 a testé la version Internet de ScriptingRT par elle-même, tandis que l'expérience 5 a comparé ScriptingRT à la même expérience codée en DMDX (un instrument de laboratoire [17]) avec des participants effectuant les deux tâches sur le même ordinateur, et l'expérience 6 a comparé ScriptingRT à Inquisit Web Edition, tous deux exécutés via Internet. Dans l'expérience 5, l'expérience la plus intéressante pour la présente expérience car elle compare une implémentation de l'instrument sur Internet à une implémentation en laboratoire, Schubert et al. [16] ont constaté que la taille de l'effet Stroop n'était pas affectée par le logiciel utilisé.

Historiquement, la recherche psycholinguistique ne s'est pas appuyée sur des tests basés sur Internet, car elle s'appuie souvent sur de petites différences de temps de réponse dans les tâches CRT pour détecter les effets [18] et est fortement affectée par le bruit du temps de réponse. Des recherches récentes (par exemple, Enochson & Culbertson [18]) ont constaté que certains instruments modernes basés sur Internet sont capables de tester de manière fiable ces petites différences, ce qui signifie que la recherche psycholinguistique moderne peut utiliser en toute sécurité des outils Internet qui ont été correctement validés. Certains chercheurs ont suggéré que PsyToolkit pourrait être un outil suffisamment délicat pour l'expérimentation psycholinguistique (par exemple, Sampaio [19]). Une opportunité se présente donc de tester à la fois la réplicabilité générale et la réplicabilité spécifique psycholinguistique de PsyToolkit à travers un paradigme expérimental psycholinguistique.

La présente étude a été conçue pour comparer les réponses et les temps de réponse mesurés par la mise en œuvre sur Internet de PsyToolkit avec ceux mesurés par la mise en œuvre en laboratoire d'E-Prime 3.0 à l'aide d'une tâche CRT complexe composée d'un paradigme psycholinguistique existant et publié (c'est-à-dire, Gygax & Gabriel [20]) pour tester la réplicabilité entre l'implémentation basée sur Internet de PsyToolkit (Version 2.4.3) et E-Prime (Version 3.0.3.31). Le paradigme utilise une conception à choix forcé entre deux sujets, avec une tâche CRT dans laquelle les participants se voient montrer des paires de termes (dans la présente expérience, un prénom et un nom de rôle, par exemple « Kate-Chefs ») et sont ensuite requis pour, le plus rapidement possible, juger si le jumelage est logique (c'est-à-dire, une personne nommée Kate pourrait-elle être membre d'un groupe de chefs). Les appariements d'items expérimentaux étaient composés de prénoms associés à des rôles professionnels qui varient en termes de stéréotypie de genre. Comme, logiquement, n'importe quel individu peut occuper n'importe quel rôle professionnel, des appariements d'éléments de remplissage ont été inclus pour empêcher les participants de développer une stratégie consistant à toujours répondre positivement à tous les rôles vus. Les éléments de remplissage étaient des prénoms appariés à des termes de parenté marqués par le sexe, avec des paires congruentes (par exemple, « Kate-Mères ») et incongrues (par exemple, « Kate-Pères ») qui empêchaient les participants de développer une stratégie consistant à répondre positivement à rôles professionnels et négativement aux rôles familiaux.

Le paradigme que nous utilisons est plus complexe que ceux utilisés par Reimers et Stewart [15] et par Schubert et al. [16], car le paradigme utilisé dans la présente étude oblige les participants à porter des jugements subjectifs sur les items présentés avant de répondre, tandis que les paradigmes utilisés par Reimers et Stewart [15] et Schubert et al. [16] exigeait que les participants répondent en fonction de la couleur, une qualité objective, des items qui leur étaient présentés. On peut donc s'attendre à ce que les temps de réponse globaux soient plus longs pour cette étude que ceux trouvés par Reimers et Stewart [15] et Schubert et al. [16], et, par rapport à Reimers et Stewart [15], il est probable que les erreurs standard du temps de réponse seront plus importantes. De plus, si les résultats indiquent qu'il existe un niveau élevé de réplicabilité entre PsyToolkit et E-Prime, alors il peut être possible de déterminer si les résultats soutiennent le concept de validité écologique accrue dans les expériences basées sur Internet. Si les résultats obtenus dans PsyToolkit ont un niveau de validité environnementale plus élevé que les résultats obtenus dans E-Prime, nous nous attendrions à ce que les participants qui entreprennent la version PsyToolkit de l'expérience soient plus susceptibles de répondre négativement et, dans l'ensemble, répondent plus rapidement. (c'est-à-dire plus spontanément), que ceux qui entreprennent la version E-Prime de l'expérience.

Il convient de noter que le norvégien est considéré comme une langue semi-genrée. En effet, certains noms, mais pas tous, ont des marqueurs de genre associés. Plus précisément, seuls les noms qui se réfèrent à des êtres vivants, en particulier des humains, sont sexués en norvégien. De plus, la majorité des noms de rôle au pluriel sont les mêmes que la forme singulière spécifique au masculin. Cela est dû en partie à une politique linguistique de neutralisation du genre [21], en vertu de laquelle la forme grammaticale masculine des noms de rôle est activement encouragée à devenir le principal dispositif linguistique pour désigner la majorité des rôles [22].


La statistique elle-même s'est beaucoup développée ces dernières années. D'éminents statisticiens du monde entier ont introduit divers nouveaux types de tests et d'analyses, ajoutant ainsi de nouveaux aspects et dimensions au domaine de l'analyse statistique. Les statistiques impliquent de multiples tests, corrélations, analyses de variables et tests d'hypothèses, ce qui en fait un processus compliqué.

Un logiciel d'analyse statistique possède les fonctionnalités suivantes pour faciliter les fonctions statistiques complexes.

Ci-dessous la liste des 10 logiciels statistiques gratuits et open source

  1. JASP
  2. SOFA
  3. GNU PSPP
  4. LABORATOIRES SCI
  5. Jamovi
  6. MacAnova
  7. Passé
  8. Développer
  9. Invivostat
  10. IBM SPSS

4 Effet de faux consensus

Développez un court questionnaire avec des questions simples, telles que : « Je pense que le gouvernement devrait dépenser moins d'argent pour la sécurité et plus pour aider les sans-abri. Le questionnaire doit être court et auquel on peut répondre rapidement. Une fois que les personnes ont répondu elles-mêmes aux questionnaires, demandez-leur de deviner le nombre d'autres personnes dans leur groupe qui ont la même opinion sur chaque question. Demandez ensuite aux participants de lever la main pour indiquer leurs réponses aux questions. Les gens ont tendance à surestimer combien d'autres ont la même opinion qu'eux. L'effet de faux consensus démontre l'idée que les gens pensent que ceux qui se ressemblent ont aussi des attitudes similaires.


Introduction

Les humains interagissent constamment avec leur environnement. Décrocher le téléphone et appuyer sur une touche d'ordinateur sont des actions que les gens effectuent presque inconsciemment dans leur vie quotidienne. Ces actions ont un effet observable : le téléphone cesse de sonner ou un caractère apparaît à l'écran. Ainsi, les personnes sont des agents actifs dans le contrôle des événements dans leur environnement.

L'étude de la façon dont les gens détectent qu'ils sont les agents de certains effets et de la façon dont ils perçoivent la relation entre leurs actions et leurs effets potentiels a été un sujet de recherche intéressant et productif depuis les premiers temps de la psychologie expérimentale. Parmi les questions qui ont été explorées figurent la perception de la relation causale entre une action et son effet, la conscience et la volonté d'initier des actes volontaires, ainsi que la distance temporelle perçue entre les actions et leurs conséquences.

Wilhelm Wundt avait déjà rapporté les travaux expérimentaux fondateurs dans ce domaine dès 1887 (voir 1 ). Il a conçu un appareil complexe dans lequel l'aiguille d'une horloge tournait dans une sphère, avec la présentation occasionnelle d'un stimulus auditif. Wundt a demandé à ses participants expérimentaux d'indiquer la position de l'aiguille de l'horloge lorsque le ton a été présenté. De cette façon, il a pu déterminer si la perception subjective du ton par le participant coïncidait avec son timing objectif.

Cette méthodologie a ensuite été adaptée au XXe siècle par Libet et ses collègues, qui ont utilisé un oscilloscope avec un point tournant autour d'une sphère 2 . Nous appellerons cette méthode l'horloge de Libet. Des variantes de cette procédure (y compris les versions informatisées actuelles) ont été utilisées pour étudier un certain nombre de phénomènes de recherche intéressants en psychologie et en neurosciences 3,4,5,6,7,8. Par exemple, en utilisant l'horloge de Libet, Haggard et ses collègues ont demandé à leurs participants expérimentaux d'appuyer sur une touche d'un clavier d'ordinateur à tout moment pendant qu'un point tournait autour d'une sphère sur l'écran de l'ordinateur 3 . En appuyant sur la touche, un délai de 250 millisecondes était suivi de la présentation d'une tonalité. Les participants ont été invités à estimer la position du point à deux moments différents - soit lorsque la tonalité retentissait, soit lorsqu'ils appuyaient sur la touche. Les résultats ont montré que lorsqu'on a demandé aux participants d'estimer la position du point au moment de l'appui sur la touche, il y avait un décalage vers l'avant dans cette estimation (c'est-à-dire qu'ils ont jugé que l'appui sur la touche avait eu lieu plus tard dans le temps). Cependant, lorsqu'on a demandé aux participants d'estimer la position du point lorsque la tonalité a retenti, les participants ont jugé qu'il s'était produit plus tôt que le moment de son apparition réelle. La mauvaise appréciation de la position du point dans les deux situations est connue sous le nom de liaison temporelle, une réduction subjective du délai temporel entre les deux événements. En d'autres termes, l'action et sa conséquence sont perçues comme étant plus proches l'une de l'autre qu'elles ne le sont en réalité. Cet effet a également été appelé liaison intentionnelle 3 et c'est le sujet d'un débat théorique intense 9,10 : Certains chercheurs ont soutenu que c'est la causalité, plutôt que l'intentionnalité, qui est essentielle dans la production de ce phénomène 11 , tandis que d'autres soutiennent que l'intentionnalité et la causalité sont essentielles 12 . Fait intéressant, il a également été démontré que lorsque les gens s'habituent à un certain délai entre leurs actions et leurs effets, présenter les effets avec un délai plus court peut même inverser la perception des événements, de sorte que le ton peut être perçu comme se produisant avant le action 13 . D'autres « paradoxes d'inversion du temps » ont été décrits dans la littérature, y compris l'effet de restauration phonémique de Warren 14 , qui fonctionne également « en arrière » dans le temps en restaurant les informations manquantes antérieures dans une phrase entendue sur la base d'informations arrivant plus tard. Il existe une grande classe d'effets de restauration perceptuelle, y compris les célèbres phénomènes d'angle mort où nous remplissons régulièrement les perceptions du champ visuel dans la scène, alors que cette parcelle d'entrée est en fait un scotome induit par les récepteurs rétiniens manquants où nous pourrions nous attendre à ce que des récepteurs existent. 15 . Il ne s'agit pas tant d'« illusions » que de « restaurations » du contenu perceptuel attendu, malgré l'absence d'informations d'entrée

En utilisant l'horloge de Libet avec l'enregistrement électroencéphalographique (EEG), un retard dans l'expérience consciente de la perception d'un stimulus a également été rapporté 16 , ainsi que le moment des décisions conscientes 2 . Dans ces expériences, l'activité cérébrale des participants était surveillée pendant qu'on leur demandait d'estimer la position du point dans l'horloge d'un Libet lorsqu'ils « sentaient la volonté » d'appuyer sur une touche, lorsqu'ils l'appuyaient ou lorsqu'une tonalité retentissait après leur appuyez sur la touche. Les résultats ont montré que leur activité cérébrale était d'abord dans la chaîne temporelle, leur « sentir la volonté » d'agir se produisant après que leur activité cérébrale avait déjà commencé, et leur perception de l'action suite à leur « sentir la volonté ». Leur perception consciente du son a fermé la chaîne 2,16 . Ces expériences ont alimenté un débat très intéressant sur les notions de volonté consciente et de sens de l'action, suggérant que la volonté consciente pourrait être un sous-produit de l'activité cérébrale.

Regardless of the merits of the various theoretical interpretations and debates that have flourished around these experiments using Libet’s clock, and even though some alternative procedures have also been developed (for alternative proposals see 1,17,18 ), it is clear that Libet’s clock is still a popular experimental paradigm that is used to study a number of interesting questions in psychology and neuroscience, such as the perception of external stimuli like tones, and internal cues such as the sense of agency and the timing of conscious decisions.

To the best of our knowledge, however, there is not a standardized version of Libet’s procedure that could be simply programed to fit one’s experiment. Such version would greatly facilitate replicability and homogeneity and should probably not be expensive to use in today’s computerized laboratories. By contrast, as we have been able to learn, each research group seems to have developed their own software over the years, which makes this procedure difficult to share among researchers (we were not able to obtain a copy), due to the “home-made”, personal, features of most current versions. In addition, little technical details are typically provided with manuscripts, which, given the extreme precision and accuracy that are required in timing studies, makes replicability difficult and opens the doors to potential software and timing errors (both at the operating system level, which may be open to timing issues, and at the level of the programming language used to develop the experimental paradigm). Even though it is possible that those potential errors are absent in most previous research in the literature, one cannot discard their existence when the articles do not provide the necessary details for code inspection and accurate reproducibility of the experiments.

Thus, having a public and standardized version of Libet’s clock which could be used freely to conduct experiments on sense of agency, intentional binding, and related phenomena should facilitate enormously the advancement of knowledge in these areas, the development of new experiments and the replicability of findings. With this in mind, we developed Labclock Web, a tool that researchers could use freely to conduct experiments. Labclock Web offers three main improvements when compared with current tools used to conduct experiments with Libet’s procedure. First, Labclock Web is open source software. It is free and is highly flexible, as its code is public and can be adapted according to the aims of each experiment (e.g., it might be connected to additional apparatus). If errors are present, anyone could detect them, report them, and solve them. Second, using external configuration files, experimental tasks are easily programmed by non-expert programmers. Although some basic computing skills are required, tasks can be adapted to each experimental situation without extensive knowledge of programming. Finally, Labclock Web operates in web browsers, a feature which allows for experiments to be conducted online.

Labclock Web takes advantage of the latest web standards to provide a multi-platform application for conducting online experiments. Below we describe the technical features of this tool and the tests that we have conducted to guarantee the accuracy of stimulus presentation–an issue of critical importance in experiments of this sort. In addition, and because the potential problems in running these experiments arise not only from technical aspects, but also from the behavioral ones (particularly in those experiments conducted through the Internet), we also conducted two experiments on intentional binding with human participants. The first one was conducted in the laboratory, whilst the second was carried out online. The results confirmed that Labclock Web is a reliable tool for conducting experiments in this area. They also show that reliable experiments can be carried out online but that some additional cautionary measures need to be taken into account in those cases.


What makes SmartSurvey right for you?

From event feedback to sophisticated market research, SmartSurvey is your best choice. Get our best features to reduce

Polls, surveys, questionnaires, online forms, consultations, quizzes, you name it, we have it.

No complicated installations or downloads, just sign up and create polls through your browser.

Intuitive user-led design, with easy to follow step-by-step guides.

Data encrypted during transit and at rest. ISO27001 and Cyber Security Essentials Plus certified.

Connect your data with APIs, Zapier, Salesforce, Google Analytics, and more.

Help when you need it, through email and telephone.

Security is our most important feature and we take it seriously

Security Features

Enable SSL encryption on any survey. Apply password protection and IP restriction on user accounts and survey responses.

ISO 27001 Certified

The highest possible standard for data security. An internationally recognised system for keeping information assets secure.

UK/EU Based Servers

All data is stored and backed up on UK/EU-based servers.

Data Protection Act

Fully compliant with EU Privacy Laws and registered under the Data Protection Act.


Experiment Builder

SR Research Experiment Builder is a sophisticated and intuitive drag-and-drop graphical programming environment for creating computer-based psychology and neuroscience experiments.

  • No hidden fees. Updates are always free and always fully backwards compatible.
  • Cross-platform compatible for Windows (32-bit and 64-bit) and macOS (OSX).
  • Delivers complex visual and auditory stimuli and registers responses with extremely high levels of timing precision.
  • Multi-language text presentation , with full control of text properties, html markup , and automatic interest area segmentation.
  • Displays video content with precise timing and frame-logging.
  • Powerful randomization options , including blocking, run-length control, and list counter-balancing.
  • Hundreds of existing templates that can be easily modified (e.g., change blindness, smooth pursuit, pro-saccade task, Stroop task and many more) are available through the SR Research Support Forum.
  • Fully integrated with EyeLink Data Viewer.
  • Compatible with all EyeLink trackers, facilitating cross laboratory research collaboration.
  • Supports both eye tracking (EyeLink) and non-eye tracking experiments.

If you would like to find out more about Experiment Builder and how it can help your eye-tracking research, please get in touch with us! You can also download the latest version of Experiment Builder by clicking the button below (you will need to be registered with our support forum for the link to work):


Introduction

The advent of the Internet opened new avenues of exploration for us as psychological researchers. Internet-based experimental instruments allow us to conduct experiments with demographically and culturally diverse samples, to recruit large subject pools in less time, to avoid organisational issues such as scheduling conflicts, to save costs related to laboratory space, equipment, personnel hours, and administration, and to increase our ability to conduct international experiments [1,2,3]. For these benefits to be worthwhile we must be able to trust Internet-based instruments to accurately record participants’ responses, in terms of both the actual responses as well as their intrinsic characteristics, such as response times. The current study investigates this particular issue by testing the replicability of the Internet-based implementation of PsyToolkit for use with paradigms requiring complex Choice Response Time (CRT) tasks.

It has been argued that, for instruments found to reliably record participants’ responses, Internet-based experimentation has three main advantages over laboratory-based experimentation [2] increased generalisability, increased voluntariness, and increased ecological validity. Increased generalisability refers to participants being able to be recruited from much broader demographic and/or geographic backgrounds, meaning that the sample is more likely to be truly representative of society. Increased voluntariness refers to participants having fewer constraints on their decisions to participate and to continue to participate as, for example, there is no researcher whose presence might socially pressure a participant to continue. Further, responses may be more authentic when participants are more comfortable in their ability to stop the experiment [2]. Ecological validity is a measure of the level to which participant behaviour in an experiment resembles their behaviour in a naturalistic setting. The closer to reality an experiment can be, the higher the level of ecological validity the experiment is said to have, and the more we can be confident that the results obtained reflect the participant’s real-world behaviours. As an example, driving simulators attempt to simulate, to different degrees, the feeling of driving a real car. The closer the simulator is to the experience of naturalistically driving a car, the higher the level of ecological validity. As such, an experiment in which you sit inside an actual car, observe a scene projected on the wall in front and to the sides of you, and respond using the car’s steering wheel, accelerator, and break is likely to have a higher level of ecological validity than an experiment in which you sit in front of a computer screen, observe a scene shown on the screen, and respond using controllers shaped like a steering wheel, accelerator, and break, which in turn is likely to have a higher level of ecological validity than an experiment in which you sit in front of a computer screen, observe a scene shown on the screen, and respond by moving the mouse on the screen to control direction and speed. With reference to internet-based studies, it has been argued that the ability for participants to take part in experiments in environments (and using equipment) that they are familiar with, and the ability for participants to undertake experiments without the presence of a researcher in the room, lead to increased ecological validity [2].

The ability to undertake experiments in familiar environments, and with familiar equipment, has the potential to enhance ecological validity in at least two manners increased familiarity and reduced cognitive load. Increased familiarity refers to the fact that participants can choose the time, place, and surroundings in which to undertake the experiment, ensuring that any effects found cannot be attributed to being in an unfamiliar setting [2]. Cognitive load refers to the amount of cognitive resources required, out of a limited pool, to fulfil the requirements of mentally demanding tasks [4]. In experimental terms, increasing levels of cognitive load are associated with increased reaction times, as participants have less cognitive resources available for undertaking experimental tasks. Unfamiliar environmental factors are known to increase cognitive load, as the level to which the brain actively monitors the environment is higher, which in turn reduces the cognitive resources available for other tasks. As such, the more familiar an individual is with their surroundings, the less cognitive resources are utilised in monitoring the environment, meaning that there are more cognitive resources available for focusing on the experimental task with which they are presented.

The lack of a researcher present has the potential to enhance ecological validity through reduced social desirability bias and reduced cognitive load. Social desirability bias refers to a cognitive bias in which individuals act to increase the level to which answers they give are in line with social norms in order to present themselves in the best possible light [4, 5]. The level to which this bias occurs is, among other factors, heightened in the presence of others [6]. As such, responses given in the absence of researchers are more likely indicative of how an individual truly feels about the subject, leading to higher ecological validity. Cognitive load is also reduced in the absence of a researcher, as the presence of others when undertaking a task divides attention, at least to some degree, between the experimental task and anyone else present [7, 8].

While increasing ecological validity is an important factor for experimental design, laboratory-based experiments also have advantages over internet-based experiments. Firstly, laboratory-based experiments have a higher range of possible research approaches. This is primarily due to equipment requirements. It is not reasonable, for example, to expect participants recruited from the general populace to all own eye tracking equipment as such, it is more logical to undertake experiments in which eye tracking is included in laboratory conditions. Further, hardware and software related issues have historically introduced a high level of error noise into results obtained through internet-based instruments compared to those obtained through laboratory-based instrumnets, primarily observable as response time noise. A wide variety of factors can affect response time recording, such as hardware timing features, device driver issues and interactions, script errors, operating system variability, interactions with other software, tools to construct the paradigm, interactions with other hardware, and configuration of settings and levels [3,9]. In laboratory-based experiments these sources of noise are less likely to affect the final results of the experiment, as all participants undertake the experiment with the same hardware, software, device drivers, operating system, and system configuration. In internet-based experiments, however, there are large potential differences in these elements between participants’ computers, which can lead to a higher level of noise within the results obtained. Further, responses given via the internet are also affected by the amount of time it takes for the website hosting the experiment to successfully send an image to the participants’ computer, and then, after responding, by the amount of time it takes for the response to be sent from the participants’ computer to the website hosting the experiment [10]. As high noise levels can obscure small effects and give the illusion of heterogeneous responses, care must be taken when analysing results obtained through internet-based instruments to ensure that an increase in heterogeneous responses are due to ecological validity improving rather than noise level increasing. However, technology continues to evolve, and recent advances in the design of internet-based experimental tools–such as has occurred with PsyToolkit, the instrument we present next–may have significantly reduced error noise compared to older internet-based instruments, even to the point of bringing them fully in line with laboratory-based instruments. As such, for instruments with which there is minimal Internet-related noise, if ecological validity was indeed increased we could (for example) expect participants to respond to items in a less self-monitored and/or socially accepted manner, with participants displaying wider response choice variability and overall faster response times.

PsyToolkit is an open-access psychological instrument developed to allow researchers, including student researchers, to easily program and run experimental psychological experiments and surveys for both laboratory and Internet settings [11,12]. Two versions of PsyToolkit are available a laboratory-based version that runs on Linux, and an Internet-based version that is Javascript based and can run on modern browsers without participants needing to download any programs. The Internet-based version of the instrument is specifically aimed at addressing financial and technical limitations commonly faced by students, as it is free software that has specifically been designed for running online questionnaires, Simple Response Time (SRT) tasks, and Choice Response Time tasks (CRT) [12]. A SRT is an experimental task in which a single stimulus, and only that stimulus, is presented repeatedly at the same on-screen location, with participants tasked with responding to every presentation of the stimulus in the exact same manner and quickly as possible [13]. An example of this is participants being instructed to watch an LED and to press a specific button as quickly as possible whenever the LED lights up. A CRT is an experimental task in which instead multiple stimuli are shown, and/or stimuli are presented on different areas of the screen, and the participant is tasked with responding in different manners depending on the nature of each presentation (e.g., Zajdel and Nowak [13]). An example of this is participants being instructed to look at a screen on which letters will appear, with the task of pressing the corresponding letter on a keyboard. CRTs can also differ in complexity. Simple CRTs, such as in the above example, require participants to recognise the stimuli and respond accordingly. More complex CRTs require participants to also make judgements about the nature of the stimuli.

In the present experiment, participants were instructed to look at a screen on which first names paired with role nouns appeared, with the task of pressing one of two buttons depending on whether they believed that it made logical sense for someone with the name shown to hold the role shown. Stoet [12] states that PsyToolkit is designed for a teaching environment, with minimal technical barriers and free web-based hosting of their studies. A library of existing psychological scales and experiments is available for students to examine and adapt, and extensive online documentation and tutorials are available to assist if students face any issues. Further, Stoet [12] states that PsyToolkit is designed to allow for students to randomise item order in both questionnaires and in cognitive experiments, to allow for a convenient way of scoring, and to give feedback to participants about their test scores options not available in all Internet-based instruments. All users of the Internet-based version must register an account to be able to create experiments, but accounts are free. Randomisation is possible in both the survey and the experiment, and partial randomisation is also possible for if one wishes for only certain portions of the survey and/or experiment to be randomised. Further, alternate versions of the experiment can be created, with participants randomly assigned between versions. In terms of reliability, Stoet [14] states that both the Internet and Linux versions of PsyToolkit can reliably measure small effects of less than 50ms, with the Linux version being more precise. However, to our knowledge, currently no research has been published examining the replicability of the Internet-based version of PsyToolkit.

As PsyToolkit is intended to be a student-focused instrument, and many universities do not set up experimental computers with Linux for their students, it was decided to compare results obtained through the Internet-based implementation of PsyToolkit to results obtained through E-Prime 3.0 in a laboratory setting. E-Prime was chosen as it is a commonly used psychological research tool in university settings, including in teaching environments, and, like PsyToolkit, it has a low barrier to entry and has an experiment library. Further, Stoet [14] states that the Linux-based version of PsyToolkit is on par with E-Prime, so, while there is likely to be noise due to differences in software, this is expected to be minimal.

While the replicability of PsyToolkit has not been examined, the replicability of other Internet-based instruments has been tested through CRT tasks (e.g., Reimers and Stewart [15] Schubert, Murteira, Collins, & Lopes [16]). Reimers and Stewart [15] used a CRT task to test the replicability of an experiment in the Internet-based version of Adobe Flash compared to the same experiment in a laboratory-based version of Adobe Flash, with the same experiment coded in C used as a baseline. Participants were shown green and red rectangles and were required to press buttons corresponding to the colour of the rectangle on the screen. They found that, compared to the baseline, (a) response times of the laboratory-based version of Flash were 10ms longer, (b) response times of the Internet-based version of Flash were 30-40ms longer, and (c) there were no significant differences in Response Time standard errors across conditions. Schubert et al. [16] used both SRT and CRT experiments in a study testing the replicability of ScriptingRT to Flash. Six experiments were conducted over the course of their study. The first three studies used SRT tasks but were automated to test specific aspects of ScriptingRT. The last three studies used CRT tasks, specifically a version of the Stroop task, where participants were presented with either the words “red” or “blue”, or a neutral letter string, in either red or blue on a white background. Participants were instructed to press keys corresponding to the colour of the word or neutral letter string shown. Experiment 4 tested the Internet-based version of ScriptingRT by itself, while Experiment 5 compared ScriptingRT to the same experiment coded in DMDX (a laboratory-based instrument [17]) with participants undertaking both tasks on the same computer, and Experiment 6 compared ScriptingRT to Inquisit Web Edition, both running via the Internet. In Experiment 5, the experiment of most interest to the present experiment as it compares an Internet-based implementation of the instrument to a laboratory-based one, Schubert et al. [16] found that the size of the Stroop effect was not affected by which software was used.

Historically, psycholinguistic research has not relied upon Internet based testing, as it often relies upon small differences in response times in CRT tasks to detect effects [18] and is strongly affected by response time noise. Recent research (e.g., Enochson & Culbertson [18]) has found that some modern Internet-based instruments are reliably able to test these small differences, meaning that modern psycholinguistic research may safely utilise Internet based tools that have been properly validated. Some researchers have suggested that PsyToolkit may be a delicate enough tool for psycholinguistic experimentation (e.g., Sampaio [19]). An opportunity arises therefore to test both general replicability and psycholinguistic specific replicability of PsyToolkit through a psycholinguistic experimental paradigm.

The present study was designed to compare responses and Response Times measured by the Internet-based implementation of PsyToolkit with those measured by the laboratory-based implementation of E-Prime 3.0 using a complex CRT task composed of an existing and published psycholinguistic paradigm (i.e., Gygax & Gabriel [20]) to test replicability between the Internet-based implementation of PsyToolkit (Version 2.4.3) and E-Prime (Version 3.0.3.31). The paradigm uses a between-subjects two-alternative forced choice design, with a CRT task in which participants are shown pairs of terms (in the present experiment a first name and a role noun e.g., ‘Kate–Chefs’) and are then required to, as quickly as possible, make a judgement as to whether the pairing makes logical sense (i.e., could someone named Kate be a member of a group of chefs). Experimental item pairings were composed of first names paired with professional roles that vary in gender stereotypicality. As logically any individual can hold any professional role, filler item pairings were included to prevent participants of developing a strategy of always answering positively to all roles seen. The filler items were first names paired with gender-marked kinship terms, with both congruent (e.g., ‘Kate–Mothers’) and incongruent (e.g., ‘Kate–Fathers’) pairings shown to prevent participants from developing a strategy of answering positively to professional roles and negatively to familial roles.

The paradigm we utilise is more complex than those used by Reimers and Stewart [15] and by Schubert et al. [16], as the paradigm used in the current study requires participants to make subjective judgements of the items presented before responding, while the paradigms used by Reimers and Stewart [15] and Schubert et al. [16] required that participants responded based on the colour, an objective quality, of the items presented to them. One can therefore expect that overall response times will be longer for this study than those found by Reimers and Stewart [15] and Schubert et al. [16], and, compared to Reimers and Stewart [15], it is likely that Response Time standard errors will be larger. Further, if the results indicate that there is a high level of replicability between PsyToolkit and E-Prime, then it may be possible to determine whether the results offer any support for the concept of increased ecological validity in Internet-based experiments. If the results obtained in PsyToolkit do have a higher level of environmental validity than the results obtained in E-Prime, we would expect that participants who undertake the PsyToolkit version of the experiment would be more likely to respond negatively, and would overall respond more quickly (i.e., more spontaneously), than those who undertake the E-Prime version of the experiment.

It is worth noting that Norwegian is considered a semi-gendered language. This is because some, but not all, nouns have associated gender markers. Specifically, only nouns that refer to living beings, especially humans, are gendered in Norwegian. Further, the majority of role nouns in the plural form are the same as the masculine-specific singular form. This is due in part to a linguistic policy of gender neutralisation [21], under which the masculine grammatically marked form of role nouns are actively encouraged to become the main linguistic device to refer to the majority of roles [22].


Statistics itself has developed a lot in recent years. Prominent statisticians around the world have introduced various new tests and analysis types, thereby adding new aspects and dimensions to the field of statistical analysis. Statistics involves multiple tests, correlations, variable-analysis, and hypothesis testing, that makes it a complicated process.

A statistical analysis software has the following features to make complicated statistical functions easy.

Below is the list of 10 free and open source statistical software

  1. JASP
  2. SOFA
  3. GNU PSPP
  4. SCI LABS
  5. Jamovi
  6. MacAnova
  7. Past
  8. Develve
  9. Invivostat
  10. IBM SPSS

Sona around the World

Social for Personality and Social Psychology (SPSP), March 2018, Atlanta, GA

Southeastern Psychological Association (SEPA), March 2019, Jacksonville, FL

European Association of Social Psychology (EASP), July 2017, Granada, Spain

Social for Personality and Social Psychology (SPSP), January 2017, San Antonio, TX

Chinese Psychological Society (CPS), October 2016, Xi'an, China

International Congress of Psychology (ICP), July 2016, Yokohama, Japan

Japanese Psychological Association (JPA), September 2015, Nagoya, Japan

Chinese Psychological Society (CPS), October 2015, Tianjin, China

Association for Psychological Science (APS), May 2015, New York City

Social for Personality and Social Psychology (SPSP), February 2015, Long Beach, California

European Association of Social Psychology (EASP), July 2014, Amsterdam

Japanese Psychological Association (JPA), September 2014, Kyoto, Japan

APS Annual Convention, May 2013, Washington, DC

CPS Annual Meeting, November 2013, Nanjing, China

SPSP Annual Meeting, January 2013, New Orleans, Louisiana

How Does an Exam Software Work?

Popularly used by recruiters and educational institutions, exam software is used for setting up online exams. The best online examination software helps with the following procedures:

    Students’ Registration

Online exam software helps with the registration process of students and generates unique IDs for them.

You can create a subjective, objective, multiple-choice, and other types of questions online and ensure zero spam.

Students can take tests from anywhere with a stable internet connection and a system. Similarly, teachers can invigilate directly through the system.

Teachers don’t need to evaluate answers manually, as the exam software helps analyze students’ performance digitally.

YouTube broadcast software enables users to list their live streams as videos on their channels. This way the live stream can be seen even after it ended.

The performance reports include detailed info about the strengths and weaknesses of every student. Accordingly, teachers can make the improvement plan.


4 Activities & Exercises

1. Solution-focused art therapy/ letter writing

A powerful in-session task is to request a client to draw or write about one of the following, as part of art therapy:

  • a picture of their miracle
  • something the client does well
  • a day when everything went well. What was different about that day?
  • a special person in their life

2. Strengths Finders

Have a client focus on a time when they felt their strongest. Ask them to highlight what strengths were present when things were going well. This can be an illuminating activity that helps clients focus on the strengths they already have inside of them.

A variation of this task is to have a client ask people who are important in their lives to tell them how they view the client’s strengths. Collecting strengths from another’s perspective can be very illuminating and helpful in bringing a client into a strength perspective.

3. Solution Mind Mapping

A creative way to guide a client into a brainstorm of solutions is by mind mapping. Have the miracle at the center of the mind map. From the center, have a client create branches of solutions to make that miracle happen. By exploring solution options, a client will self-generate and be more connected to the outcome.

4. Experiment Journals

Encourage clients to do experiments in real-life settings concerning the presenting problem. Have the client keep track of what works from an approach perspective. Reassure the client that a variety of experiments is a helpful approach.