Méthodes quantitatives en sciences humaines (et santé)
5 et 6 juin 2025 • Université de Montréal, Montréal
À propos
Le MQSH
Le MQSH est à la fois un groupe virtuel, un lieu de référence et un colloque annuel voués au développement de l'expertise et à la diffusion des connaissances liées aux méthodes quantitatives en sciences humaines. Pleinement interdisciplinaire, le domaine inclut notamment la statistique appliquée et théorique, la psychométrie théorique, la modélisation et ses aspects mathématiques associés, le tout en lien actuel ou potentiel avec les applications en sciences humaines et de la santé.
Le colloque
Lancé en 2009, le colloque Méthodes quantitatives en sciences humaines (MQSH) se veut une tribune et une plateforme où les « quantitativistes en sciences humaines », spécialistes, modélisateurs, statisticiens, experts et créateurs peuvent se retrouver et partager leurs savoirs, leurs trouvailles, leurs critiques.
Pour son édition 2025, l'Université de Montréal est fière d'accueillir et d'organiser cet événement renommé « Méthodes quantitatives en sciences humaines (et santé) », reflétant ainsi l'intégration formelle des communautés de recherche en santé. Fidèle à l'esprit de la science ouverte, le colloque reste entièrement gratuit, permettant une large participation, notamment celle des étudiantes et étudiants issus de différentes disciplines.
Appel à communications
Nous sollicitons des communications portant sur les développements théoriques, les études empiriques et les réflexions méthodologiques. Les personnes intéressées à participer sont invitées à proposer une communication orale. Veuillez faire parvenir un résumé de votre proposition de communication à l'adresse mqsh@teluq.ca. Le résumé doit contenir au maximum 300 mots, un titre et les noms et affiliations des auteurs de cette communication.
Pour en savoir plus, consultez l'appel à communications.
Date limite des soumissions : 17 mars 2025 à 23:59 (heure de Montréal)
L'appel à communications est terminé.
Programme
Les conférences proposées dans ce programme se dérouleront en présentiel au Campus MIL de l'Université de Montréal (salles B1007, B2061 et A3541).
Une coquille s'est glissée dans le programme pour la salle B1007 (précédemment AB1007). Le numéro à considérer pour cette salle est bien B1007.
Jeudi 5 juin 2025
-
8 h 30
Ateliers pratiques
Salle B1007
Méta-analyse : principes, méthodes et applications
Massimiliano Orri, Université McGill
En savoir plus
Cette présentation propose une introduction à la méta-analyse, une méthode statistique essentielle pour synthétiser les résultats de plusieurs études quantitatives et fournir des estimations globales robustes. Nous aborderons les fondements théoriques de la méta-analyse ainsi que des techniques clés telles que les modèles à effets fixes et à effets aléatoires. Nous présenterons les étapes pratiques de la réalisation d’une méta-analyse, telles que la formulation de la question de recherche, la recherche documentaire systématique, l’extraction et la standardisation des données, le calcul des tailles d’effet, l’évaluation de l’hétérogénéité et la détection des biais de publication.
Nous aborderons la méta-analyse en réseau (Network Meta-Analysis), une technique qui permet de comparer indirectement plusieurs interventions lorsque les comparaisons directes sont limitées ou absentes. Nous discuterons de l’interprétation des réseaux d’évidence, de la compréhension des hypothèses sous-jacentes et de l’évaluation de la cohérence des résultats.
Nous nous appuierons sur des exemples pratiques issus de la littérature scientifique pour illustrer les différentes étapes et défis d’une méta-analyse, qu’elle soit classique ou en réseau, ainsi que les outils pour la réaliser (p. ex. logiciels pour la sélection des études et pour la réalisation des analyses). Ces exemples permettront d’éclairer l’interprétation critique des résultats et les bonnes pratiques de rédaction et de présentation des méta-analyses.
Salle B2061
Saisir la complexité relationnelle à toutes les échelles : introduction à l’analyse de réseaux en sciences sociales, santé et neurosciences
Patrick Desrosiers, Université Laval
En savoir plus
Dans les sciences sociales, la santé et les neurosciences, les phénomènes étudiés émergent d’un enchevêtrement d’interactions entre individus, symptômes, régions cérébrales ou variables sociales. Ces relations, présentes à toutes les échelles – du neuronal au sociétal – sont souvent difficiles à intégrer dans les approches quantitatives traditionnelles. La science des réseaux offre un cadre formel pour représenter, explorer et quantifier cette complexité relationnelle.
Ancrée dans la théorie mathématique des graphes et les sciences sociales, la science des réseaux s’est développée de façon spectaculaire au cours du dernier quart de siècle, portée par les contributions croisées de la physique, de l’informatique, de la biologie et des neurosciences. Elle permet aujourd’hui de mieux comprendre les structures d’interdépendance qui sous-tendent de nombreux systèmes humains et biologiques.
Cet atelier propose une introduction accessible à cette approche, à partir d’exemples concrets issus de plusieurs disciplines. Les participants et participantes découvriront les notions fondamentales (nœuds, liens, centralité, modularité) par des exercices pratiques, des visualisations et des jeux de données simples. Aucune expérience en programmation n’est requise. L’atelier s’adresse à toute personne souhaitant enrichir ses analyses quantitatives en intégrant les interactions comme objet d’étude essentiel, afin de mieux comprendre la structure et la dynamique des phénomènes étudiés.
-
10 h 30
Pause
-
10 h 45
Ateliers pratiques
Salle B1007
Méta-analyse : principes, méthodes et applications (suite)
Massimiliano Orri, Université McGill
Salle B2061
Saisir la complexité relationnelle à toutes les échelles : introduction à l’analyse de réseaux en sciences sociales, santé et neurosciences (suite)
Patrick Desrosiers, Université Laval
-
11 h 45
Dîner et réseautage
Repas entre collègues
-
13 h 15
Ateliers pratiques
Salle B1007
L’analyse en classe latente et de profil
Pier-Olivier Caron, Université TÉLUQ
En savoir plus
Les analyses en classes latentes permettent d’identifier des sous-groupes d’individus normalement inobservables à partir de variables ayant une échelle nominale ou ordinale. Les fondements de base, les méthodes de détermination du nombre de classes ainsi que les analyses post hoc seront présentés. Ce cours couvrira la façon de réaliser ces analyses avec R en recourant au package poLCAExtra. Les avantages et inconvénients de ce progiciel comparativement à d’autres seront discutés.
Si possible, apportez votre ordinateur portable et téléchargez :
- R 4.3
- RStudio (version : 2023.03.0+386)
- Mplus 8
Assurez-vous de pouvoir installer au besoin des librairies R sous RStudio.
Salle B2061
La validité : le cœur battant de la mesure en sciences sociales et de la santé
Christophe Chénier, Université de Montréal
En savoir plus
« Cet article cherche à valider un questionnaire, un test ou une échelle de mesure... ». Il semble impossible de feuilleter une revue scientifique en sciences sociales, humaines et de la santé sans tomber sur cette proposition fatidique qui, elle, mène généralement à des analyses et résultats quantitatifs plutôt décevants : une suite d’analyses factorielles ou par composantes principales, des modélisations par équations structurelles et des indices de fidélité, comme si l’on pouvait établir la validité d’un questionnaire à l’aide d’alphas de Cronbach et de maximum de vraisemblance! Loin de ces considérations strictement quantitatives, les théories contemporaines de la validité ancrent la validation dans un processus d’abord discursif, où divers éléments de preuve, dont certaines quantitatives, sont convoqués. Le but est alors d’étayer un argumentaire visant à montrer que les décisions, cliniques ou de recherche, prises à partir de mesures, mènent à des conséquences davantage positives que négatives, et ce, pour l’ensemble des parties prenantes, le tout selon les contextes : les bénéfices et les risques ne sont pas les mêmes lorsqu’on vise à prescrire des opiacés ou que l’on prétend mesurer le sentiment d’efficacité personnelle.
Cet atelier cherche donc à explorer la relation complexe entre les méthodes quantitatives et la validation des instruments de mesure dans les domaines des sciences sociales, humaines et de la santé, de manière à permettre aux personnes participantes d’approfondir leur compréhension du couple validité – validation, et de réfléchir à leurs pratiques de développement de validation de questionnaires, de tests ou d’échelles de mesure. Des exemples seront mobilisés dans divers domaines – sciences infirmières, recherche en psychologie et évaluation certificative en langue. Finalement, les personnes participantes seront amenées à mettre la main à la pâte en esquissant un argumentaire de validité d’un test bien connu.
-
14 h 45
Pause
-
15 h
Ateliers pratiques
Salle B1007
L’analyse en classe latente et de profil (suite)
Pier-Olivier Caron, Université TÉLUQ
Salle B2061
La validité : le cœur battant de la mesure en sciences sociales et de la santé (suite)
Christophe Chénier, Université de Montréal
-
16 h 30
Fin de la journée
Mot de clôture
Vendredi 6 juin 2025
-
8 h 30
Accueil et mot de bienvenue
Mot de bienvenue
-
9 h
Conférence d’ouverture
Salle B1007
L’importance de la synergie entre méthodes et théorie en sciences sociales : quelques illustrations d’une trajectoire personnelle
Alexandre J. Morin, Université Concordia
En savoir plus
En tant que chercheurs en sciences sociales travaillant dans des domaines quantitatifs, nous vivons depuis certaines années dans une période très riche en termes de nouveaux développements. Cette richesse a cependant un coût : celui de se tenir à jour au sujet de développements quantitatifs souvent présentés de manière technique sans connexion claire avec notre domaine théorique. En contrepartie, nous devons aussi consulter, et intégrer, un nombre sans cesse grandissant de publications liées plus directement à notre domaine de recherche, ce qui en force plusieurs à baisser les bras devant l’impossibilité de se maintenir à jour dans ces deux volets si nécessaires à notre recherche. Manquant souvent de formation technique/mathématique, plusieurs décident alors de miser sur l’expertise théorique du détriment de l’expertise technique. Il y a plusieurs années déjà, Borsboom (2006) et Marsh et Hau (2007) ont souligné le besoin, pour combler cet écart sans cesse grandissant entre la théorie et la pratique, d’adopter une approche collaboratrice, liant experts méthodologiques, théoriques et pratiques. Cette approche, nommée par Marsh et Hau (2007) de synergie théorie-méthode (Substantive-Methodological Synergie) permet à la fois l’illustration et la démonstration de la valeur théorique ou pratique de nouvelles méthodes, permettant ainsi d’obtenir des réponses plus claires, plus riches et plus complètes à divers problèmes classiques, mais aussi le raffinement méthodologique. Dans cette présentation, je vais d’abord brièvement présenter les principes de base de cette approche, puis illustrer mon propre cheminement synergétique, en ciblant divers domaines de recherche (ex. : concept de soi, engagement), méthodes et développements plus formels.
-
10 h
Conférence
Salle B1007
Choisir les analyses pour un petit échantillon : exploration des tests de permutations
Élise Désilets, Université du Québec à Trois-Rivières, Stéphanie Girard, Université du Québec à Trois-Rivières, et Jean-François Desbiens, Université de Sherbrooke
En savoir plus
L’utilisation des tests paramétriques repose sur des prérequis souvent difficiles à satisfaire. Cet enjeu est particulièrement présent en sciences humaines, où le recrutement parfois ardu de participants peut mener à de petits échantillons ou à des données hétérogènes, asymétriques ou comportant des valeurs extrêmes. Dans l’objectif de faciliter le processus décisionnel lorsque ces situations se produisent, cette présentation explorera les avantages et limites de deux solutions de rechange aux tests paramétriques.
Les tests basés sur les rangs (p. ex. Wilcoxon ou Mann-Whitney) sont souvent proposés comme une solution de rechange aux tests paramétriques, puisqu’ils sont plus robustes aux déviations par rapport à la normalité et aux valeurs extrêmes. Cependant, leur interprétation et leur communication peuvent poser des défis, car ils reposent sur les rangs des données plutôt que sur leurs valeurs brutes. Une autre approche possible consiste à utiliser des tests de permutations, qui génèrent une distribution nulle par randomisation des données. Cette méthode permet de s’affranchir des contraintes de normalité et offre une plus grande flexibilité analytique au prix d’une complexité computationnelle et méthodologique accrue.
Dans le cadre de cette présentation, des tests basés sur les rangs et des tests de permutations seront appliqués aux données d’une étude où deux groupes (ngr1 = 9; ngr2 = 4) ont rempli des questionnaires à deux temps de mesure. Grâce à la composition de l’échantillon, les tests de comparaison de deux groupes pour mesures indépendantes et mesures répétées seront abordés. Les résultats obtenus seront présentés afin d’explorer la validité, la robustesse et les limites des deux approches explorées. Cette réflexion permettra de mieux comprendre les implications du choix des tests statistiques et d’orienter les décisions analytiques en fonction des caractéristiques des données et des objectifs de recherche.
-
10 h 30
Pause
-
10 h 45
Conférence
Salle B1007
De la modélisation à l’interprétation : comprendre et communiquer les résultats statistiques avec marginaleffects
Vincent Arel-Bundock, Université de Montréal
En savoir plus
Dans un monde de plus en plus guidé par les données, l’analyse statistique repose souvent sur des modèles complexes. Cependant, l’interprétation des résultats issus de ces modèles peut être ardue, tant pour les chercheurs que pour les praticiens. Mon ouvrage Model to Meaning et le package marginaleffects pour R et Python visent à combler cette lacune en proposant un cadre conceptuel rigoureux et des outils pratiques permettant de traduire les estimations brutes des modèles en quantités compréhensibles et interprétables.
Cette présentation offrira une introduction aux concepts fondamentaux abordés dans Model to Meaning, en mettant l’accent sur la manière dont les analystes peuvent utiliser des quantités d’intérêt – prédictions, effets marginaux, contrastes, rapports de risques, entre autres – pour formuler des conclusions claires et accessibles. Grâce à une approche unifiée et reproductible, marginaleffects facilite la computation de ces quantités sur plus de 100 classes de modèles, incluant les modèles linéaires, généralisés, additifs, à effets mixtes, bayésiens et issus de l’apprentissage automatique.
En illustrant ces principes par des études de cas variées, je montrerai comment un workflow systématique permet d’améliorer la transparence, la communication et l’impact des analyses empiriques. Cette présentation s’adresse aux chercheurs, aux data scientists et aux étudiants souhaitant enrichir leurs pratiques d’interprétation et adopter des outils méthodologiques robustes et flexibles.
-
11 h 15
Conférence
Salle B1007
Une allégorie pour mieux saisir le potentiel (négligé) de développement théorique rendu possible par les analyses centrées sur la personne
Julien S. Bureau, Université Laval, William Gilbert, Université du Québec à Rimouski, et Frédéric Guay, Université Laval
En savoir plus
Les théories motivationnelles peuvent distinguer des types de motivation qui varieront selon des dimensions comme le niveau d’autodétermination ou bien leur qualité d’approche ou d’évitement. Les analyses centrées sur la personne, une méthode d’analyse quantitative en vogue, permettent de comprendre comment ces différents types de motivation se regroupent en général chez les individus. Ces regroupements, souvent considérés comme inductifs, peuvent aider à vérifier si les prédictions à partir d’une théorie (par exemple, que les gens qui arborent davantage des motivations autonomes ont un fonctionnement plus optimal) sont corroborées lorsque l’accent de l’analyse est mis sur l’individu plutôt que sur la variable. Or, en identifiant les manifestations naturelles du fonctionnement motivationnel chez les individus, il est possible que ces regroupements exposent une réalité bien plus profonde qu’une simple description des niveaux motivationnels. En effet, les analyses centrées sur la personne nous dévoilent des configurations de différences individuelles parcimonieuses qui révèlent un ordre sous-jacent au fonctionnement psychologique des individus. Cette « découverte » pourrait même transcender les construits utilisés dans l’analyse et la théorie sur laquelle ils s’appuient. Je présente une illustration de cette proposition et m’appuie sur la théorie de l’autodétermination pour discuter des implications transformatives que cette possibilité suggère.
-
11 h 45
Dîner et réseautage
Repas entre collègues
-
13 h 15
Conférence
Salle B1007
Propriétés des scores factoriels estimés selon différentes approches
André Achim, Université du Québec à Montréal
En savoir plus
Les scores factoriels sont obtenus par l'application de coefficients aux variables observées. Diverses approches optimisent différents critères, ce qui amène des relations différentes des scores factoriels entre eux et avec les facteurs respectifs. Partant des matrices de patrons et de corrélations des facteurs, on peut calculer : a) la contribution des diverses sources d'informations (facteurs et unicités) aux scores de chacun des facteurs, b) leurs corrélations attendues avec leurs facteurs respectifs et c) les corrélations attendues entre les scores des différents facteurs. On peut même décomposer la corrélation attendue d’une paire de scores factoriels en contributions propres de ces deux facteurs, en autres contributions dans le sous-espace des facteurs et enfin en contributions des unicités simultanément présentes dans chacun des scores factoriels. Pour des facteurs corrélés, par exemple, l’approche de Bartlett donne des scores informés par le seul facteur visé (et par les unicités des variables) tandis que la méthode de régression approche davantage les scores factoriels des facteurs, mais admet une part d’erreur d’estimation dans le sous-espace factoriel. Une autre approche force les corrélations des scores à égaler celles du modèle factoriel. On en discutera en soumettant les coefficients de différentes approches pour des modèles factoriels corrélés à une fonction en R programmée à cet effet.
-
13 h 45
Conférence
Salle B1007
Une proposition de critères psychométriques pour optimiser la détection du changement dans le cadre d’essais randomisés
Eric Dion, Université du Québec à Montréal, Catherine Roux, Université du Québec à Montréal, et Danika Landry, Université du Québec à Montréal
En savoir plus
Les critères psychométriques classiques (ex. : fidélité test-retest) ont été conçus pour mesurer les différences entre les personnes sur des traits présumés stables durant la période d’évaluation (Collins et Cliff, 1990; Cronbach et al., 1972). Par conséquent, les mesures fidèles et valides selon ces critères ne sont pas optimisées pour détecter le changement qui peut se produire lors d’une intervention (ex. : entre le pré et les posttests). L’utilisation de telles mesures peut ainsi mener à une sous-estimation de l’efficacité d’interventions potentiellement utiles et à l’abandon prématuré de ces dernières. Afin d’éviter ce problème, nous avons misé sur l’outil conceptuel qu’est la courbe de croissance (Rogosa, 1995) pour proposer trois critères psychométriques alternatifs : le caractère ordonné du changement, la cohérence interne des items pour refléter le changement et l’équivalence des versions de la mesure (Dion et al., 2011a). Des données sur l’apprentissage de la lecture (Dion et al., 2011b) ont été spécifiquement recueillies afin d’explorer et d’illustrer empiriquement la pertinence de ces critères. La prochaine étape est de programmer l’analyse multiniveau (ex. : dans R).
-
14 h 15
Conférence
Salle B1007
Automatiser l’analyse thématique avec ChatGPT : potentiel, limites et défis méthodologiques
Joël Gagnon, Université Laval, Salomé Jean-Denis, Université Laval, et Simon Coulombe, Université Laval
En savoir plus
L’essor des grands modèles de langage (LLMs), tels que ChatGPT, ouvre de nouvelles perspectives en analyse qualitative. Traditionnellement exigeante en ressources, cette démarche peut être optimisée grâce aux capacités des LLMs à traiter de grandes quantités de texte de manière rapide et systématique. Ils se distinguent par leur capacité à automatiser des processus effectués par des codeurs humains dans divers domaines tels que la santé, l’éducation, la culture et la technologie. Cependant, des inexactitudes occasionnelles et des limitations contextuelles (p. ex. biais culturels, surinterprétation des données) mettent en lumière l’importance d’adopter une approche rigoureuse dans l’utilisation de ces outils.
Dans cette présentation, nous proposons une approche d’analyse thématique, une méthode couramment utilisée en analyse qualitative, qui repose sur la méthodologie de Braun et Clarke (2006). L’intégration de ChatGPT dans ce processus a été guidée par des travaux antérieurs explorant l’usage des LLMs en analyse thématique. Ces travaux ont permis d’orienter le développement du « prompt » utilisé et d’opérationnaliser les étapes de l’approche de Braun et Clarke dans un cadre automatisé. Cette méthodologie sera illustrée par un projet de recherche portant sur la mésinformation en ligne en lien avec la santé mentale auprès des jeunes adultes. L’analyse repose sur un corpus issu du moissonnage de publications sur les médias sociaux, incluant Instagram, Reddit et TikTok, des plateformes largement utilisées par les jeunes adultes. Cette communication vise ainsi à démontrer à la fois le potentiel et les limites des LLMs pour l’analyse thématique et à ouvrir la discussion sur les meilleures pratiques méthodologiques en recherche qualitative assistée par l’intelligence artificielle. Plus spécifiquement, nous mettrons en lumière les enjeux liés à la rigueur, à la fiabilité et à la supervision humaine, ainsi que les défis posés par la gestion de grands volumes de données.
-
10 h 30
Pause
-
15 h
Conférences
Salle B1007
Validation et adaptation canadienne-française du « Pain Coping Questionnaire »
Jean Théroux, Université de Montréal, Christine Genest, inf., Ph. D., Julien Gardner, Laurence Lessard, Janick Carmel, Gabrielle Gilbert, Caroline Larue et Sylvie Le May, inf., Ph. D.
En savoir plus
La douleur musculosquelettique touche un enfant sur quatre et constitue une cause importante d’incapacité. Le Pain Coping Questionnaire (PCQ) est un outil auto-administré pour évaluer les stratégies d’adaptation à la douleur chez les enfants et les adolescents, mais une version canadienne-française fait encore défaut.
Cette étude visait à adapter et valider une version canadienne-française du PCQ (PCQ-F) pour les adolescents atteints de conditions musculosquelettiques.
Le PCQ a été traduit en français selon une méthode de traduction directe et de rétrotraduction. Il a été administré à des adolescents souffrant de douleurs musculosquelettiques importantes dans un hôpital pédiatrique de Montréal. La validité de construit a été évaluée par une analyse factorielle exploratoire, tandis que la validité divergente a été mesurée par une analyse corrélationnelle avec l’indice de stress post-traumatique chez l’enfant. La fiabilité a été mesurée à l’aide de l’alpha de Cronbach. Des hypothèses ont été testées concernant les différences liées au sexe, à l’âge, au niveau de douleur, à l’état émotionnel et à la perception du contrôle de la douleur.
Une étude menée auprès de 163 participants a permis d’évaluer la version canadienne-française du Pain Coping Questionnaire, donnant lieu à un outil de 31 items répartis en 6 domaines. Cette adaptation a expliqué 57,07 % de la variance, avec une forte cohérence interne (α = 0,87). Une validité concomitante modérée a été observée avec les scores du CPTS-RI (rs = 0,50), tandis que la validité de construit a révélé des corrélations positives avec la gravité (rs = 0,29) et la réactivité émotionnelle à la douleur (rs = 0,41). Des scores plus élevés à la sous-échelle « Internalisation/Catastrophisme » étaient associés à une douleur plus sévère (p < 0,001). L’analyse de régression a révélé qu’une plus grande réactivité émotionnelle à la douleur (β = 0,474) et une efficacité d’adaptation plus élevée (β = 0,194) prédisaient un plus grand nombre de stratégies d’adaptation utilisées et des scores globaux plus élevés au PCQ-F (R² ajusté = 0,20).
L’analyse factorielle du PCQ-F démontre qu’il s’agit d’un outil valide pour évaluer les mécanismes d’adaptation à la douleur chez les enfants canadiens-français.
Salle A3541
Dérives lors d’innovations statistiques
Eric Frenette, Université Laval, Sébastien Béland, Université de Montréal, Pier-Olivier Caron, Université TÉLUQ, Marie-Hélène Hébert, Université TÉLUQ, et Nadine Talbot, Université du Québec à Trois-Rivières
En savoir plus
Les effets pervers de la course aux publications sont nombreux : dégradation de la qualité des recherches, augmentation de publications prédatrices, fraude et mauvaise conduite scientifique, stress et épuisement professionnel, et fragmentation des recherches pour augmenter le nombre de publications. Un autre effet pervers invalidant souvent les résultats obtenus consiste à proposer à tout prix des innovations statistiques, sans considérer si cela est pertinent. Exemples tirés de la littérature scientifique :
Mauvaise utilisation de la théorie de la réponse à l’item
- Non-vérification des conditions d’application : unidimensionnalité et indépendance locale
- Mauvais choix de modèle (modèle dichotomique vs données catégorielles)
- Critères non pertinents dans l’identification des items problématiques
- Pas de vérification que les données sont Missing Completely at Random avant letraitement de données manquantes
Changement de philosophie sur la dimensionnalité en équations structurelles
- Au lieu de vérifier l’ajustement du modèle aux données, choix d’un modèle pour y forcer les données
- Ne pas effectuer d’analyses factorielles exploratoires. Utiliser celles confirmatoires en imposant des contraintes sur les saturations pour s’assurer d’obtenir les résultats escomptés
Utilisation d’un modèle unidimensionnel (bifacteur) avec des données multidimensionnelles
- Non-vérification de la présence d’un facteur dominant
- Remplacement des facteurs de groupe par des facteurs communs
- Surchargé de saturations (bifacteur-ESEM, bifacteur-SET, bifacteur J-1) ce modèle qui reproduit presque parfaitement les corrélations (saturé)
Surreprésenter l’importance des résultats obtenus
- Mettre l’accent, dans la discussion, sur la contribution d’une variable dans un modèle de prédiction, alors que la saturation est faible (< ,10), voire marginale
- Ajouter une variable fortement corrélée avec la variable dépendante afin d’obtenir un pourcentage de variance expliquée élevée
La présente communication s’inscrit dans un processus de réflexion critique sur les dérives statistiques afin de promouvoir des pratiques rigoureuses et éthiques.
-
15 h 30
Conférences
Salle B1007
Proposition d’une approche de construction des profils de mortalité infanto-juvénile à partir des modèles d’apprentissage automatique
Aoudou Njingouo Mounchingam et Vissého Adjiwanou, Université du Québec à Montréal
En savoir plus
Améliorer la survie des enfants reste un enjeu crucial en Afrique subsaharienne, en particulier au Cameroun. L'intégration de l'intelligence artificielle, en particulier des modèles d'apprentissage automatique, a permis d'améliorer l'identification précoce des facteurs de risque modifiables et les prédictions liées à la mortalité infantile. Cette étude propose une approche de construction de profils de risque de mortalité des enfants de moins de cinq ans en exploitant les sorties des modèles d'apprentissage automatique. À partir des données des deux dernières enquêtes démographiques et de santé (EDS) réalisées au Cameroun en 2011 et 2018, cinq modèles d'apprentissage automatique sont mis en œuvre : la régression logistique, l'analyse discriminante linéaire (LDA), les machines à vecteurs de support (SVM), les k-plus proches voisins (KNN) et les forêts aléatoires (RF). Sur la base des métriques de sensibilité et du F1-score, le modèle d'analyse discriminante est sélectionné comme le meilleur modèle, avec une sensibilité de 88,30 % et un F1-score de 78,87 % sur l'échantillon de test. En exploitant les sorties de ce modèle, trois profils de risques sont identifiés : le profil de risque le plus élevé avec une probabilité postérieure de décès estimée à 21,0 %, le profil de risque moyen avec une probabilité estimée à 6,3 %, et le profil de risque le plus faible avec une probabilité estimée à 2,6 %.
Salle A3541
L’évaluation de l’empathie grâce à un nouvel outil dynamique et écologique
Dorothée Morand-Grondin, Université de Montréal, Floris van Vugt, Université de Montréal, et Simon Rigoulot, Université du Québec à Trois-Rivières
En savoir plus
L’empathie – la capacité à percevoir et à être sensible aux états émotionnels des autres – est essentielle aux interactions sociales réussies. Cependant, les outils de mesure de l’empathie reposent largement sur des questionnaires auto-rapportés, sujets à des biais sociaux. Bien que certaines tâches comportementales offrent une objectivité accrue, elles utilisent souvent des stimuli statiques et simplistes ne capturant pas la nature dynamique et réciproque de l’empathie en contexte réel. Cette étude vise à développer et valider une nouvelle mesure de l’empathie basée sur des vidéos dynamiques et socialement contextualisées, intégrant à la fois des marqueurs comportementaux et physiologiques liés à l’empathie. Premièrement, des participants ont été placés en dyades (« cibles »; n = 14) et filmés en décrivant des événements émotionnels autobiographiques, alors que leurs signaux cardiaques (ECG) étaient enregistrés en continu. Ces cibles ont ensuite visionné leurs propres vidéos (1 min 56 s ± 14 s par vidéo) et évalué leur valence émotionnelle (positif/négatif) au moment de l’enregistrement sur une échelle continue au cours du temps ainsi que leur état émotionnel global à l’aide de catégories d’émotions issues d’échelles validées. Deuxièmement, de nouveaux participants (« observateurs »; n = 28) ont visionné une présélection d’extraits vidéo et évalué de la même manière les états émotionnels des cibles avec enregistrement de leurs signaux cardiaques. L’empathie a été mesurée par la correspondance des évaluations et la synchronie physiologique via la variabilité de la fréquence cardiaque entre les cibles et les observateurs. Les prochaines étapes consistent à affiner la sélection des vidéos pour créer une banque de vidéos accessible à la communauté scientifique. Les extraits seront choisis sur la base de l’interprétabilité émotionnelle des cibles et la variabilité des scores interindividuels, tant sur le plan comportemental que physiologique. Ce nouvel outil vise à offrir une mesure plus objective et écologiquement valide de l’empathie pour les populations francophones.
-
16 h
Conférences
Salle B1007
Les méthodes quantitatives en sciences humaines : de leur émergence aux défis de demain
Talagbe Gabin Akpo, Institut national de la recherche scientifique, et Judicaël Alladatin, Université de Montréal
En savoir plus
Les méthodes quantitatives occupent une place centrale dans les sciences humaines, offrant des outils essentiels pour l’analyse objective et rigoureuse des phénomènes sociaux. Elles permettent la généralisation des résultats, la comparaison entre groupes et la prédiction des tendances, tout en assurant la fiabilité et la reproductibilité des études. Historiquement, elles ont été fortement influencées par la statistique et les sciences naturelles, avec des figures comme Adolphe Quételet, pionnier de la statistique sociale et de la modélisation probabiliste appliquée aux sciences humaines. Avec le temps, ces méthodes se sont sophistiquées, intégrant des outils comme les statistiques inférentielles, l’analyse multivariée et la modélisation par équations structurelles, Bollen et al. (2022). L’essor du big data et de l’intelligence artificielle a marqué une nouvelle étape, renforçant la capacité des chercheurs à analyser des ensembles massifs de données et à modéliser des phénomènes complexes en sciences sociales, Lazer et al. (2020). Ces avancées méthodologiques permettent d’évaluer les politiques publiques et les transformations sociétales avec une granularité inédite. Cependant, elles posent aussi des défis éthiques et épistémologiques, notamment en ce qui concerne la qualité des données, la représentativité des échantillons et la réduction des biais algorithmiques, Edelmann et al. (2020). À l’avenir, l’intégration croissante des méthodes quantitatives aux approches qualitatives favorisera les méthodologies mixtes, qui permettent d’articuler mesure statistique et compréhension contextuelle, Creswell and Plano Clark (2022). Cette évolution soulève des questions essentielles sur la rigueur scientifique, l’interprétation des données et l’influence croissante des algorithmes dans la production des savoirs. Cet article retrace l’histoire des méthodes quantitatives en sciences humaines, explore leurs avancées récentes et analyse les défis contemporains auxquels elles font face, en s’appuyant sur des exemples concrets et des développements récents en statistique sociale et en science des données.
Salle A3541
Estimer sans stigmatiser : leçons apprises d’une analyse d’estimations de prévalence concernant les femmes vivant avec une mutilation génitale féminine (MGF/E) dans les sociétés d’immigration
Bilkis Vissandjée et Romy Labranche, Université de Montréal
En savoir plus
La collecte, l'analyse, l'interprétation et la diffusion de données sensibles, comme les estimations de prévalence des femmes vivant avec une MGF/E dans les pays d’accueil de l’immigration, comportent des risques de généralisation, de stéréotypisation et de stigmatisation. Bien que ces rapports visent à informer les politiques publiques et à renforcer la qualité des soins et du soutien aux femmes concernées, leur production et leur diffusion soulèvent des enjeux méthodologiques, éthiques et sociaux. Le but de cette présentation est de discuter des défis associés à la terminologie employée dans ces rapports.
Une analyse de 38 rapports a permis d’extraire plusieurs thématiques. L’étude s’est concentrée sur la terminologie référant à la pratique, aux femmes ainsi qu’aux pays d’origine, sur les processus d’analyse des données méthodologiques et statistiques, sur les enjeux liés à la crédibilité, la fiabilité et la validité des données, ainsi que sur la nature des collaborations et approches adoptées. Une attention particulière a été portée aux stratégies visant à prévenir le risque de généralisation, de stéréotypisation et de stigmatisation, notamment par l’analyse des narratifs.
La majorité des méthodes d’estimation recensées reposent sur des approches indirectes, en croisant les données de recensement des pays d’accueil avec des estimations de prévalence issues de programmes d’enquêtes internationaux (EDS et MICS). L’analyse révèle des incohérences dans les catégories terminologiques utilisées, soulevant des questions quant à l’impact de ces choix sur la perception et l’interprétation des données.
Cette présentation invite à une réflexion collective sur les méthodes de collecte de données, les enjeux éthiques et l’utilité des estimations d’une pratique qualifiée de violence sexuelle et de violation des droits humains. Elle souligne la nécessité d’une terminologie inclusive et d’une prise en compte des dynamiques transnationales, ainsi que l’importance d’intégrer des cadres méthodologiques offrant une approche sensible aux traumatismes et à prévenir le risque de retraumatisation.
-
16 h 30
Fin de la journée
Mot de clôture
Inscription
La période d'inscription est terminée.
Lieu
Campus MIL de l'Université de Montréal
1375, av. Thérèse-Lavoie-Roux
Montréal (Québec) H2V 0B3
Offert par
Créée en 1972 pour rendre le savoir accessible, la TÉLUQ est la seule université francophone en Amérique du Nord à offrir tous ses programmes à distance. Chaque année, près de 20 000 personnes choisissent la flexibilité de l'Université TÉLUQ pour y faire leurs études universitaires, du 1er au 3e cycle.
Archives
-
MQSH 2024 (Université TÉLUQ)
Responsable : Pier-Olivier Caron -
MQSH 2023 (Université TÉLUQ)
Responsable : Pier-Olivier Caron -
MQSH 2020 (Université Laval, annulé)
Responsables : Eric Frenette, Yves Lacouture, Célia Matte-Gagné et François Vachon -
MQSH 2018 (Université de Sherbrooke)
Responsables : Sabruna Dorceus, Yann Le Corff et Éric Yergeau -
MQSH 2017 (Université du Québec à Trois-Rivières)
Responsables : Stéphanie Girard, Louis Laurencelle et Pierre-Luc Yao -
MQSH 2016 (Université du Québec à Montréal)
Responsables : Christophe Chénier, Gilles Raîche et Nadine Talbot -
MQSH 2015 (Université de Montréal)
Responsables : Sébastien Béland, Dan Thanh Duong Thi, Nathalie Loye et Maxim Morin -
MQSH 2014 (Université d'Ottawa)
Responsables : Denis Cousineau et Bradley Harding -
MQSH 2013 (Université du Québec à Rimouski)
Responsables : Martin Gendron, Léon Harvey et Marie-Hélène Hébert -
MQSH 2012 (Université Laval)
Responsables : Serge Sévigny et François Vachon -
MQSH 2011 (Université du Québec à Montréal)
Responsables : Dominic Beaulieu-Prévost, Sébastien Béland et Gilles Raîche -
MQSH 2010 (Université de Montréal)
Responsables : Denis Cousineau, Nathalie Loye -
MQSH 2009 (Université du Québec à Trois-Rivières)
Responsables : Marlène Cardin, Denis Cousineau et Louis Laurencelle