Rapport technique sur la rétroaction dans les sondages sur la qualité de l’évaluation par les pairs

Prairie Research Associates (PRA)

25 novembre 2016

Table des matières

1.0 Aperçu

Les Instituts de recherche en santé du Canada (IRSC) ont embauché la firme PRA inc. pour qu’elle réalise une analyse indépendante des réponses aux sondages menés auprès des intervenants du concours de subventions Projet du printemps 2016 des IRSC (c.-à-d. les candidats à une subvention, les pairs évaluateurs et les présidents virtuels). Les sondages visaient à recueillir l’avis des intervenants sur la qualité de l’évaluation par les pairs durant ce concours et sur la pertinence des indicateurs proposés pour la mesurer. Les conclusions de l’analyse des données contribueront à éclairer les futures pratiques d’assurance de la qualité des évaluations par les pairs aux IRSC.

1.1 Méthodologie

Les IRSC ont créé un sondage pour chacun des groupes d’intervenants. Les quatre sondages ont été intégrés à une plateforme en ligne (FluidSurveys) en français et en anglais, puis transmis par courriel aux intervenants du concours de subventions Projet du printemps 2016. Les candidats ayant présenté plus d’une demande ne pouvaient répondre au sondage qu’une seule fois.

Les intervenants qui n’avaient pas terminé le sondage ont reçu des courriels de rappel environ une et deux semaines après le courriel initial. Les dates pour chacun des quatre groupes d’intervenants figurent dans le tableau qui suit.

Tableau 1 : Dates de sondage
  Candidats Évaluateurs à l’étape d’évaluation finale Évaluateurs à l’étape 1 Présidents virtuels
Courriel initial 4 août 2016 20 juillet 2016 7 juillet 2016 7 juillet 2016
Date limite 29 août 2016 15 août 2016 1er août 2016 1er août 2016

1.2 Caractérisation des réponses de sondage

Les IRSC ont remis à PRA un ensemble de données portant sur chacun des quatre sondages. La firme a analysé les réponses afin de déterminer quels dossiers seraient retenus dans l’analyse. D’après son évaluation, PRA a recensé quatre types de réponses :

  • Complet – Ces réponses étaient indiquées comme complètes dans l’ensemble de données; les répondants ont répondu à toutes les questions obligatoires et ont cliqué sur le bouton « Envoyer » pour soumettre le sondage.
  • Partiellement complet – Les répondants ont répondu à toutes les questions, mais ils ont sauté des questions ouvertes qui semblaient facultatives.
  • Faux incomplet – Les répondants semblent avoir répondu à toutes les questions, mais n’ont pas cliqué sur le bouton « Envoyer » à la fin du sondage.
  • Incomplet – Nombreuses questions manquantes ou laissées sans réponse.

La répartition des réponses par types est présentée ci-dessous. Après consultation auprès des IRSC, PRA a décidé d’inclure les réponses de tous les groupes, à l’exception de celles indiquées comme incomplètes.

Tableau 2 : Résultats de sondage analysés par groupes d’intervenants
  Candidats Évaluateurs à l’étape d’évaluation finale Évaluateurs à l’étape 1 Présidents virtuels
Complet 1 044 11 689 64
Partiellement complet 26 1 28 3
Faux incomplet 7 2 7 2
Nombre de réponses 1 077 14 724 71
Incomplet 176 1 210 2

1.2.1 Taux de réponse

Les taux de réponse sont présentés dans le tableau ci-dessous. Ces taux varient de 36 % chez les candidats à 61 % chez les présidents virtuels.

Tableau 3 : Taux de réponse par groupes d’intervenants
  Candidats Évaluateurs à l’étape d’évaluation finale Évaluateurs à l’étape 1 Présidents virtuels
Taille de l’échantillon 3 037 29 1 664 116
Nombre de réponses 1 077 14 724 71
Taux de réponse 35,5 % 48,3 % 43,5 % 61,2 %

1.3 Fréquences de réponse

Dans le présent rapport, les réponses « sans objet » ont été exclues des calculs. Les fréquences de toutes les questions figurent aux annexes A à D.

1.4 Évaluation de la signification statistique

PRA a produit des tableaux croisés concernant les évaluateurs et les candidats à l’étape 1; plusieurs variables démographiques sont présentées ci-dessous pour les questions à réponse simple. Pour les questions comportant une échelle de sept points, la firme a utilisé la version courte (deux cotes supérieures, trois cotes médianes, deux cotes inférieures). Les variables suivantes ont été évaluées :

  • Candidats – Sexe (homme ou femme), stade de carrière (chercheur en début de carrière, en milieu de carrière ou chevronné), thème (recherche biomédicale, recherche clinique, recherche sur les services et les systèmes de santé et recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations) et demande financée (oui ou non).
  • Évaluateurs à l’étape 1 – Sexe (homme ou femme), stade de carrière (chercheur en début de carrière, en milieu de carrière ou chevronné; les catégories « Utilisateurs des connaissances » et « Autre » ont été écartées en raison de la taille inadéquate de l’échantillon) et thème (recherche biomédicale, recherche clinique, recherche sur les services et les systèmes de santé et recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations).

PRA n’a effectué aucune analyse par sous-groupes pour les présidents virtuels et les évaluateurs à l’étape d’évaluation finale, compte tenu de la petite taille des échantillons de chaque groupe.

Toutes les différences concernant les tableaux croisés abordés dans le présent rapport avaient une valeur p inférieure à 0,05.

2.0 Profil des répondants

Le tableau ci-dessous présente le profil des répondants à chacun des quatre sondages : répartition par sexes, par stades de carrière, par postes et par thèmes (et financement ou non des demandes des candidats). L’information ci-dessous a été fournie par les répondants, à l’exception du sexe, qui a été fourni par les IRSC.

Tableau 4 : Profil des répondants
À laquelle des catégories suivantes diriez-vous appartenir?
Lequel ou lesquels des postes suivants occupez-vous actuellement?
Quel est votre principal domaine de recherche (thème)?
Avez-vous reçu des fonds dans le cadre du premier concours pilote du volet Projet 2016?
  Candidats
(n = 1 077)
Évaluateurs à l’étape 1
(n = 724)
Présidents virtuels à l’étape 1
(n = 69)
Évaluateurs à l’étape d’évaluation finale
(n = 14)
Sexe
Femme 37 % 44 % 32 % 36 %
Homme 63 % 56 % 68 % 64 %
Stade de carrière
Chercheur en début de carrière (≤ 5 ans) 25 % 10 % - -
Chercheur en milieu de carrière (5‑15 ans) 42 % 41 % 23 % 29 %
Chercheur chevronné (> 15 ans) 33 % 43 % 71 % 64 %
Utilisateur des connaissances s. o. 4 % 4 % 7 %
Autre - 3 % 1 % -
PosteTable 4 note *
Professeur 41 % 45 % 67 % 57 %
Professeur agrégé 32 % 33 % 23 % 21 %
Professeur adjoint 25 % 15 % 1 % -
Chercheur 12 % 18 % 28 % 14 %
Clinicien 8 % 13 % 13 % 7 %
Scientifique 7 % 4 % 6 % -
Scientifique chevronné 6 % 7 % 20 % 14 %
Administrateur de la recherche 1 % 4 % 13 % 7 %
Professeur émérite 1 % < 1 % 3 % 7 %
Doyen à la recherche < 1 % 1 % 6 % -
Directeur de département - 1 % - -
Autre 1 % 4 % 1 % -
Thème
Recherche biomédicale 68 % 47 % 65 % 64 %
Recherche clinique 14 % 26 % 15 % 14 %
Recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations 10 % 13 % 17 % 14 %
Recherche sur les services et les systèmes de santé 8 % 11 % 3 % 7 %
Sans objet 1 % 2 % - -
Demande financée
Oui 23 % s. o. s. o. s. o.
Non 77 % s. o. s. o. s. o.

Note : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

3.0 Candidats (n = 1 077)

La présente section traite des réponses des candidats.

3.1 Cohérence entre les évaluations et les cotes

La majorité des candidats (55 %) étaient en désaccord ou entièrement en désaccord avec l’affirmation selon laquelle les évaluations écrites qu’ils ont reçues à l’étape 1 concordaient avec les cotes attribuées (O++, O+, O, E++, E+, E, G, F, P), alors que 20 % des candidats se disaient d’accord ou entièrement d’accord.

Les résultats indiquent aussi que les chercheurs financés étaient beaucoup plus susceptibles d’être d’accord ou entièrement d’accord (55 %) que les autres (10 %).

Figure 1 : Accord avec la cohérence des évaluations de l’étape 1 (n = 1 072)

Les évaluations de l’étape 1 que j’ai reçues sont cohérentes puisque les justifications écrites (forces et faiblesses) concordent avec les cotes respectives (O++, O+, O, E++, E+, E, G, F, P)

Description détaillée
D’accord/entièrement d’accord Plutôt en désaccord/neutre/plutôt d’accord En désaccord/entièrement en désaccord
Tous les candidats 20 % 25 % 55 %
Candidats financés 55 % 28 % 17 %
Candidats non financés 10 % 24 % 66 %

Différences importantes. Il y avait quelques différences statistiquement significatives entre les groupes et entre leurs réponses à la question précédente.

  • Stade de carrière – Les chercheurs en début de carrière étaient statistiquement moins susceptibles d’être en désaccord ou entièrement en désaccord (46 %) avec l’énoncé que les chercheurs en milieu de carrière (57 %) et les chercheurs chevronnés (58 %).
  • Thème – Les chercheurs du domaine de la recherche biomédicale (59 %) étaient plus susceptibles d’être en désaccord ou entièrement en désaccord que ceux des domaines de la recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations (49 %), de la recherche clinique (43 %) et de la recherche sur les services et les systèmes de santé (42 %).

3.1.1 Commentaires facultatifs sur la cohérence des cotes

Lorsqu’on leur a demandé de commenter la cohérence des évaluations reçues, les répondants se sont surtout dits préoccupés par la variation entre évaluateurs, suivie de l’incohérence entre les commentaires écrits et les cotes attribuées. Plus précisément, près d’un répondant sur cinq a fait état d’un écart trop important entre les évaluateurs (18 %), et un peu plus d’un répondant sur dix a mentionné que les commentaires ne concordaient pas avec les cotes (12 %). Certains candidats craignaient aussi que les évaluateurs manquent d’expertise ou de connaissances dans le domaine (8 %).

3.2 Utilisation des évaluations dans des demandes futures

Plus de la moitié (53 %) des répondants étaient en désaccord ou entièrement en désaccord pour dire que les évaluations de l’étape 1 reçues contiennent des renseignements utiles qui les aideront à améliorer leur demande pour un concours futur. Moins d’un candidat sur cinq (17 %) était d’accord ou entièrement d’accord avec cet énoncé. Les chercheurs financés étaient environ deux fois plus susceptibles d’être d’accord ou entièrement d’accord (30 %) que les autres (14 %).

Figure 2 : Accord avec l’utilité des évaluations de l’étape 1 pour améliorer les demandes à des concours futurs (n = 1 006)

Les évaluations de l’étape 1 (les cotes et les forces/faiblesses) que j’ai reçues contiennent des renseignements utiles qui m’aideront à affiner ma demande pour un concours futur

Description détaillée
D’accord/entièrement d’accord Plutôt en désaccord/neutre/plutôt d’accord En désaccord/entièrement en désaccord
Tous les candidats 17 % 30 % 53 %
Candidats financés 30 % 37 % 34 %
Candidats non financés 14 % 29 % 57 %

Différences importantes. Il y avait quelques différences statistiquement significatives entre les groupes et entre leurs réponses à la question précédente.

  • Stade de carrière – Les résultats indiquent que les chercheurs en début de carrière étaient environ deux fois plus susceptibles d’être d’accord ou entièrement d’accord (26 %) que les chercheurs en milieu de carrière (13 %) et les chercheurs chevronnés (14 %).
  • Thème – De plus, ceux du domaine de la recherche biomédicale (58 %) étaient beaucoup plus susceptibles d’être en désaccord ou entièrement en désaccord que ceux des domaines de la recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations (47 %), de la recherche clinique (42 %) et de la recherche sur les services et les systèmes de santé (39 %).

3.2.1 Commentaires facultatifs sur l’utilisation des évaluations dans des demandes futures

Lorsqu’on leur a demandé de commenter l’utilisation des évaluations reçues en vue d’améliorer des demandes futures, les répondants ont le plus souvent indiqué que les commentaires n’étaient pas pertinents ou étaient peu utiles (14 %) ou que la majorité des commentaires n’étaient pas suffisamment détaillés pour permettre l’amélioration de demandes futures (10 %). La plupart des commentaires formulés par les candidats étaient négatifs : seulement 6 % d’entre eux n’ont formulé aucun commentaire négatif ou ont fait état d’améliorations possibles pour des demandes futures.

3.3 Proportion d’évaluations insatisfaisantes

Seulement 9 % des candidats ont indiqué qu’aucune de leurs évaluations n’était insatisfaisante. Inversement, 91 % étaient d’avis qu’au moins quelques-unes l’étaient. De ce nombre, 39 % ont indiqué que plus de la moitié des évaluations reçues étaient insatisfaisantes, et 21 %, que la moitié étaient insatisfaisantes.

L’observation des résultats en fonction du financement fait ressortir une différence claire : 26 % des répondants financés estimaient qu’aucune des évaluations n’était insatisfaisante, tandis que seulement 4 % de ceux non financés étaient du même avis.

Figure 3 : Pourcentage d’évaluations insatisfaisantes (n = 1 077)

Selon vous, environ quel pourcentage des évaluations reçues étaient de qualité insatisfaisante?

Description détaillée
0 % 10 % 20 % 30 % 40 % 50 % 60 % 70 % 80 % 90 % 100 % Aucune réponse
Tous les candidats 9 % 5 % 11 % 11 % 5 % 21 % 7 % 11 % 10 % 4 % 7 % <1 %
Candidats financés 26 % 11 % 16 % 11 % 4 % 12 % 4 % 6 % 4 % 2 % 4 % 0 %
Candidats non financés 4 % 3 % 9 % 11 % 5 % 23 % 7 % 12 % 12 % 5 % 8 % <1 %

Différences importantes. Les résultats montrent plusieurs différences entre les groupes et leurs perceptions de la proportion d’évaluations insatisfaisantes. Cependant, les différences selon le stade de carrière et le thème sont très légères (bien qu’il y ait une différence sur le plan statistique) : l’écart entre les groupes est habituellement de seulement trois ou quatre points de pourcentage.

3.3.1 Commentaires facultatifs sur la qualité insatisfaisante des évaluations

Lorsqu’on a leur demandé de commenter les évaluations dont la qualité était, à leur avis, insatisfaisante, seulement 36 % des candidats l’ont fait. Les problèmes les plus fréquemment mentionnés : les réponses des évaluateurs n’étaient suffisamment détaillées pour permettre de comprendre les faiblesses ou d’apporter des améliorations (10 %) ou les évaluations insatisfaisantes provenaient d’évaluateurs qui n’étaient ni qualifiés ni compétents dans le domaine de recherche (9 %). Dans le même ordre d’idées, certains se sont demandé si l’évaluateur avait lu et compris la demande (6 %).

3.4 Importance des critères proposés pour mesurer la qualité d’une évaluation

On a remis aux candidats une liste de critères et on leur a demandé d’indiquer dans quelle mesure ils étaient d’accord avec l’importance de chacun pour déterminer la qualité des évaluations. Les critères avec lesquels ils étaient le plus souvent d’accord ou entièrement d’accord étaient les suivants : description suffisamment détaillée des forces et des faiblesses (78 %), observations claires (76 %), aucune erreur factuelle (75 %) et commentaires respectueux (74 %). La majorité des candidats étaient d’accord ou entièrement d’accord pour dire que tous les critères étaient importants.

Figure 4 : Accord avec des énoncés portant sur l’importance de divers aspects pour mesurer la qualité d’une évaluation (n = 1 077)Note en bas de page 1

Veuillez indiquer dans quelle mesure vous convenez que les critères suivants sont importants pour déterminer la qualité des évaluations, de votre point de vue en tant que candidat

Description détaillée
Description suffisamment détaillée des forces et des faiblesses Observations claires Aucune erreur factuelle Commentaires respectueux Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées Aucune divulgation de renseignements personnels sur l’évaluateur Observations centrées sur les critères de sélection
D’accord/entièrement d’accord 78 % 76 % 75 % 74 % 72 % 70 % 64 % 61 %
Plutôt en désaccord/neutre/plutôt d’accord 9 % 13 % 14 % 20 % 21 % 16 % 27 % 23 %
En désaccord/entièrement en désaccord 14 % 11 % 12 % 6 % 7 % 14 % 9 % 16 %

Dans l’ensemble, les répondants financés étaient statistiquement plus susceptibles que les autres d’être d’accord ou entièrement d’accord avec l’importance des huit critères énumérés dans le sondage, comme l’indique la figure suivante.

Figure 5 : Comparaison de l’accord des candidats financés (barre supérieure) et des candidats non financés (barre inférieure) – Importance des critères pour déterminer la qualité des évaluationsNote en bas de page 2

Veuillez indiquer dans quelle mesure vous convenez que les critères suivants sont importants pour déterminer la qualité des évaluations, de votre point de vue en tant que candidat

Description détaillée
Description suffisamment détaillée des forces et des faiblesses Observations claires Aucune erreur factuelle Commentaires respectueux Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées Aucune divulgation de renseignements personnels sur l’évaluateur Observations centrées sur les critères de sélection
D’accord/entièrement d’accord 85 % 82 % 82 % 83 % 80 % 76 % 75 % 68 %
Plutôt en désaccord/neutre/plutôt d’accord 10 % 15 % 14 % 16 % 18 % 20 % 22 % 26 %
En désaccord/entièrement en désaccord 5 % 4 % 5 % 1 % 3 % 5 % 3 % 6 %
Figure 5 : Comparaison de l’accord des candidats financés (barre supérieure) et des candidats non financés (barre inférieure) – Importance des critères pour déterminer la qualité des évaluationsFootnote 2
Description suffisamment détaillée des forces et des faiblesses Observations claires Aucune erreur factuelle Commentaires respectueux Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées Aucune divulgation de renseignements personnels sur l’évaluateur Observations centrées sur les critères de sélection
D’accord/entièrement d’accord 76 % 75 % 73 % 71 % 70 % 69 % 61 % 59 %
Plutôt en désaccord/neutre/plutôt d’accord 8 % 12 % 14 % 22 % 21 % 15 % 29 % 22 %
En désaccord/entièrement en désaccord 16 % 13 % 14 % 8 % 8 % 17 % 11 % 19 %

Différences importantes. Il y avait de nombreuses différences statistiquement significatives entre les groupes et entre leurs réponses à la question précédente.

  • Sexe – Dans l’ensemble, les femmes étaient plus susceptibles que les hommes d’être d’accord ou entièrement d’accord avec l’importance des différents critères. Plus particulièrement, elles étaient statistiquement plus susceptibles d’être d’accord ou entièrement d’accord avec l’importance des critères suivants : description suffisamment détaillée des forces et des faiblesses (femmes : 84 %; hommes : 75 %), observations claires (femmes : 81 %; hommes : 73 %), commentaires respectueux (femmes : 80 %; hommes : 70 %), aucune référence inappropriée (femmes : 80 %; hommes : 68 %), juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées (femmes : 78 %; hommes : 66 %), aucune divulgation de renseignements personnels sur l’évaluateur (femmes : 70 %; hommes : 61 %) et observations centrées sur les critères de sélection (femmes : 69 %; hommes : 56 %).
  • Stade de carrière – Les chercheurs en début de carrière étaient généralement plus susceptibles que les autres d’être d’accord ou entièrement d’accord avec l’importance des différents critères. Les résultats présentés au tableau 5 montrent les différences statistiquement significatives par stades de carrière.
Table 5: Significant differences by career stage and agreement with statements about criteria for preliminary reviews (applicants)
  Début de carrière Milieu de carrière Chercheur chevronné
Description suffisamment détaillée des forces et des faiblesses 84 % 76 % 76 %
Commentaires respectueux 74 % 72 % 75 %
Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche 74 % 70 % 74 %
Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées 74 % 67 % 72 %
Observations centrées sur les critères de sélection 69 % 57 % 59 %
  • Thème – Les chercheurs les plus susceptibles d’être d’accord ou entièrement d’accord avec l’importance des observations centrées sur les critères de sélection étaient ceux du domaine de la recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations (76 %), suivis de ceux du domaine de la recherche sur les services et les systèmes de santé (71 %). C’est beaucoup plus que pour ceux des domaines de la recherche biomédicale (57 %) ou de la recherche clinique (66 %). Les chercheurs du domaine de la recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations (83 %) étaient aussi plus susceptibles d’être d’accord ou entièrement d’accord avec l’importance du critère aucune erreur factuelle que ceux des domaines de la recherche sur les services et les systèmes de santé (77 %), de la recherche clinique (76 %) ou de la recherche biomédicale (72 %).

3.4.1 Commentaires facultatifs sur l’importance des critères pour déterminer la qualité des évaluations

La plupart des candidats (82 %) n’ont formulé aucun commentaire sur l’importance des critères pour déterminer la qualité des évaluations. Ceux qui l’ont fait ont le plus souvent indiqué que les évaluateurs doivent être qualifiés et compétents dans le domaine de recherche (4 %), souligné la nécessité d’une plus grande responsabilisation des évaluateurs (3 %) ou fait état de problèmes quant au processus ou au système de cotation (3 %).

3.4.2 Commentaires facultatifs sur d’autres indicateurs de qualité

On a aussi demandé aux candidats de décrire tout autre indicateur de qualité qu’ils jugent important pour mesurer la qualité des évaluations. La réponse la plus fréquente était de loin le fait que les évaluateurs doivent être qualifiés et compétents dans le domaine de recherche (10 %), suivie par le fait que les commentaires des évaluateurs doivent être détaillés, être exhaustifs et permettre d’améliorer de futures demandes (4 %). Aucun autre indicateur n’a été mentionné par plus de 2 % des candidats.

3.5 Accord avec la pertinence des critères pour les évaluations reçues

Les candidats ont indiqué à quel point ils étaient d’accord avec l’importance de plusieurs aspects du processus d’évaluation. Ils étaient plus susceptibles d’être d’accord ou entièrement d’accord pour dire que leurs évaluations ne comportaient aucune divulgation de renseignements personnels sur l’évaluateur (73 %). En revanche, les candidats étaient moins susceptibles d’être d’accord ou entièrement d’accord pour dire que les évaluations contenaient unjuste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées (17 %) et une description suffisamment détaillée des forces et des faiblesses (20 %). Dans l’ensemble, ils étaient plus susceptibles d’être en désaccord avec cinq des huit énoncés.

Figure 6 : Accord avec la pertinence des énoncés pour les évaluations reçues (n = 1 077)Note en bas de page 3

Please indicate the extent to which the following statements apply to the reviews you received

Description détaillée
Aucune divulgation de renseignements personnels sur l’évaluateur Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Commentaires respectueux Observations claires Aucune erreur factuelle Adjudication criteria-focussed comments Description suffisamment détaillée des forces et des faiblesses Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées
D’accord/entièrement d’accord 73 % 56 % 50 % 23 % 23 % 23 % 20 % 17 %
Plutôt en désaccord/neutre/plutôt d’accord 21 % 27 % 35 % 45 % 35 % 42 % 35 % 37 %
En désaccord/entièrement en désaccord 6 % 16 % 15 % 32 % 42 % 36 % 45 % 46 %

Dans l’ensemble, les chercheurs financés étaient plus susceptibles que ceux non financés d’être d’accord ou entièrement d’accord avec la mesure dans laquelle différentes mesures de la qualité s’appliquaient aux évaluations reçues. Les écarts variaient de 13 à 43 points de pourcentage.

Figure 7 : Comparaison de la mesure dans laquelle les énoncés s’appliquaient aux évaluations reçues – Candidats financés (barre supérieure) et candidats non financés (barre inférieure)Note en bas de page 4

Please indicate the extent to which the following statements apply to the reviews you received

Description détaillée
Financés
Aucune divulgation de renseignements personnels sur l’évaluateur Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Commentaires respectueux Aucune erreur factuelle Observations centrées sur les critères de sélection Observations claires Description suffisamment détaillée des forces et des faiblesses Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées
D’accord/entièrement d’accord 83 % 78 % 77 % 55 % 53 % 53 % 53 % 48 %
Plutôt en désaccord/neutre/plutôt d’accord 15 % 18 % 21 % 31 % 37 % 36 % 34 % 40 %
En désaccord/entièrement en désaccord 2 % 4 % 3 % 14 % 11 % 11 % 14 % 12 %
Non financés
Aucune divulgation de renseignements personnels sur l’évaluateur Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Commentaires respectueux Aucune erreur factuelle Observations centrées sur les critères de sélection Observations claires Description suffisamment détaillée des forces et des faiblesses Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées
D’accord/entièrement d’accord 70 % 50 % 42 % 14 % 14 % 14 % 10 % 7 %
Plutôt en désaccord/neutre/plutôt d’accord 23 % 30 % 39 % 36 % 43 % 48 % 35 % 36 %
En désaccord/entièrement en désaccord 8 % 20 % 19 % 51 % 43 % 38 % 55 % 57 %

Différences importantes. Il y avait de nombreuses différences statistiquement significatives entre les groupes.

  • Sexe – Les femmes étaient plus susceptibles que les hommes d’être d’accord ou entièrement d’accord pour dire que leur évaluation ne comportait aucune référence inappropriée (femmes : 62 %; hommes : 53 %) et aucune divulgation de renseignements personnels sur l’évaluateur (femmes : 79 %; hommes : 69 %).
  • Stade de carrière – Comme l’indique le tableau qui suit, les chercheurs en début de carrière étaient généralement plus susceptibles d’être d’accord ou entièrement d’accord avec la mesure dans laquelle différentes mesures de la qualité s’appliquaient aux évaluations reçues que ceux en milieu de carrière ou les chercheurs chevronnés.
Tableau 6 : Différences significatives par stades de carrière et accord avec des énoncés portant sur les évaluations préliminaires reçues (candidats)
  D’accord/entièrement d’accord
Début de carrière Milieu de carrière Chercheur chevronné
Commentaires respectueux 60 % 46 % 47 %
Aucune erreur factuelle 33 % 18 % 22 %
Observations claires 31 % 19 % 23 %
Description suffisamment détaillée des forces et des faiblesses 29 % 17 % 18 %
Observations centrées sur les critères de sélection 26 % 20 % 23 %
Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées 22 % 15 % 16 %
  • Thème – Pour bon nombre des questions, les candidats du domaine de la recherche biomédicale étaient statistiquement moins susceptibles d’être d’accord ou entièrement d’accord que ceux des trois autres domaines.
Tableau 7 : Différences significatives par domaines et accord avec des énoncés portant sur les évaluations préliminaires reçues (candidats)
  D’accord/entièrement d’accord
Recherche biomédicale Recherche clinique Recherche sur les services et les systèmes de santé Recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations
Aucune divulgation de renseignements personnels sur l’évaluateur 70 % 73 % 89 % 82 %
Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche 52 % 62 % 73 % 65 %
Aucune erreur factuelle 19 % 33 % 30 % 28 %
Observations claires 19 % 30 % 29 % 33 %
Description suffisamment détaillée des forces et des faiblesses 18 % 23 % 20 % 28 %
Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées 14 % 21 % 18 % 25 %

3.5.1 Commentaires facultatifs sur des énoncés concernant les évaluations

Très peu de candidats ont formulé des commentaires sur l’applicabilité des énoncés aux évaluations qu’ils ont reçues, la grande majorité (87 %) ne donnant aucune réponse. Les réponses fournies variaient considérablement. Les plus fréquentes faisaient référence à la compréhension des demandes par les évaluateurs (2 %), à un manque de détails dans les évaluations (2 %), aux écarts entre les évaluations de différents évaluateurs (2 %) et à des problèmes concernant des commentaires inappropriés, erronés ou non objectifs (2 %).

4.0 Évaluateurs à l’étape 1 (n = 724)

La présente section traite des réponses des évaluateurs à l’étape 1.

4.1 Lecture des évaluations préliminaires

4.1.1 Évaluations préliminaires lues

Au total, 90 % des évaluateurs à l’étape 1 ont indiqué avoir lu les évaluations préliminaires des pairs à qui les mêmes demandes avaient été assignées.

Différence importante. Les évaluateurs du domaine de la recherche biomédicale (94 %) étaient statistiquement plus susceptibles de dire qu’ils avaient lu les évaluations que ceux des domaines de la recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations (88 %), de la recherche clinique (86 %) et de la recherche sur les services et les systèmes de santé (81 %).

4.1.2 Commentaires facultatifs – Raisons invoquées par les évaluateurs à l’étape 1 pour avoir lu les évaluations préliminaires

Les répondants qui avaient lu les évaluations ont dit l’avoir principalement fait pour deux raisons : pour comparer les cotes en vue d’évaluer ou d’ajuster les leurs (44 %) ou pour comprendre le point de vue d’autres évaluateurs ou se préparer à la discussion (36 %).

Les évaluateurs ont aussi mentionné avoir lu les évaluations pour vérifier des aspects importants qui pourraient leur avoir échappé durant l’évaluation (22 %), pour repérer des écarts (15 %) ou pour obtenir des renseignements d’évaluateurs d’autres disciplines ou en dehors de leur domaine d’expertise (13 %).

4.1.3 Commentaires facultatifs – Raisons invoquées par les évaluateurs à l’étape 1 pour ne pas avoir lu les évaluations préliminaires

Les 9 % restants n’ont pas lu les autres évaluations (1 % n’a pas répondu à cette question). La plupart des raisons invoquées ne concernaient pas les évaluations en tant que telles, mais plutôt les évaluateurs eux-mêmes : ils ont manqué de temps (27 %), ils ont eu de la difficulté à accéder aux évaluations en ligne (12 %) ou ils ne savaient pas comment y accéder (8 %). La seule raison fréquemment mentionnée touchant le processus d’évaluation même était la suivante : certains évaluateurs voulaient éviter l’introduction de tout biais dans leur évaluation (15 %).

4.2 Évaluations insatisfaisantes

Au total, 63 % des évaluateurs à l’étape 1 qui avaient lu les évaluations préliminaires ont dit que la qualité d’au moins quelques-unes d’entre elles était insatisfaisante, et 12 % ont même indiqué qu’au moins la moitié des évaluations étaient insatisfaisantes. Le groupe le plus important est formé des évaluateurs qui ont dit qu’entre 10 % et 30 % des évaluations étaient insatisfaisantes, ce qui représente 46 % des évaluateurs qui avaient lu les évaluations préliminaires.

Figure 8 : Pourcentage d’évaluations préliminaires insatisfaisantes (n = 658)Note en bas de page 5

Environ quel pourcentage des évaluations préliminaires étaient de qualité insatisfaisante, d’après vous?

Long description
0 % 10 % 20 % 30 % 40 % 50 % 60 % 70 % 80 % 90 % 100 % Aucune réponse
36 % 14 % 17 % 15 % 5 % 7 % 1 % 2 % 1 % 1 % <1 % 1 %

Différences importantes. Les évaluateurs du domaine de la recherche biomédicale (71 %) étaient beaucoup plus susceptibles que ceux des domaines de la recherche clinique (49 %), de la recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations (46 %) et de la recherche sur les services et les systèmes de santé (38 %) à dire avoir remarqué des évaluations insatisfaisantes.

4.2.1 Commentaires facultatifs sur des évaluations insatisfaisantes

Lorsqu’on a demandé aux évaluateurs à l’étape 1 de commenter le pourcentage d’évaluations préliminaires insatisfaisantes, seulement 39 % l’ont fait. Dans les commentaires reçus, bon nombre de problèmes ont été abordés, la plupart concernant les évaluations mêmes, par exemple : les réponses des évaluateurs n’étaient pas suffisamment détaillées (16 %), les évaluateurs n’ont pas soumis les évaluations ou l’ont fait en retard (12 %) ou les évaluateurs n’avaient pas fourni de commentaires ni de justifications à l’appui de leurs cotes (11 %).

Certains évaluateurs à l’étape 1 ont aussi formulé des commentaires au sujet de leurs pairs, indiquant que les évaluateurs n’étaient pas suffisamment qualifiés ou manquaient d’expérience pour évaluer des demandes (8 %), que les évaluateurs manquaient d’expertise ou de connaissances dans le domaine (6 %) ou que les évaluateurs n’étaient pas objectifs ou étaient en situation de conflit d’intérêts avec les demandes qu’ils évaluaient (6 %).

4.3 Aspects importants de l’évaluation préliminaire

Aux yeux de la grande majorité des évaluateurs à l’étape 1, les huit aspects servant à mesurer la qualité des évaluations étaient importants, notamment observations claires (94 % d’accord ou entièrement d’accord), commentaires respectueux (92 %) et description suffisamment détaillée des forces et des faiblesses (91 %). Même pour l’aspect ayant obtenu le degré d’accord le plus faible (observations centrées sur les critères de sélection), plus de trois répondants sur quatre (76 %) ont indiqué être d’accord ou entièrement d’accord.

Figure 9: Figure 9 : Opinion concernant l’importance des aspects de l’évaluation préliminaire (n = 724)Note en bas de page 6

Dans quelle mesure jugez-vous importants les énoncés suivants pour mesurer la qualité d’une évaluation?

Long description
Observations claires Commentaires respectueux Description suffisamment détaillée des forces et des faiblesses Aucune erreur factuelle Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Aucune divulgation de renseignements personnels sur l’évaluateur Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées Observations centrées sur les critères de sélection
D’accord/entièrement d’accord 94 % 92 % 91 % 90 % 90 % 86 % 79 % 76 %
Plutôt en désaccord/neutre/plutôt d’accord 6 % 7 % 8 % 9 % 9 % 13 % 18 % 21 %
En désaccord/entièrement en désaccord 0 % 1 % 1 % 1 % 1 % 1 % 3 % 4 %

Différences importantes. Il y avait de nombreuses différences statistiquement significatives entre les groupes.

  • Sexe – Plusieurs différences ont été constatées. Les femmes étaient plus susceptibles que les hommes d’être d’accord ou entièrement d’accord pour dire que chacun des aspects suivants est important : observations claires (femmes : 97 %; hommes : 91 %), commentaires respectueux (femmes : 96 %; hommes : 90 %) et aucune erreur factuelle (femmes : 95 %; hommes : 87 %).
  • Stade de carrière – Les chercheurs en début de carrière (89 %) étaient plus susceptibles que ceux en milieu de carrière (76 %) ou les chercheurs chevronnés (77 %) d’être d’accord ou entièrement d’accord avec l’importance du critère juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées.
  • Thème – En ce qui concerne les observations centrées sur les critères de sélection, les chercheurs des domaines de la recherche sur les services et les systèmes de santé (85 %), de la recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations (81 %) et de la recherche clinique (80 %) étaient plus susceptibles d’être d’accord ou entièrement d’accord que ceux du domaine de la recherche biomédicale (70 %).

4.3.1 Commentaires facultatifs sur les énoncés portant sur la mesure de la qualité des évaluations

Lorsqu’on a demandé aux évaluateurs à l’étape 1 de commenter les énoncés concernant la qualité des évaluations, très peu d’entre eux (11 %) l’ont fait. En fait, aucun thème unique n’a été mentionné par plus de 2 % des répondants. Dans de nombreux cas, les commentaires portaient sur des problèmes liés aux questions (tous les aspects sont importants, la formulation des questions manque de clarté, etc.) plutôt que sur la mesure de la qualité des évaluations en général.

4.4 Perceptions des évaluations préliminaires

Lorsqu’on a demandé aux évaluateurs à l’étape 1 dans quelle mesure huit énoncés étaient représentatifs des évaluations préliminaires, la plupart d’entre eux ne se sont pas montrés trop négatifs au sujet des évaluations. Bon nombre d’entre eux semblaient plutôt trouver problématique le fait que la majorité des évaluateurs attribuaient des cotes du milieu de l’échelle de cotation (p. ex. 49 % des évaluateurs à l’étape 1 ont répondu « d’accord », « plutôt en désaccord » ou « neutre » quant à la pertinence de l’énoncé juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées pour les évaluations préliminaires réalisées).

Dans l’ensemble, les évaluateurs à l’étape 1 étaient particulièrement susceptibles d’être d’accord ou entièrement d’accord pour dire que les aspects aucune divulgation de renseignements personnels sur l’évaluateur (85 %), aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche (79 %) et commentaires respectueux (76 %) s’appliquaient aux évaluations réalisées.

Figure 10 : Accord avec la pertinence d’énoncés pour les évaluations préliminaires (n = 724)Note en bas de page 7

Veuillez préciser dans quelle mesure les énoncés suivants s’appliquent aux évaluations préliminaires que vous avez lues

Long description
Aucune divulgation de renseignements personnels sur l’évaluateur Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Commentaires respectueux Aucune erreur factuelle Observations claires Description suffisamment détaillée des forces et des faiblesses Observations centrées sur les critères de sélection Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées
D’accord/entièrement d’accord 84 % 79 % 76 % 52 % 48 % 47 % 44 % 40 %
Plutôt en désaccord/neutre/plutôt d’accord 13 % 20 % 23 % 41 % 45 % 43 % 46 % 49 %
En désaccord/entièrement en désaccord 2 % <1 % 1 % 7 % 8 % 10 % 10 % 11 %

Différences importantes. Il y avait de nombreuses différences importantes par thèmes, et quelques-unes par stades de carrière.

  • Stade de carrière – Les chercheurs chevronnés (74 %) étaient moins susceptibles que ceux en milieu de carrière (85 %) ou en début de carrière (81 %) d’être d’accord ou entièrement d’accord pour dire que les évaluations ne comportaient aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche.
  • Thème – Comme l’indique le tableau ci-dessous, pour cinq questions, les répondants du domaine de la recherche biomédicale étaient beaucoup moins susceptibles d’être d’accord ou entièrement d’accord que ceux des trois autres domaines.
Tableau 8 : Différences significatives par thèmes et accord avec des énoncés concernant les évaluations préliminaires (évaluateurs à l’étape 1)
  D’accord/entièrement d’accord
Recherche biomédicale Recherche clinique Recherche sur les services et les systèmes de santé Recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations
Description suffisamment détaillée des forces et des faiblesses 38 % 56 % 56 % 54 %
Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées 31 % 51 % 44 % 45 %
Observations centrées sur les critères de sélection 36 % 56 % 46 % 47 %
Aucune erreur factuelle 43 % 65 % 58 % 50 %
Observations claires 41 % 53 % 52 % 57 %

N.B. : Les réponses « sans objet » ont été exclues des calculs.

4.4.1 Commentaires facultatifs sur les énoncés portant sur les évaluations préliminaires

Lorsqu’on a demandé aux évaluateurs à l’étape 1 de commenter les énoncés concernant les évaluations préliminaires, seulement 21 % l’ont fait. Les résultats montrent qu’aucun aspect n’a été soulevé par la majorité des évaluateurs; ce sont plutôt de nombreux aspects qui ont été mentionnés. Un seul a été mentionné par plus de 4 % des évaluateurs à l’étape 1 : il était difficile de répondre à la série précédente de questions (figure 10) en raison de la qualité variable des évaluations préliminaires (5 %).

4.5 Commentaires facultatifs sur la qualité des évaluations

Pour conclure le sondage, on a demandé aux évaluateurs à l’étape 1 de faire part de tout autre indicateur de la qualité qu’ils jugeaient important pour définir la qualité d’une évaluation. Comme ce fut le cas avec d’autres questions ouvertes à la fin du sondage, la majorité (86 %) des évaluateurs n’ont pas répondu. Les évaluateurs ont souvent formulé des commentaires sur leurs pairs (par opposition aux évaluations), indiquant que ceux-ci devraient être qualifiés et compétents dans le domaine de recherche (3 %) ou qu’ils devraient terminer leurs évaluations et respecter les échéances (1 %).

5.0 Présidents virtuels (n = 69)

La présente section traite des réponses des présidents virtuels.

5.1 Évaluations préliminaires lues

Presque tous (97 %) les présidents virtuels ont dit avoir lu les évaluations préliminaires préparées par leurs évaluateurs.

5.2 Évaluations insatisfaisantes

Au total, 93 % des présidents virtuels qui avaient lu les évaluations préliminaires ont dit qu’au moins quelques-unes de celles-ci étaient insatisfaisantes. En fait, 39 % d’entre eux ont indiqué qu’au moins la moitié des évaluations préliminaires qu’ils avaient lues étaient insatisfaisantes.

Figure 11 : Pourcentage d’évaluations préliminaires insatisfaisantes (n = 67)Note en bas de page 8

Environ quel pourcentage des évaluations préliminaires étaient de qualité insatisfaisante, d’après vous?

Long description
0 % 10 % 20 % 30 % 40 % 50 % 60 % 70 % 80 %
7 % 15 % 15 % 18 % 6 % 15 % 10 % 7 % 6 %

5.2.1 Commentaires facultatifs sur les évaluations insatisfaisantes

Lorsqu’on a demandé aux présidents virtuels de commenter la proportion d’évaluations insatisfaisantes, 75 % l’ont fait. La critique formulée le plus souvent à ce sujet – et de loin – était que les évaluateurs n’ont pas fourni de réponses assez détaillées pour étayer leurs cotes (51 %). Sinon, seuls quelques autres commentaires ont été émis par plus de 10 % des présidents virtuels, à savoir les retards dans la réception des évaluations (17 %) et l’impression que les évaluations de piètre qualité provenaient d’évaluateurs inexpérimentés ou non compétents (15 %) et les cotes attribuées ne concordaient pas avec les commentaires formulés (13 %).

5.3 Importance des critères pour mesurer la qualité des évaluations

Lorsqu’on a demandé aux présidents virtuels d’évaluer l’importance des mêmes huit facteurs en ce qui concerne la qualité des évaluations, ils ont semblé les juger tous importants (en se disant d’accord ou entièrement d’accord). Cela dit, les deux facteurs les plus importants semblent être description suffisamment détaillée des forces et des faiblesses (96 % d’accord ou entièrement d’accord – 84 % entièrement d’accord) et observations claires (93 % d’accord ou entièrement d’accord – 62 % entièrement d’accord).

Ces résultats sont préoccupants, étant donné que la figure 12 montre que les présidents virtuels ont considéré la description suffisamment détaillée des forces et des faiblesses comme l’une des plus grandes faiblesses des évaluations préliminaires. En effet, cet énoncé a récolté la proportion la plus élevée de réponses « en désaccord » ou « entièrement en désaccord ».

Figure 12 : Importance accordée à des énoncés portant sur la mesure de la qualité des évaluations (n = 69)

Dans quelle mesure jugez-vous importants les énoncés suivants pour mesurer la qualité d’une évaluation?

Long description
Description suffisamment détaillée des forces et des faiblesses Observations claires Commentaires respectueux Aucune erreur factuelle Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Aucune divulgation de renseignements personnels sur l’évaluateur Observations centrées sur les critères de sélection
D’accord/entièrement d’accord 96 % 93 % 87 % 87 % 87 % 83 % 81 % 70 %
Plutôt en désaccord/neutre/plutôt d’accord 1 % 7 % 13 % 13 % 9 % 17 % 19 % 23 %
En désaccord/entièrement en désaccord 3 % 0 % 0 % 0 % 4 % 0 % 0 % 7 %

5.3.1 Commentaires facultatifs sur l’importance des critères

Lorsqu’on a demandé aux présidents virtuels de commenter les énoncés concernant la qualité des évaluations, la plupart (77 %) ne l’ont pas fait. Par ailleurs, aucun thème central n’est représentatif des réponses à cette question. Les deux seuls thèmes dégagés sont tous les aspects sont importants (3 %) et préférence pour les rencontres en personne (3 %).

5.4 Accord avec la pertinence des critères pour les évaluations lues

On a demandé aux présidents virtuels d’indiquer dans quelle mesure ils étaient d’accord avec huit énoncés concernant les évaluations préliminaires qu’ils avaient lues. Les résultats présentés à la figure 13 montrent que les points de vue varient grandement pour chacune des questions.

  • Les présidents virtuels étaient le plus susceptibles d’être d’accord ou entièrement d’accord pour dire que l’énoncé aucune divulgation de renseignements personnels sur l’évaluateur s’appliquait aux évaluations préliminaires. Au total, 50 % se sont dits entièrement d’accord avec cet énoncé.
  • À l’autre extrémité, les présidents virtuels étaient le moins susceptibles d’être d’accord ou entièrement d’accord pour dire qu’un juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées (16 %) s’appliquait; 28 % étaient en désaccord ou entièrement en désaccord avec cet énoncé.
  • Enfin, les présidents virtuels étaient le plus susceptibles d’être en désaccord ou entièrement en désaccord avec l’énoncé selon lequel les évaluations préliminaires comportaient une description suffisamment détaillée des forces et des faiblesses (38 %).

Figure 13 : Accord avec des énoncés portant sur la capacité de lire les évaluations préliminaires des évaluateurs (n = 67)Note en bas de page 9

Please indicate the extent to which the following statements apply to the preliminary reviews you read

Long description
Aucune divulgation de renseignements personnels sur l’évaluateur Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Commentaires respectueux Aucune erreur factuelle Observations centrées sur les critères de sélection Observations claires Description suffisamment détaillée des forces et des faiblesses Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées
D’accord/entièrement d’accord 88 % 73 % 68 % 37 % 36 % 27 % 25 % 16 %
Plutôt en désaccord/neutre/plutôt d’accord 12 % 24 % 31 % 40 % 41 % 48 % 38 % 56 %
En désaccord/entièrement en désaccord 0 % 3 % 2 % 24 % 23 % 25 % 38 % 28 %

5.4.1 Commentaires facultatifs sur les énoncés portant sur les évaluations préliminaires

Lorsqu’on a demandé aux présidents virtuels de commenter les énoncés concernant les évaluations préliminaires, seulement environ la moitié l’ont fait. L’examen des résultats ne montre aucune critique ou suggestion précise à ce sujet; souvent, les présidents virtuels critiquaient les évaluations ou le processus en général (p. ex. « Le format d’évaluation structuré était désastreux, tant pour les candidats que pour les évaluateurs. »).

5.5 Commentaires facultatifs sur la qualité des évaluations

Pour conclure le sondage, on a demandé aux présidents virtuels de faire part de tout autre indicateur de la qualité qu’ils jugeaient important pour définir la qualité d’une évaluation. Comme ce fut le cas avec d’autres questions ouvertes à la fin du sondage, la majorité (59 %) des présidents virtuels n’ont pas répondu. Il a été difficile de dégager des thèmes communs des réponses obtenues, comme seuls quelques-uns ont été mentionnés par plusieurs présidents. La suggestion la plus fréquente : les évaluateurs devraient être compétents et expérimentés dans le domaine qu’ils évaluent (12 %).

6.0 Évaluateurs à l’étape d’évaluation finale (n = 14)

La présente section traite des réponses des évaluateurs à l’étape d’évaluation finale.

6.1 Accord avec des énoncés portant sur les évaluateurs à l’étape 1

Les évaluateurs à l’étape d’évaluation finale étaient presque tous en désaccord avec les énoncés selon lesquels les évaluateurs à l’étape 1 ont fourni des rétroactions adéquates (93 % en désaccord ou entièrement en désaccord)ou claires (100 % en désaccord ou entièrement en désaccord) qui supportaient leurs cotes.

Figure 14 : Accord avec des énoncés portant sur les évaluateurs à l’étape 1 (n = 14)

Les évaluateurs à l’étape 1...

Long description
Ont fourni des rétroactions adéquates qui supportaient leurs cotes Ont fourni des rétroactions claires qui supportaient leurs cotes
D’accord/entièrement d’accord 0 % 0 %
Plutôt en désaccord/neutre/plutôt d’accord 7 % 0 %
En désaccord/entièrement en désaccord 93 % 100 %

6.2 Consultation des demandes de subvention

Au total, 93 % des évaluateurs à l’étape d’évaluation finale ont dit avoir consulté les demandes de subvention en plus des évaluations de l’étape 1.

6.3 La lecture de la demande et des évaluations de l’étape 1 était nécessaire

Parmi les 93 % d’évaluateurs à l’étape d’évaluation finale qui ont consulté les demandes de subvention en plus des évaluations de l’étape 1, 85 % étaient d’accord ou entièrement d’accord (dont 69 % entièrement) avec l’énoncé la lecture de la demande et des évaluations de l’étape 1 était nécessaire pour l’évaluation de l’étape finale.

Figure 15 : Opinion concernant la nécessité de lire la demande et les évaluations de l’étape 1 (n = 13)Note en bas de page 10

La lecture de la demande et des évaluations de l’étape 1 était nécessaire pour l’évaluation de l’étape finale

Long description
D’accord/entièrement d’accord Plutôt en désaccord/neutre/plutôt d’accord En désaccord/entièrement en désaccord
85 % 15 % 0 %

6.4 Commentaires facultatifs sur l’utilité des évaluations de l’étape 1

Lorsqu’on a demandé aux répondants de commenter l’utilité des évaluations de l’étape 1 pour l’étape d’évaluation finale, ils ont le plus souvent indiqué que les évaluateurs n’avaient pas fourni assez de détails et de renseignements utiles dans leurs évaluations (57 %) ou que les évaluateurs n’étaient pas compétents dans le domaine de recherche (36 %). Une bonne proportion de répondants ont aussi dit que de nombreuses évaluations n’avaient pas été soumises ou avaient été soumises en retard (29 %).

7.0 Principales constatations

La présente section résume les principales constatations issues de la recherche en synthétisant les résultats des quatre sondages menés auprès des groupes d’intervenants.

7.1 Importance de déterminer la qualité des évaluations

La figure ci-dessous compare la proportion d’intervenants de chaque groupe qui se sont dits d’accord ou entièrement d’accord avec l’importance de chaque énoncé. Les résultats indiquent que les groupes considèrent généralement les énoncés description suffisamment détaillée des forces et des faiblesses et observations claires comme les plus importants (exception faite des évaluateurs à l’étape 1, qui placent l’énoncé commentaires respectueux juste devant description suffisamment détaillée des forces et des faiblesses).

En revanche, les intervenants ont semblé accorder moins d’importance aux énoncés aucune divulgation de renseignements personnels sur l’évaluateur et observations centrées sur les critères de sélection.

Figure 16 : Réponses « d’accord » et « entièrement d’accord » aux énoncés relatifs à l’importance de la qualité des évaluations par groupes d’intervenants

Veuillez indiquer dans quelle mesure vous convenez que les critères suivants sont importants pour déterminer la qualité des évaluations

Long description
Description suffisamment détaillée des forces et des faiblesses Observations claires Aucune erreur factuelle Commentaires respectueux Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées Aucune divulgation de renseignements personnels sur l’évaluateur Observations centrées sur les critères de sélection
Présidents virtuels 96 % 93 % 87 % 87 % 83 % 87 % 81 % 70 %
Évaluateurs à l’étape 1 91 % 94 % 90 % 92 % 90 % 79 % 86 % 76 %
Candidats 78 % 76 % 75 % 74 % 72 % 70 % 64 % 61 %

7.2 Principaux points à améliorer

Les thèmes suivants semblent toujours revenir dans les commentaires qualitatifs, peu importe le groupe d’intervenants.

  • Manque de rétroaction de qualité de la part des évaluateurs – Les candidats, les évaluateurs et les présidents virtuels ont tous souligné que de nombreuses évaluations manquaient de contenu et de détails. Le manque de commentaires détaillés semble avoir engendré deux problèmes importants pour les candidats. Premièrement, le manque de détails signifiait souvent que les commentaires des évaluateurs ne concordaient pas avec les cotes qu’ils avaient attribuées à la demande. De nombreux candidats ont mentionné que souvent, les commentaires ne faisaient qu’une ou deux lignes et ne comportaient aucune remarque négative ni critique constructive, mais qu’ils étaient pourtant accompagnés d’une cote inférieure à O++ ou O+. Deuxièmement, les candidats n’ont reçu aucune indication leur permettant d’améliorer de futures demandes, voire de prendre conscience qu’il était inutile de présenter une nouvelle demande en apportant des changements à la constitution de l’équipe, à la méthodologie ou à l’approche, par exemple, tant les problèmes étaient grands. En effet, lorsqu’on a leur a demandé d’évaluer les forces de l’évaluation, tous les intervenants ont souligné que ce qui avait le moins bien fonctionné était le juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées.
  • Perception des qualifications des évaluateurs – Les candidats et même certains évaluateurs et présidents virtuels ont laissé entendre que bon nombre des évaluations perçues comme étant de piètre qualité provenaient d’évaluateurs qui ne possédaient ni les connaissances ni l’expertise nécessaires dans le domaine de recherche proposé. Pour étayer leurs propos, ils ont souvent fait allusion à des évaluateurs ayant formulé des commentaires qu’ils jugeaient incorrects sur le plan factuel ou tout simplement fondés sur des opinions plutôt que sur des faits.
  • Problèmes liés à l’échéancier des évaluations – De nombreux évaluateurs et présidents virtuels ont fait état de problèmes liés aux échéanciers, soulignant que bon nombre d’évaluations avaient été soumises très peu de temps avant la date limite (ce qui n’a pas donné suffisamment de temps aux évaluateurs pour en lire d’autres) et que certaines n’avaient même pas été soumises. Quelques évaluateurs et présidents virtuels ont mentionné que des évaluateurs pourraient avoir manqué de temps pour évaluer correctement les demandes ou en avoir eu trop à évaluer dans les délais impartis. Cette situation pourrait avoir eu des répercussions sur la qualité des évaluations et la quantité de détails fournis, mais elle pourrait aussi être liée à un problème récurrent soulevé par des candidats. En effet, des candidats ont indiqué soupçonner que certains évaluateurs n’avaient pas pris le temps de lire attentivement les demandes, puisqu’ils ont remarqué des erreurs dans les évaluations (mention que des renseignements étaient manquants alors qu’ils se trouvaient pourtant dans la demande, renvoi à des renseignements ne se trouvant pas dans la demande, etc.).

Annexe A – Résultats du sondage mené auprès des candidats

Tableau 1 : Sexe
Sexe
   %
(n = 1 077)
Femme 37 %
Homme 63 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 2 : Stade de carrière
Q1. À laquelle des catégories suivantes diriez-vous appartenir?
   %
(n = 1 077)
Chercheur en début de carrière (≤ 5 ans comme chercheur indépendant) 25 %
Chercheur en milieu de carrière (5-15 ans comme chercheur indépendant) 42 %
Chercheur chevronné (> 15 ans comme chercheur indépendant) 33 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 3 : Poste
Q2. Lequel ou lesquels des postes suivants occupez-vous actuellement?
   %
(n = 1 077)
Professeur 41 %
Professeur agrégé 32 %
Professeur adjoint 25 %
Chercheur 12 %
Clinicien 8 %
Scientifique 7 %
Scientifique chevronné 6 %
Administrateur de la recherche 2 %
Doyen à la recherche < 1 %
Autre 2 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 4 : Thème
Q3. Quel est votre principal domaine de recherche (thème)?
   %
(n = 1 070)
Recherche biomédicale 69 %
Recherche clinique 14 %
Recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations 10 %
Recherche sur les services et les systèmes de santé 8 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 5 : Financement de la demande
Q4. Avez-vous reçu des fonds dans le cadre du premier concours pilote du volet Projet 2016?
   %
(n = 1 077)
Oui 23 %
Non 77 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 6 : Cohérence des évaluations de l’étape 1
Q5. Degré d’accord – Les évaluations de l’étape 1 que j’ai reçues sont cohérentes puisque les justifications écrites (forces et faiblesses) concordent avec les cotes respectives (O++, O+, O, E++, E+, E, G, F, P).
   %
(n = 1 072)
Entièrement d’accord 5 %
D’accord 16 %
Plutôt d’accord 9 %
Neutre 6 %
Plutôt en désaccord 10 %
En désaccord 22 %
Entièrement en désaccord 33 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 7 : Commentaires sur l’utilité des évaluations de l’étape 1
Q6. Veuillez entrer tout commentaire sur la concordance des évaluations que vous avez reçues :
   %
(n = 1 077)
Il y avait un écart trop important entre les évaluateurs 18 %
Les commentaires ne concordaient pas avec les cotes 12 %
Les évaluateurs manquaient d’expertise ou de connaissances dans le domaine 8 %
Les réponses des évaluateurs n’étaient pas suffisamment détaillées 7 %
J’ignore comment les cotes sont utilisées dans la production des classements 7 %
Les évaluateurs n’ont pas fourni de commentaires ni de justifications à l’appui de leurs cotes 6 %
Commentaires généralement négatifs sur le processus ou les cotes 4 %
Absence de lignes directrices claires sur l’attribution de cotes par les évaluateurs 3 %
Je me suis demandé si l’évaluateur avait lu et compris la demande 3 %
Je n’aime pas le système de cotation 2 %
La cotation des évaluateurs n’est pas objective 2 %
Suggestion de nouvelles méthodes de cotation 2 %
Il était impossible d’associer les commentaires au classement correspondant 1 %
J’ai reçu trop peu d’évaluations 1 %
Compréhension insuffisante de la recherche fondamentale 1 %
Il devrait y avoir discussion en personne en cas d’écarts entre les évaluateurs 1 %
Les évaluateurs ont formulé des commentaires détaillés pour justifier les cotes attribuées 1 %
Commentaires généralement positifs sur les évaluations 1 %
Bonne cohérence entre les évaluateurs < 1 %
Autre 3 %
Aucune réponse 43 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 8 : Les évaluations reçues à l’étape 1 ont été utiles
Q7. Degré d’accord – Les évaluations de l’étape 1 (les cotes et les forces/faiblesses) que j’ai reçues contiennent des renseignements utiles qui m’aideront à affiner ma demande pour un concours futur.
   %
(n = 1 006)
Entièrement d’accord 3 %
D’accord 13 %
Plutôt d’accord 15 %
Neutre 8 %
Plutôt en désaccord 8 %
En désaccord 20 %
Entièrement en désaccord 33 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 9 : Commentaires sur l’utilisation des évaluations de l’étape 1 dans des demandes futures
Q8. Veuillez entrer tout commentaire sur l’utilité des remarques que vous avez reçues des évaluateurs :
   %
(n = 1 077)
Les remarques n’étaient pas pertinentes ou étaient peu utiles 14 %
La majorité des remarques n’étaient pas suffisamment détaillées pour permettre l’amélioration de demandes futures 10 %
Commentaires généralement négatifs 8 %
Il y avait incohérence des remarques entre les évaluateurs 7 %
Seulement quelques évaluateurs ont fourni des renseignements utiles 7 %
Aucun commentaire négatif formulé ni piste d’amélioration suggérée 6 %
Difficulté à décrire les problèmes à l’intérieur des limites de caractères ou de pages 4 %
Je me demande si l’évaluateur a lu attentivement la demande 4 %
J’ai reçu suffisamment d’information pour pouvoir présenter une nouvelle demande en y apportant des changements 3 %
Sans objet/financement obtenu 1 %
Les évaluateurs n’ont formulé aucune remarque 1 %
Autre 3 %
Aucune réponse 42 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 10 : Pourcentage d’évaluations préliminaires de qualité insatisfaisante
Q11. Selon vous, environ quel pourcentage des évaluations reçues étaient de qualité insatisfaisante?
   %
(n = 1 077)
0 % 9 %
10 % 4 %
20 % 11 %
30 % 11 %
40 % 5 %
50 % 21 %
60 % 6 %
70 % 11 %
80 % 10 %
90 % 4 %
100 % 7 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 11 : Commentaires sur les évaluations de qualité insatisfaisante
Q12. Commentaires :
   %
(n = 1 077)
Les réponses des évaluateurs ne sont pas suffisamment détaillées pour me permettre de comprendre les faiblesses ou d’apporter des améliorations 10 %
Les évaluations insatisfaisantes provenaient d’évaluateurs qui n’étaient ni qualifiés ni compétents dans le domaine de recherche 9 %
Je me suis demandé si l’évaluateur avait lu et compris la demande 6 %
Il y avait un écart trop important entre les évaluateurs 3 %
Dans leurs commentaires, les évaluateurs ont donné des opinions plutôt que de se fonder sur des faits 3 %
Les commentaires ne concordaient pas avec les cotes 2 %
Le problème, ce n’est pas les évaluations, mais plutôt le fait que le financement est déterminé par des cotes et des classements 2 %
Les évaluateurs n’ont pas compris les contraintes de la demande de subvention (p. ex. espace limité) 2 %
Commentaires généralement négatifs 2 %
Besoin de rencontres en personne 2 %
La totalité ou la majorité des évaluations comportaient des commentaires utiles 2 %
Le répondant indique seulement le nombre d’évaluations insatisfaisantes, en complément à la question précédente 2 %
Évaluations manquantes ou incomplètes 1 %
Autre 2 %
Aucune réponse 64 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 12 : Importance d’une description suffisamment détaillée des forces et des faiblesses dans les évaluations préliminaires
Q13. Veuillez indiquer dans quelle mesure vous convenez que le critère suivant est important pour déterminer la qualité des évaluations, de votre point de vue en tant que candidat : description suffisamment détaillée des forces et des faiblesses.
   %
(n = 1 063)
Entièrement d’accord 53 %
D’accord 25 %
Plutôt d’accord 4 %
Neutre 2 %
Plutôt en désaccord 2 %
En désaccord 6 %
Entièrement en désaccord 8 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 13 : Importance de l’équilibre entre les forces et les faiblesses dans les évaluations préliminaires
Q14. Veuillez indiquer dans quelle mesure vous convenez que le critère suivant est important pour déterminer la qualité des évaluations, de votre point de vue en tant que candidat : juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées.
   %
(n = 1 057)
Entièrement d’accord 41 %
D’accord 29 %
Plutôt d’accord 7 %
Neutre 6 %
Plutôt en désaccord 3 %
En désaccord 5 %
Entièrement en désaccord 9 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 14 : Importance d’observations centrées sur les critères de sélection dans les évaluations préliminaires
Q15. Veuillez indiquer dans quelle mesure vous convenez que le critère suivant est important pour déterminer la qualité des évaluations, de votre point de vue en tant que candidat : observations centrées sur les critères de sélection.
   %
(n = 1 055)
Entièrement d’accord 31 %
D’accord 30 %
Plutôt d’accord 11 %
Neutre 8 %
Plutôt en désaccord 3 %
En désaccord 6 %
Entièrement en désaccord 10 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 15 : Importance de l’absence d’erreurs factuelles dans les évaluations préliminaires
Q16. Veuillez indiquer dans quelle mesure vous convenez que le critère suivant est important pour déterminer la qualité des évaluations, de votre point de vue en tant que candidat : aucune erreur factuelle.
   %
(n = 1 050)
Entièrement d’accord 55 %
D’accord 20 %
Plutôt d’accord 3 %
Neutre 7 %
Plutôt en désaccord 3 %
En désaccord 3 %
Entièrement en désaccord 8 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 16 : Importance de la clarté des observations dans les évaluations préliminaires
Q17. Veuillez indiquer dans quelle mesure vous convenez que le critère suivant est important pour déterminer la qualité des évaluations, de votre point de vue en tant que candidat : observations claires.
   %
(n = 1 062)
Entièrement d’accord 50 %
D’accord 27 %
Plutôt d’accord 6 %
Neutre 4 %
Plutôt en désaccord 3 %
En désaccord 3 %
Entièrement en désaccord 8 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 17 : Importance de commentaires respectueux dans les évaluations préliminaires
Q18. Veuillez indiquer dans quelle mesure vous convenez que le critère suivant est important pour déterminer la qualité des évaluations, de votre point de vue en tant que candidat : commentaires respectueux.
   %
(n = 1 059)
Entièrement d’accord 46 %
D’accord 28 %
Plutôt d’accord 8 %
Neutre 10 %
Plutôt en désaccord 2 %
En désaccord 2 %
Entièrement en désaccord 4 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 18 : Importance de l’absence de références inappropriées dans les évaluations préliminaires
Q19. Veuillez indiquer dans quelle mesure vous convenez que le critère suivant est important pour déterminer la qualité des évaluations, de votre point de vue en tant que candidat : aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche.
   %
(n = 1 038)
Entièrement d’accord 46 %
D’accord 27 %
Plutôt d’accord 7 %
Neutre 11 %
Plutôt en désaccord 2 %
En désaccord 2 %
Entièrement en désaccord 5 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 19 : Importance de ne divulguer aucun renseignement personnel sur l’évaluateur dans les évaluations préliminaires
Q20. Veuillez indiquer dans quelle mesure vous convenez que le critère suivant est important pour déterminer la qualité des évaluations, de votre point de vue en tant que candidat : aucune divulgation de renseignements personnels sur l’évaluateur.
   %
(n = 1 016)
Entièrement d’accord 38 %
D’accord 27 %
Plutôt d’accord 6 %
Neutre 19 %
Plutôt en désaccord 2 %
En désaccord 2 %
Entièrement en désaccord 6 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 20 : Commentaires sur l’importance de critères pour déterminer la qualité des évaluations
Q21. Commentaires :
   %
(n = 1 077)
Les évaluateurs doivent être qualifiés et compétents dans le domaine de recherche 4 %
Les commentaires des évaluateurs doivent être détaillés et exhaustifs 2 %
Plus grande responsabilisation des évaluateurs 3 %
Préférence pour les comités en personne 2 %
Problèmes quant au respect des critères par les évaluateurs 2 %
Problèmes quant au processus ou au système de cotation 3 %
Commentaires généralement négatifs 1 %
Tous les critères énumérés sont importants 1 %
Le système précédent était meilleur que le système actuel 1 %
Les évaluations étaient excellentes/aucun problème 1 %
Les questions sont mauvaises ou biaisées 1 %
Autre 2 %
Aucune réponse 82 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 21 : Commentaires sur d’autres indicateurs de qualité
Q22. Veuillez nous faire part de tout autre indicateur de la qualité (ou autre élément) que vous jugez important pour définir la qualité d’une évaluation :
   %
(n = 1 077)
Les évaluateurs doivent être qualifiés et compétents dans le domaine de recherche 10 %
Les commentaires des évaluateurs doivent être détaillés, être exhaustifs et permettre d’améliorer de futures demandes 4 %
Préférence pour les comités en personne 2 %
Les évaluateurs doivent être objectifs et fonder leurs cotes sur des faits et non sur des opinions 2 %
Meilleure cohérence entre les évaluateurs/plus de discussion entre les évaluateurs 2 %
L’exactitude, la cohérence et d’autres aspects des évaluations devraient être validés par un autre évaluateur ou par le président 1 %
Plus grande responsabilisation des évaluateurs 1 %
Cohérence entre les cotes et les commentaires 1 %
Il faut tenir davantage compte du CV et du parcours du candidat 1 %
Commentaires généralement négatifs 1 %
Le système précédent était meilleur que le système actuel < 1 %
Meilleur raisonnement quant à la correspondance entre cotes et classements 1 %
Donner plus de temps aux évaluateurs pour effectuer les évaluations < 1 %
Il faut accorder plus d’importance à l’innovation < 1 %
Suggestion d’autres modèles d’évaluation des demandes 1 %
Autre 3 %
Aucune réponse 75 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 22 : Les évaluations préliminaires comportaient une description suffisamment détaillée des forces et des faiblesses
Q23. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations que vous avez reçues : description suffisamment détaillée des forces et des faiblesses.
   %
(n = 1 055)
Entièrement d’accord 3 %
D’accord 16 %
Plutôt d’accord 14 %
Neutre 8 %
Plutôt en désaccord 13 %
En désaccord 21 %
Entièrement en désaccord 24 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 23 : Les évaluations préliminaires comportaient un juste équilibre entre forces et faiblesses
Q24. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations que vous avez reçues : juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées.
   %
(n = 1 053)
Entièrement d’accord 3 %
D’accord 14 %
Plutôt d’accord 12 %
Neutre 10 %
Plutôt en désaccord 15 %
En désaccord 20 %
Entièrement en désaccord 26 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 24 : Les évaluations préliminaires contenaient des observations centrées sur les critères de sélection
Q25. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations que vous avez reçues : observations centrées sur les critères de sélection.
   %
(n = 1 048)
Entièrement d’accord 4 %
D’accord 19 %
Plutôt d’accord 13 %
Neutre 16 %
Plutôt en désaccord 13 %
En désaccord 17 %
Entièrement en désaccord 19 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 25 : Absence d’erreurs factuelles dans les évaluations préliminaires
Q26. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations que vous avez reçues : aucune erreur factuelle.
   %
(n = 1 026)
Entièrement d’accord 6 %
D’accord 17 %
Plutôt d’accord 9 %
Neutre 14 %
Plutôt en désaccord 11 %
En désaccord 16 %
Entièrement en désaccord 26 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 26 : Observations claires dans les évaluations préliminaires
Q27. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations que vous avez reçues : observations claires.
   %
(n = 1 049)
Entièrement d’accord 5 %
D’accord 18 %
Plutôt d’accord 15 %
Neutre 18 %
Plutôt en désaccord 13 %
En désaccord 14 %
Entièrement en désaccord 18 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 27 : Commentaires respectueux dans les évaluations préliminaires
Q28. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations que vous avez reçues : commentaires respectueux.
   %
(n = 1 044)
Entièrement d’accord 16 %
D’accord 34 %
Plutôt d’accord 12 %
Neutre 17 %
Plutôt en désaccord 5 %
En désaccord 6 %
Entièrement en désaccord 10 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 28 : Absence de références inappropriées dans les évaluations préliminaires
Q29. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations que vous avez reçues : aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche.
   %
(n = 1 016)
Entièrement d’accord 22 %
D’accord 34 %
Plutôt d’accord 7 %
Neutre 16 %
Plutôt en désaccord 5 %
En désaccord 6 %
Entièrement en désaccord 11 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 29 : Divulgation de renseignements personnels sur l’évaluateur dans les évaluations préliminaires
Q30. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations que vous avez reçues : aucune divulgation de renseignements personnels sur l’évaluateur.
   %
(n = 964)
Entièrement d’accord 38 %
D’accord 35 %
Plutôt d’accord 6 %
Neutre 14 %
Plutôt en désaccord 1 %
En désaccord 2 %
Entièrement en désaccord 5 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 30 : Commentaires sur les énoncés portant sur les évaluations
Q31. Commentaires :
   %
(n = 1 077)
Je me suis demandé si l’évaluateur avait lu et compris la demande 2 %
Les commentaires des évaluateurs ne sont pas suffisamment détaillés pour me permettre de comprendre les faiblesses ou d’apporter des améliorations 2 %
Il y avait un écart trop important entre les évaluateurs 2 %
Les évaluateurs ont formulé des commentaires inappropriés, erronés ou non objectifs 2 %
Les évaluations insatisfaisantes provenaient d’évaluateurs qui n’étaient ni qualifiés ni compétents dans le domaine de recherche 1 %
Les commentaires ne concordaient pas avec les cotes 1 %
Dans leurs commentaires, les évaluateurs ont donné des opinions plutôt que de se fonder sur des faits < 1 %
Le problème, ce n’est pas les évaluations, mais plutôt le fait que le financement est déterminé par des cotes et des classements 1 %
Commentaires généralement négatifs 1 %
Évaluations manquantes ou incomplètes < 1 %
Les évaluateurs doivent être responsabilisés davantage < 1 %
Besoin de rencontres en personne < 1 %
Commentaires généralement positifs sur les évaluateurs < 1 %
Le répondant indique seulement le nombre d’évaluations de piètre qualité, en complément à la question précédente 1 %
Autre 2 %
Aucune réponse 86 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Annexe B – Résultats du sondage mené auprès des évaluateurs à l’étape 1

Tableau 1 : Sexe
Sexe
   %
(n = 724)
Femme 44 %
Homme 56 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 2 : Stade de carrière
Q1. À laquelle des catégories suivantes diriez-vous appartenir?
   %
(n = 724)
Chercheur en début de carrière (≤ 5 ans comme chercheur indépendant) 10 %
Chercheur en milieu de carrière (5-15 ans comme chercheur indépendant) 41 %
Chercheur chevronné (> 15 ans comme chercheur indépendant) 43 %
Utilisateur des connaissances 4 %
Autre 2 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 3 : Poste
Q2. Lequel ou lesquels des postes suivants occupez-vous actuellement?
   %
(n = 724)
Professeur 45 %
Professeur agrégé 33 %
Chercheur 18 %
Professeur adjoint 15 %
Clinicien 13 %
Scientifique chevronné 7 %
Scientifique 4 %
Administrateur de la recherche 4 %
Doyen à la recherche (vice-doyen, doyen associé, président associé, etc.) 1 %
Directeur de département 1 %
Professeur émérite < 1 %
Autre 4 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 4 : Thème
Q3. Quel est votre principal domaine de recherche (thème)?
   %
(n = 710)
Recherche biomédicale 48 %
Recherche clinique 27 %
Recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations 14 %
Recherche sur les services et les systèmes de santé 12 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 5 : Lecture des évaluations préliminaires
Q4. Avez-vous lu les évaluations préliminaires des autres évaluateurs à qui les mêmes demandes ont été assignées?
   %
(n = 724)
Oui 90 %
Non 9 %
Aucune réponse 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 6 : Commentaires – Raisons invoquées par les évaluateurs à l’étape 1 pour avoir lu les autres évaluations préliminaires
Q5. Veuillez indiquer pourquoi vous avez lu les évaluations :
   %
(n = 648)
Pour comparer les cotes en vue d’évaluer ou d’ajuster les miennes 44 %
Pour comprendre le point de vue d’autres évaluateurs ou me préparer à la discussion 36 %
Pour vérifier si des aspects importants m’ont échappé durant l’évaluation 22 %
Pour repérer des écarts 15 %
Pour obtenir des renseignements d’évaluateurs d’autres disciplines ou en dehors de mon domaine d’expertise 13 %
C’était nécessaire pour le processus/c’était la bonne chose à faire 8 %
Pour favoriser l’atteinte d’un consensus ou assurer une évaluation équitable 6 %
En raison de plaintes sur le processus actuel 5 %
Ça fait partie du processus d’apprentissage/c’est ma première expérience en tant qu’évaluateur 4 %
Demande du président virtuel 2 %
Par intérêt, par curiosité ou à titre d’information 2 %
Autre 2 %
Aucune réponse 9 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.
Base : Évaluateurs à l’étape 1 ayant lu les autres évaluations préliminaires

Tableau 7 : Commentaires – Raisons invoquées par les évaluateurs à l’étape 1 pour ne pas avoir lu les autres évaluations préliminaires
Q6. Veuillez indiquer pourquoi vous n’avez pas lu les évaluations :
   %
(n = 66)
Manque de temps 27 %
Je voulais éviter l’introduction de tout biais dans mon évaluation 15 %
Je les ai lues/j’en ai lu quelques-unes 12 %
J’ai eu de la difficulté à accéder aux évaluations en ligne 12 %
Je ne savais pas comment y accéder/qu’elles étaient accessibles 8 %
Les autres évaluations n’étaient pas disponibles/je me suis joint trop tard au processus 8 %
En raison de plaintes sur le processus actuel 8 %
C’est une perte de temps de toutes les lire 4 %
Autre 3 %
Aucune réponse 24 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.
Base : Évaluateurs à l’étape 1 n’ayant pas lu les autres évaluations préliminaires

Tableau 8 : Commentaires – Circonstances où les évaluateurs à l’étape 1 ont lu les évaluations préliminaires de leurs pairs
Q11. Dans quelles circonstances avez-vous consulté les évaluations préliminaires de vos pairs?
   %
(n = 724)
Toujours 26 %
En présence de cotes contradictoires 16 %
Pour valider mon appréciation/pour vérifier si les autres évaluateurs avaient constaté les mêmes problèmes que moi 4 %
Lorsque je manquais d’expérience dans le domaine 4 %
Lorsque j’avais le temps de le faire 2 %
Pour me préparer aux discussions 2 %
Lorsqu’il n’y avait pas de discussions en personne 2 %
Seulement après avoir soumis ma propre évaluation 1 %
Par curiosité ou à titre d’information 1 %
À la demande du président virtuel 1 %
Autre 2 %
Jamais < 1 %
Aucune réponse 45 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 9 : Qualité insatisfaisante des évaluations
Q12. À la lecture des évaluations préliminaires de vos pairs, avez-vous constaté des cas où l’évaluation de la qualité était insatisfaisante?
   %
(n = 658)
Oui 64 %
Non 36 %
Aucune réponse 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Base : Évaluateurs à l’étape 1 ayant lu les autres évaluations préliminaires

Tableau 10 : Pourcentage d’évaluations préliminaires de qualité insatisfaisante
Q13. Environ quel pourcentage des évaluations préliminaires étaient de qualité insatisfaisante, d’après vous?
   %
(n = 658)
0 % 36 %
10 % 14 %
20 % 17 %
30 % 15 %
40 % 5 %
50 % 7 %
60 % 1 %
70 % 2 %
80 % 1 %
90 % 1 %
100 % < 1 %
Aucune réponse 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Base : Évaluateurs à l’étape 1 ayant lu les autres évaluations préliminaires.

Tableau 11 : Commentaires – Pourcentage d’évaluations préliminaires insatisfaisantes
Q14. Commentaires :
   %
(n = 724)
Les réponses des évaluateurs n’étaient pas suffisamment détaillées 16 %
Les évaluations n’ont pas été soumises ou ont été soumises en retard 12 %
Les évaluateurs n’ont pas fourni de commentaires ni de justifications à l’appui de leurs cotes 10 %
Les évaluateurs n’étaient pas suffisamment qualifiés ou manquaient d’expérience 8 %
Les évaluateurs n’étaient pas objectifs ou étaient en situation de conflit d’intérêts avec les demandes qu’ils évaluaient 6 %
Les évaluateurs manquaient d’expertise ou de connaissances dans le domaine 6 %
Les évaluateurs n’ont pas consacré assez de temps aux évaluations ou en avaient trop à effectuer 5 %
Les commentaires ne concordaient pas avec les cotes 3 %
Les évaluateurs ne formulent pas assez de commentaires pour permettre aux candidats d’apporter des changements/les candidats méritent une évaluation adéquate 2 %
Préférence pour les évaluations en personne 2 %
Insatisfaction par rapport à la discussion en ligne 2 %
Autre 2 %
Aucune réponse 61 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 12 : Les évaluations préliminaires comportaient une description suffisamment détaillée des forces et des faiblesses
Q15. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : description suffisamment détaillée des forces et des faiblesses.
   %
(n = 641)
Entièrement d’accord 3 %
D’accord 43 %
Plutôt d’accord 22 %
Neutre 10 %
Plutôt en désaccord 10 %
En désaccord 7 %
Entièrement en désaccord 3 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 13 : Les évaluations préliminaires comportaient un juste équilibre entre forces et faiblesses
Q16. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées.
   %
(n = 640)
Entièrement d’accord 3 %
D’accord 36 %
Plutôt d’accord 24 %
Neutre 13 %
Plutôt en désaccord 12 %
En désaccord 8 %
Entièrement en désaccord 3 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 14 : Les évaluations préliminaires contenaient des observations centrées sur les critères de sélection
Q17. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : observations centrées sur les critères de sélection.
   %
(n = 638)
Entièrement d’accord 5 %
D’accord 39 %
Plutôt d’accord 23 %
Neutre 15 %
Plutôt en désaccord 9 %
En désaccord 6 %
Entièrement en désaccord 4 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 15 : Absence d’erreurs factuelles dans les évaluations préliminaires
Q18. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : aucune erreur factuelle.
   %
(n = 622)
Entièrement d’accord 8 %
D’accord 44 %
Plutôt d’accord 15 %
Neutre 18 %
Plutôt en désaccord 8 %
En désaccord 4 %
Entièrement en désaccord 2 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 16 : Observations claires dans les évaluations préliminaires
Q19. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : observations claires.
   %
(n = 640)
Entièrement d’accord 6 %
D’accord 41 %
Plutôt d’accord 22 %
Neutre 14 %
Plutôt en désaccord 8 %
En désaccord 5 %
Entièrement en désaccord 3 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 17 : Commentaires respectueux dans les évaluations préliminaires
Q20. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : commentaires respectueux.
   %
(n = 640)
Entièrement d’accord 20 %
D’accord 56 %
Plutôt d’accord 12 %
Neutre 8 %
Plutôt en désaccord 3 %
En désaccord 1 %
Entièrement en désaccord < 1 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 18 : Absence de références inappropriées dans les évaluations préliminaires
Q21. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche.
   %
(n = 629)
Entièrement d’accord 30 %
D’accord 49 %
Plutôt d’accord 9 %
Neutre 8 %
Plutôt en désaccord 2 %
En désaccord 1 %
Entièrement en désaccord < 1 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 19 : Divulgation de renseignements personnels sur l’évaluateur dans les évaluations préliminaires
Q22. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : aucune divulgation de renseignements personnels sur l’évaluateur.
   %
(n = 620)
Entièrement d’accord 37 %
D’accord 47 %
Plutôt d’accord 5 %
Neutre 7 %
Plutôt en désaccord 2 %
En désaccord 1 %
Entièrement en désaccord 1 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 20 : Commentaires sur les énoncés portant sur les évaluations préliminaires
Q23. Commentaires :
   %
(n = 724)
Il était difficile de répondre aux questions en raison de la qualité variable des évaluations 5 %
Les évaluateurs manquaient d’expertise ou de connaissances dans le domaine 3 %
Les réponses des évaluateurs n’étaient pas suffisamment détaillées 2 %
La plupart des évaluations étaient respectueuses et bien rédigées 2 %
Les évaluateurs n’ont pas fourni de commentaires ni de justifications à l’appui de leurs cotes 2 %
Les évaluations n’ont pas été soumises ou ont été soumises en retard 2 %
Préoccupations quant à la divulgation de l’identité d’évaluateurs à des candidats 2 %
Commentaires généralement positifs sur la qualité des évaluations 1 %
La plupart des évaluations étaient suffisamment détaillées en ce qui concerne les forces et les faiblesses 1 %
Insatisfaction par rapport à la discussion en ligne 1 %
Les évaluateurs n’ont pas formulé d’observations centrées sur les critères de sélection/ont mal compris les critères 1 %
Les évaluateurs ne sont pas arrivés à un consensus/il y avait un écart trop important entre les évaluateurs 1 %
Les évaluateurs n’ont pas consacré assez de temps aux évaluations ou en avaient trop à effectuer 1 %
Peu d’intérêt à répondre aux questions/renseignements insuffisants pour répondre 1 %
Préférence pour les évaluations en personne 1 %
Préoccupations soulevées au sujet des cotes ou des critères associés 1 %
Incompréhension de certaines des questions < 1 %
Les commentaires ne concordaient pas avec les cotes < 1 %
La divulgation de renseignements personnels sur l’évaluateur à d’autres évaluateurs est appropriée < 1 %
Les cotes des questions précédentes n’étaient fondées que sur de bons évaluateurs < 1 %
Autre 2 %
Aucune réponse 79 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 21 : Importance d’une description suffisamment détaillée des forces et des faiblesses dans les évaluations préliminaires
Q24. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : description suffisamment détaillée des forces et des faiblesses.
   %
(n = 717)
Entièrement d’accord 53 %
D’accord 38 %
Plutôt d’accord 5 %
Neutre 2 %
Plutôt en désaccord 1 %
En désaccord < 1 %
Entièrement en désaccord < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 22 : Importance de l’équilibre entre les forces et les faiblesses dans les évaluations préliminaires
Q25. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées.
   %
(n = 717)
Entièrement d’accord 36 %
D’accord 42 %
Plutôt d’accord 8 %
Neutre 8 %
Plutôt en désaccord 3 %
En désaccord 2 %
Entièrement en désaccord 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 23 : Importance d’observations centrées sur les critères de sélection dans les évaluations préliminaires
Q26. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : observations centrées sur les critères de sélection.
   %
(n = 710)
Entièrement d’accord 32 %
D’accord 44 %
Plutôt d’accord 10 %
Neutre 8 %
Plutôt en désaccord 2 %
En désaccord 2 %
Entièrement en désaccord 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 24 : Importance de l’absence d’erreurs factuelles dans les évaluations préliminaires
Q27. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : aucune erreur factuelle.
   %
(n = 707)
Entièrement d’accord 51 %
D’accord 39 %
Plutôt d’accord 4 %
Neutre 4 %
Plutôt en désaccord < 1 %
En désaccord < 1 %
Entièrement en désaccord < 1 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 25 : Importance de la clarté des observations dans les évaluations préliminaires
Q28. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : observations claires.
   %
(n = 718)
Entièrement d’accord 52 %
D’accord 41 %
Plutôt d’accord 3 %
Neutre 2 %
Plutôt en désaccord < 1 %
En désaccord < 1 %
Entièrement en désaccord < 1 %
Aucune réponse < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 26 : Importance de commentaires respectueux dans les évaluations préliminaires
Q29. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : commentaires respectueux.
   %
(n = 717)
Entièrement d’accord 55 %
D’accord 37 %
Plutôt d’accord 4 %
Neutre 3 %
Plutôt en désaccord < 1 %
En désaccord < 1 %
Entièrement en désaccord < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 27 : Importance de l’absence de références inappropriées dans les évaluations préliminaires
Q30. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche
   %
(n = 709)
Entièrement d’accord 53 %
D’accord 37 %
Plutôt d’accord 4 %
Neutre 5 %
Plutôt en désaccord < 1 %
En désaccord < 1 %
Entièrement en désaccord < 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 28 : Importance de ne divulguer aucun renseignement personnel sur l’évaluateur dans les évaluations préliminaires
Q31. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : aucune divulgation de renseignements personnels sur l’évaluateur.
   %
(n = 710)
Entièrement d’accord 51 %
D’accord 35 %
Plutôt d’accord 5 %
Neutre 8 %
Plutôt en désaccord < 1 %
En désaccord 1 %
Entièrement en désaccord 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %. Les réponses « sans objet » ont été exclues des calculs.

Tableau 29 : Commentaires sur les énoncés portant sur la mesure de la qualité des évaluations
Q32. Commentaires :
   %
(n = 724)
Tous les énoncés sont importants ou sont représentatifs d’une bonne évaluation 2 %
Les forces et les faiblesses ont leur place, mais nul besoin d’en faire un juste équilibre 2 %
Préoccupations soulevées quant aux critères/au système de cotation pour l’évaluation des demandes 2 %
L’équilibrage des forces et des faiblesses fournit une évaluation plus claire aux candidats 1 %
Le système de cotation doit mieux définir les différentes cotes 1 %
Le sens des termes utilisés dans les questions (« adéquat », « approprié », « juste ») n’est pas clair 1 %
L’aspect le plus important d’une évaluation de qualité est la qualité de l’évaluateur 1 %
Préférence pour les évaluations en personne 1 %
Aucun renseignement sur l’évaluateur ne devrait être divulgué aux candidats 1 %
Aucun commentaire/réponses déjà fournies < 1 %
Prêt à accepter que les évaluations soient ouvertes/que les candidats connaissent le nom des évaluateurs < 1 %
Autre 2 %
Aucune réponse 89 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 30 : Commentaires sur d’autres indicateurs de qualité
Q33. Veuillez nous faire part de tout autre indicateur de la qualité (ou autre élément) que vous jugez important pour définir la qualité d’une évaluation :
   %
(n = 724)
Les évaluateurs doivent être qualifiés et compétents dans le domaine de recherche 3 %
Les évaluateurs doivent donner de la rétroaction de qualité dans leurs évaluations 2 %
Les évaluateurs doivent fournir de la rétroaction aux candidats de sorte à leur permettre de comprendre les faiblesses ou d’améliorer de futures demandes 2 %
Les évaluateurs doivent terminer leurs évaluations et respecter les échéances 1 %
Les commentaires doivent être étayés par des renvois à des ouvrages scientifiques 1 %
Il faut donner aux évaluateurs suffisamment de temps pour évaluer leurs demandes 1 %
Suggestions d’utiliser d’autres systèmes de notation/des systèmes utilisés dans le passé 1 %
Fournir plus de renseignements aux évaluateurs (recherches antérieures des candidats, autres subventions obtenues, etc.) 1 %
Commentaires généralement négatifs sur le processus d’évaluation ou de demande 1 %
Préférence pour les évaluations en personne 1 %
Problèmes liés au président virtuel < 1 %
Autre 2 %
Aucun 1 %
Aucune réponse 86 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Annexe C – Résultats du sondage mené auprès des présidents virtuels

Tableau 1 : Sexe
Sexe
   %
(n = 69)
Femme 32 %
Homme 68 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 2 : Stade de carrière
Q1. À laquelle des catégories suivantes diriez-vous appartenir?
   %
(n = 69)
Chercheur en milieu de carrière (5-15 ans comme chercheur indépendant) 23 %
Chercheur chevronné (> 15 ans comme chercheur indépendant) 71 %
Utilisateur des connaissances 4 %
Autre 1 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 3 : Poste
Q2. Lequel ou lesquels des postes suivants occupez-vous actuellement?
   %
(n = 69)
Professeur 67 %
Chercheur 28 %
Professeur agrégé 23 %
Scientifique chevronné 20 %
Clinicien 13 %
Administrateur de la recherche 13 %
Scientifique 6 %
Doyen à la recherche (vice-doyen, doyen associé, président associé, etc.) 6 %
Professeur émérite 3 %
Professeur adjoint 1 %
Autre 1 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 4 : Thème
Q3. Quel est votre principal domaine de recherche (thème)?
   %
(n = 69)
Recherche biomédicale 65 %
Recherche clinique 14 %
Recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations 17 %
Recherche sur les services et les systèmes de santé 3 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 5 : Lecture des évaluations préliminaires des évaluateurs
Q4. Avez-vous lu les évaluations préliminaires préparées par vos évaluateurs?
   %
(n = 69)
Oui 97 %
Non 3 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 6 : Qualité insatisfaisante des évaluations
Q8. À la lecture des évaluations préliminaires préparées par vos évaluateurs, avez-vous constaté des cas où l’évaluation de la qualité était insatisfaisante?
   %
(n = 67)
Oui 93 %
Non 7 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Base : Présidents virtuels ayant lu les évaluations préliminaires

Tableau 7 : Pourcentage d’évaluations préliminaires de qualité insatisfaisante
Q9. Environ quel pourcentage des évaluations préliminaires étaient de qualité insatisfaisante, d’après vous?
   %
(n = 67)
0 % 7 %
10 % 15 %
20 % 15 %
30 % 18 %
40 % 6 %
50 % 15 %
60 % 10 %
70 % 7 %
80 % 6 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Base : Présidents virtuels ayant lu les évaluations préliminaires

Tableau 8 : Commentaires sur les évaluations de qualité insatisfaisante
Q10. Commentaires :
   %
(n = 69)
Les renseignements/détails à l’appui des cotes étaient insuffisants 51 %
Retards dans la réception des évaluations 17 %
Les évaluations de piètre qualité proviennent d’évaluateurs inexpérimentés ou non compétents 14 %
Les cotes ne concordaient pas avec les commentaires 13 %
Renseignements manquants ou non disponibles 9 %
Les évaluateurs n’ont pas pu fournir des commentaires suffisamment détaillés, parce qu’il n’y avait pas assez d’espace dans le formulaire 4 %
Les évaluateurs ont soumis des évaluations de piètre qualité ou n’ont soumis aucune évaluation parce qu’ils n’appréciaient pas les changements apportés au système d’évaluation par les pairs 3 %
Autre 10 %
Aucune réponse 25 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 9 : Les évaluations préliminaires comportaient une description suffisamment détaillée des forces et des faiblesses
Q11. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : description suffisamment détaillée des forces et des faiblesses.
   %
(n = 64)
Entièrement d’accord 3 %
D’accord 22 %
Plutôt d’accord 20 %
Neutre 5 %
Plutôt en désaccord 13 %
En désaccord 28 %
Entièrement en désaccord 9 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 10 : Les évaluations préliminaires comportaient un juste équilibre entre forces et faiblesses
Q12. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées.
   %
(n = 64)
Entièrement d’accord 2 %
D’accord 14 %
Plutôt d’accord 27 %
Neutre 8 %
Plutôt en désaccord 22 %
En désaccord 20 %
Entièrement en désaccord 8 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 11 : Les évaluations préliminaires contenaient des observations centrées sur les critères de sélection
Q13. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : observations centrées sur les critères de sélection.
   %
(n = 64)
Entièrement d’accord 5 %
D’accord 31 %
Plutôt d’accord 22 %
Neutre 6 %
Plutôt en désaccord 13 %
En désaccord 17 %
Entièrement en désaccord 6 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 12 : Absence d’erreurs factuelles dans les évaluations préliminaires
Q14. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : aucune erreur factuelle.
   %
(n = 63)
Entièrement d’accord 5 %
D’accord 32 %
Plutôt d’accord 16 %
Neutre 13 %
Plutôt en désaccord 11 %
En désaccord 18 %
Entièrement en désaccord 6 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 13 : Observations claires dans les évaluations préliminaires
Q15. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : observations claires.
   %
(n = 64)
Entièrement d’accord 3 %
D’accord 23 %
Plutôt d’accord 20 %
Neutre 9 %
Plutôt en désaccord 19 %
En désaccord 20 %
Entièrement en désaccord 5 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 14 : Commentaires respectueux dans les évaluations préliminaires
Q16. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : commentaires respectueux.
   %
(n = 65)
Entièrement d’accord 22 %
D’accord 46 %
Plutôt d’accord 17 %
Neutre 11 %
Plutôt en désaccord 3 %
En désaccord 2 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 15 : Absence de références inappropriées dans les évaluations préliminaires
Q17. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche.
   %
(n = 66)
Entièrement d’accord 32 %
D’accord 41 %
Plutôt d’accord 11 %
Neutre 9 %
Plutôt en désaccord 5 %
En désaccord 3 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 16 : Divulgation de renseignements personnels sur l’évaluateur dans les évaluations préliminaires
Q18. Veuillez préciser dans quelle mesure l’énoncé suivant s’applique aux évaluations préliminaires que vous avez lues : aucune divulgation de renseignements personnels sur l’évaluateur.
   %
(n = 66)
Entièrement d’accord 50 %
D’accord 38 %
Plutôt d’accord 3 %
Neutre 5 %
Plutôt en désaccord 5 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Les réponses « sans objet » ont été exclues des calculs.

Tableau 17 : Commentaires sur les énoncés portant sur les évaluations préliminaires
Q19. Commentaires :
   %
(n = 69)
Commentaires généralement négatifs au sujet des évaluateurs 22 %
Impossible d’évaluer les énoncés en raison de la variabilité entre les évaluateurs 10 %
Il y avait des évaluateurs compétents et des évaluateurs incompétents 6 %
Préférence pour les rencontres en personne 6 %
Commentaires généralement positifs au sujet des évaluateurs 3 %
Autre 12 %
Aucune réponse 48 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 18 : Importance d’une description suffisamment détaillée des forces et des faiblesses dans les évaluations préliminaires
Q20. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : description suffisamment détaillée des forces et des faiblesses.
   %
(n = 69)
Entièrement d’accord 84 %
D’accord 12 %
Plutôt d’accord 1 %
En désaccord 1 %
Entièrement en désaccord 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 19 : Importance de l’équilibre entre les forces et les faiblesses dans les évaluations préliminaires
Q21. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées.
   %
(n = 69)
Entièrement d’accord 62 %
D’accord 25 %
Plutôt d’accord 4 %
Neutre 3 %
Plutôt en désaccord 1 %
En désaccord 3 %
Entièrement en désaccord 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 20 : Importance d’observations centrées sur les critères de sélection dans les évaluations préliminaires
Q22. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : observations centrées sur les critères de sélection.
   %
(n = 69)
Entièrement d’accord 36 %
D’accord 33 %
Plutôt d’accord 12 %
Neutre 6 %
Plutôt en désaccord 6 %
En désaccord 3 %
Entièrement en désaccord 4 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 21 : Importance de l’absence d’erreurs factuelles dans les évaluations préliminaires
Q23. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : aucune erreur factuelle.
   %
(n = 69)
Entièrement d’accord 64 %
D’accord 23 %
Plutôt d’accord 3 %
Neutre 7 %
Plutôt en désaccord 3 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 22 : Importance de la clarté des observations dans les évaluations préliminaires
Q24. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : observations claires.
   %
(n = 69)
Entièrement d’accord 62 %
D’accord 30 %
Plutôt d’accord 3 %
Neutre 1 %
Plutôt en désaccord 3 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 23 : Importance de commentaires respectueux dans les évaluations préliminaires
Q25. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : commentaires respectueux.
   %
(n = 69)
Entièrement d’accord 56 %
D’accord 30 %
Plutôt d’accord 9 %
Neutre 4 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 24 : Importance de l’absence de références inappropriées dans les évaluations préliminaires
Q26. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche.
   %
(n = 69)
Entièrement d’accord 51 %
D’accord 32 %
Plutôt d’accord 9 %
Neutre 7 %
Plutôt en désaccord 1 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 25 : Importance de ne divulguer aucun renseignement personnel sur l’évaluateur dans les évaluations préliminaires
Q27. Dans quelle mesure jugez-vous important l’énoncé suivant pour mesurer la qualité d’une évaluation : aucune divulgation de renseignements personnels sur l’évaluateur.
   %
(n = 69)
Entièrement d’accord 54 %
D’accord 28 %
Plutôt d’accord 12 %
Neutre 7 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 26 : Commentaires sur les énoncés portant sur la mesure de la qualité des évaluations
Q28. Commentaires :
   %
(n = 69)
Tous les énoncés sont importants 3 %
Préférence pour les rencontres en personne 3 %
Autre 17 %
Aucune réponse 77 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 27 : Commentaires sur d’autres indicateurs de qualité
Q29. Veuillez nous faire part de tout autre indicateur de la qualité (ou autre élément) que vous jugez important pour définir la qualité d’une évaluation :
   %
(n = 69)
Les évaluateurs devraient être compétents et expérimentés dans le domaine qu’ils évaluent 12 %
Les évaluateurs doivent fournir plus de détails ou de données pour étayer les cotes attribuées 6 %
Il doit y avoir la possibilité de tenir des rencontres en personne 3 %
Les évaluateurs doivent avoir plus d’espace pour formuler leurs commentaires 3 %
Autre 23 %
Aucune réponse 59 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Annexe D – Résultats du sondage mené auprès des évaluateurs à l’étape d’évaluation finale

Tableau 1 : Sexe
Sexe
   %
(n = 14)
Femme 36 %
Homme 64 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 2 : Stade de carrière
Q1. À laquelle des catégories suivantes diriez-vous appartenir?
   %
(n = 14)
Chercheur en milieu de carrière (5-15 ans comme chercheur indépendant) 29 %
Chercheur chevronné (> 15 ans comme chercheur indépendant) 64 %
Utilisateur des connaissances 7 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 3 : Poste
Q2. Lequel ou lesquels des postes suivants occupez-vous actuellement?
   %
(n = 14)
Professeur 57 %
Professeur agrégé 21 %
Scientifique chevronné 14 %
Chercheur 14 %
Clinicien 7 %
Administrateur de la recherche 7 %
Professeur émérite 7 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Tableau 4 : Thème
Q3. Quel est votre principal domaine de recherche (thème)?
   %
(n = 14)
Recherche biomédicale 64 %
Recherche clinique 14 %
Recherche sur les facteurs sociaux, culturels et environnementaux qui influent sur la santé des populations 14 %
Recherche sur les services et les systèmes de santé 7 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 5 : Les évaluateurs à l’étape 1 ont fourni des rétroactions claires
Q4. Degré d’accord – Les évaluateurs à l’étape 1 ont fourni des rétroactions claires qui supportaient leurs cotes.
   %
(n = 14)
En désaccord 57 %
Entièrement en désaccord 43 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 6 : Les évaluateurs à l’étape 1 ont fourni des rétroactions adéquates
Q5. Degré d’accord – Les évaluateurs à l’étape 1 ont fourni des rétroactions adéquates qui supportaient leurs cotes.
   %
(n = 14)
Plutôt en désaccord 7 %
En désaccord 57 %
Entièrement en désaccord 36 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 7 : Consultation des demandes de subvention
Q6. Avez-vous consulté les demandes de subvention en plus des évaluations de l’étape 1?
   %
(n = 14)
Oui 93 %
Non 7 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.

Tableau 8 : La lecture de la demande et des évaluations de l’étape 1 était nécessaire
Q7. Degré d’accord – La lecture de la demande et des évaluations de l’étape 1 était nécessaire pour l’évaluation de l’étape finale.
   %
(n = 13)
Entièrement d’accord 69 %
D’accord 15 %
Plutôt d’accord 15 %

N.B. : Les chiffres ayant été arrondis, il se peut que les totaux ne correspondent pas à 100 %.
Base : Évaluateurs à l’étape d’évaluation finale ayant consulté les demandes de subvention en plus des évaluations de l’étape 1

Tableau 9 : Commentaires sur l’utilité des évaluations de l’étape 1
Q8. Veuillez fournir ci-dessous tout commentaire au sujet des évaluations de l’étape 1 et de leur utilité pour votre évaluation de l’étape finale :
   %
(n = 14)
Les évaluateurs n’ont pas fourni assez de détails et de renseignements dans leurs évaluations 57 %
Les évaluateurs n’étaient pas compétents dans le domaine de recherche 36 %
De nombreuses évaluations n’ont pas été soumises ou ont été soumises en retard 29 %
La plupart des évaluations de l’étape 1 étaient de piètre qualité 14 %
Incohérence entre les commentaires et les cotes 14 %
Les IRSC ne devraient pas nommer les évaluateurs 14 %
Autre 14 %
Aucune réponse 7 %

N.B. : Les répondants pouvaient donner plus d’une réponse. Il se peut donc que les totaux dépassent 100 %.

Annexe E – Addendum aux tableaux présentant les données sur le degré d’accord (ajout au rapport des IRSC daté du 31 mars 2017)

Contexte

Pour compléter le travail présenté ici, les IRSC ont embauché un deuxième entrepreneur [Knowledge Translation Program (KTP)] chargé d’analyser les données recueillies au moyen d’un sondage mené auprès des participants au concours de subventions Projet de 2016 dans le but de produire un rapport. Les firmes PRA et KTP ont présenté de diverses manières les données obtenues à partir des questions de type Likert visant à évaluer la mesure dans laquelle les participants étaient d’accord avec des énoncés sur la qualité de l’évaluation. Le présent addendum a été préparé par les IRSC pour illustrer les données sur le degré d’accord de la même façon que pour le rapport final sur le concours de subventions Projet 2016 produit par KTP.

Tout d’abord, pour évaluer la rétroaction, les deux firmes ont analysé un sous-ensemble de questions sur une échelle de type Likert en sept pointsNote en bas de page 11. À noter que, dans le rapport de PRA, les sept choix de réponse ont été combinés pour former trois catégories de réponseNote en bas de page 12. Ensuite, le nombre de répondants par catégorie de réponse a été présenté pour chaque question de type Likert dans le rapport de KTP, ce qui n’était pas le cas dans le rapport de PRA. Voilà pourquoi les tableaux modifiés ci-dessous présentent les données sur le degré d’accord analysées dans le rapport de PRA de la même façon que dans le rapport 2016 de KTP.

Remarques importantes concernant le présent addendum :

  • Les changements apportés aux données sur le degré d’accord (publiées dans les tableaux qui suivent) ont été apportés par le personnel des IRSC à partir des constatations faites et communiquées par PRA.
  • Les tableaux de données modifiés présentés ci-dessous n’apparaissent pas dans le corps du présent rapport.
  • Les tableaux de données qui suivent ne faisaient pas partie du rapport publié par les IRSC pour éclairer le travail du comité d’experts sur l’évaluation par les pairs (CEEP).
Tableau révisé 1. Rétroaction des candidats de l’étape finale sur les évaluations provenant des évaluateurs de l’étape 1
Qualité des évaluations Participant au sondage Entièrement d’accord D’accord Plutôt d’accord Neutre Plutôt en désaccord En désaccord Fortement en désaccord S/O
Les évaluations de l’étape 1 que j’ai reçues sont cohérentes puisque les justifications écrites (forces et faiblesses) concordent avec les cotes respectives. Candidats de l’étape finale (n=1072) 52
(4,9 %)
166
(15,5 %)
96
(9,0 %)
66
(6,2 %)
108
(10,1 %)
234
(21,8 %)
350
(32,6 %)
 
Les évaluations de l’étape 1 (les cotes et les forces/faiblesses) que j’ai reçues contiennent des renseignements utiles qui m’aideront à affiner ma demande pour un concours futur. Candidats de l’étape finale (n=1006) 33
(3,3 %)
133
(13,2 %)
155
(15,4 %)
76
(7,6 %)
75
(7,5 %)
206
(20,5 %)
328
(32,6 %)
 
Tableau révisé 2. Degré de satisfaction des candidats de l’étape finale par rapport au processus de sélection de l'étape 1Note en bas de page 13
Processus de sélection Participant au sondage Entièrement d’accord D’accord Plutôt d’accord Neutre Plutôt en désaccord En désaccord Fortement en désaccord S/O
Qualité des conclusions de l’évaluation par les pairs Candidats de l’étape finale (n=1073) 37
(3,4 %)
105
(9,8 %)
102
(9,5 %)
73
(6,8 %)
137
(12,8 %)
261
(24,3 %)
358
(33,4 %)
 
La qualité des observations dans les notes de l’agent scientifique Candidats de l’étape finale (n=531) 17
(3,2 %)
61
(11,5 %)
25
(4,7 %)
69
(13,0 %)
35
(6,6 %)
102
(19,2 %)
229
(41,8 %)
 
Tableau révisé 3. Rétroaction des évaluateurs de l’étape finale sur les commentaires des évaluateurs de l’étape 1
Évaluateurs de l’étape 1 Participant au sondage Entièrement d’accord D’accord Plutôt d’accord Neutre Plutôt en désaccord En désaccord Fortement en désaccord S/O
Les évaluateurs à l’étape 1 ont fourni des rétroactions claires qui supportaient leurs cotes.Note en bas de page 14 Évaluateurs de l’étape finale (n=14) 8
(57,1 %)
6
(42,9 %)
Les évaluateurs à l’étape 1 ont fourni des rétroactions adéquates qui supportaient leurs cotes.Note en bas de page 15 Évaluateurs de l’étape finale (n=14)         1
(7,1 %)
8 (57,1 %) 5 (35,7 %)  
Tableau révisé 4. Expérience des répondants à lire les commentaires préliminaires des autres évaluateurs
La lecture des autres évaluations Participant au sondage Entièrement d’accord D’accord Plutôt d’accord Neutre Plutôt en désaccord En désaccord Fortement en désaccord S/O
Était utile Évaluateurs de l’étape 1 (n=724) 297
(41,0 %)
257
(35,5 %)
84
(11,6 %)
30
(4,1 %)
9
(1,2 %)
8
(1,1 %)
7
(1,0 %)
32
(4,4 %)
Présidents virtuels de l’étape 1 (n=69) 42
(60,9 %)
17
(24,6 %)
6
(8,7)
2
(2,9 %)
1
(1,4 %)
1
(1,4 %)
   
A influencé l’évaluation d’un moins une demande (p. ex., j’ai considéré les commentaires des autres évaluateurs dans ma prise de décision). Évaluateurs de l’étape 1 (n=724) 204
(28,2 %)
264
(36,5 %)
86
(11,9 %)
52
(7,2 %)
20
(2,8 %)
45
(6,2 %)
21
(2,9 %)
32
(4,4 %)
Est un aspect important du processus d’évaluation de l’étape 1. Évaluateurs de l’étape 1 (n=724) 349
(48,2 %)
240
(33,1 %)
61
(8,4 %)
35
(4,8 %)
2
(0,3 %)
5
(0,7 %)
8
(1,1 %)
24
(3,3 %)
Présidents virtuels de l’étape 1 (n=69) 49
(71,0 %)
15
(21,7 %)
1
(1,4 %)
1
(1,4 %)
1
(1,4 %)
2
(2,9 %)
   
La lecture de la demande et des évaluations de l’étape 1 était nécessaire pour l’évaluation de l’étape finale Évaluateurs de l’étape finale (n=14) 9
(69,2 %)
2
(15,4 %)
2
(15,4 %)
1
(7,1)
Tableau révisé 5. Rétroaction des répondants sur les critères importants de la qualité des évaluations
Importance des évaluations préliminairesNote en bas de page 16 Participant au sondage Entièrement d’accord D’accord Plutôt d’accord Neutre Plutôt en désaccord En désaccord Fortement en désaccord Aucune réponse
Description suffisamment détaillée des forces et des faiblesses Évaluateurs de l’étape 1
(n=717)
380
(53,0 %)
273
(38,1 %)
36
(5,0 %)
15
(2,1 %)
7
(1,0 %)
3
(0,4 %)
3
(0,4 %)
 
Présidents virtuels de l’étape 1 (n=69) 58
(84,1 %)
8
(11,6 %)
1
(1,4 %)
    1
(1,4 %)
1
(1,4 %)
 
Candidats de l’étape finale (n=1063) 567
(53,3 %)
261
(24,6)
43
(4,0 %)
25
(2,4 %)
23
(2,2)
58
(5,5 %)
86
(8,1 %)
 
Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées Évaluateurs de l’étape 1 (n=717) 262
(36,5 %)
302
(42,1 %)
55
(7,7 %)
54
(7,5 %)
22
(3,1 %)
14
(2,0 %)
8
(1,1 %)
 
Présidents virtuels de l’étape 1 (n=69) 43
(62,3 %)
17
(24,6 %)
3
(4,3 %)
2
(2,9 %)
1
(1,4 %)
2
(2,9 %)
1
(1,4 %)
 
Candidats de l’étape finale (n=1057) 438
(41,4 %)
305
(28,9 %)
71
(6,7 %)
60
(5,7 %)
36
(3,4 %)
53
(5,0 %)
94
(8,9 %)
 
Observations centrées sur les critères de sélection Évaluateurs de l’étape 1
(n=710)
224
(31,5 %)
314
(44,2 %)
72
(10,1 %)
59
(8,3 %)
15
(2,1 %)
17
(2,4 %)
9
(1,3 %)
 
Présidents virtuels de l’étape 1 (n=69) 25
(36,2 %)
23
(33,3 %)
8
(11,6 %)
4
(5,8 %)
4
(5,8 %)
2
(2,9 %)
3
(4,3 %)
 
Candidats de l’étape finale (n=1055) 325
(30,8 %)
316
(30,0 %)
116
(11,0 %)
89
(8,4 %)
36
(3,4 %)
64
(6,1 %)
108
(10,2 %)
1
(0,1 %)
Aucune erreur factuelle Évaluateurs de l’étape 1
(n=707)
362
(51,2 %)
277
(39,2 %)
31
(4,4 %)
30
(4,2 %)
1
(0,1 %)
2
(0,3 %)
3
(0,4 %)
1
(0,1 %)
Présidents virtuels de l’étape 1 (n=69) 44
(63,8 %)
16
(23,2 %)
2
(2,9 %)
5
(7,2 %)
2
(2,9 %)
     
Candidats de l’étape finale (n=1050) 576
(54,9 %)
207
(19,7 %)
35
(3,3 %)
77
(7,3 %)
33
(3,1 %)
35
(3,3 %)
87
(8,3 %)
 
Observations claires Évaluateurs de l’étape 1
(n=718)
374
(52,1 %)
297
(41,4 %)
22
(3,1 %)
16
(2,2 %)
3
(0,4 %)
2
(0,3 %)
3
(0,4 %)
1
(0,1 %)
Présidents virtuels de l’étape 1 (n=69) 43
(62,3 %)
21
(30,4 %)
2
(2,9 %)
1
(1,4 %)
2
(2,9 %)
     
Candidats de l’étape finale (n=1062)) 527
(49,6 %)
283
(26,6 %)
61
(5,7 %)
45
(4,2 %)
31
(2,9 %)
35
(3,3 %)
80
(7,5 %)
 
Commentaires respectueux Évaluateurs de l’étape 1
(n=717)
395
(55,1 %)
267
(37,2 %)
25
(3,5 %)
24
(3,3 %)
2
(0,3 %)
2
(0,3 %)
2
(0,3 %)
 
Présidents virtuels de l’étape 1 (n=69) 39
(56,5 %)
21
(30,4 %)
6
(8,7 %)
3
(4,3 %)
       
Candidats de l’étape finale (n=1059) 486
(45,9 %)
294
(27,8 %)
90
(8,5 %)
103
(9,7 %)
21
(2,0 %)
21
(2,0 %)
44
(4,2 %)
 
Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Évaluateurs de l’étape 1
(n=709)
375
(52,9 %)
263
(37,1 %)
26
(3,7 %)
38
(5,4 %)
3
(0,4 %)
2
(0,3 %)
2
(0,3 %)
 
Présidents virtuels de l’étape 1 (n=69) 35
(50,7 %)
22
(31,9 %)
6
(8,7 %)
5
(7,2 %
1
(1,4 %)
     
Candidats de l’étape finale (n=1038) 476
(45,9 %)
276
(26,6 %)
70
(6,7 %)
118
(11,4 %)
25
(2,4 %)
25
(2,4 %)
48
(4,6 %)
 
Aucune divulgation de renseignements personnels sur l’évaluateur Évaluateurs de l’étape 1
(n=710)
361
(50,8 %)
247
(34,8 %)
33
(4,6 %)
58
(8,2 %)
2
(0,3 %)
5
(0,7 %)
4
(0,6 %)
 
Présidents virtuels de l’étape 1 (n=69) 37
(53,6 %)
19
(27,5 %)
8
(11,6 %)
5
(7,2 %)
       
Candidats de l’étape finale (n=1016) 383
(37,7 %)
270
(26,6 %)
59
(5,8 %)
196
(19,3 %)
19
(1,9 %)
24
(2,4 %)
65
(6,4 %)
 
Tableau révisé 6. Rétroaction des participants sur les évaluations préliminaires
Énoncé qui s’applique aux évaluations que vous avez reçuesNote en bas de page 17 Participant au sondage Entièrement d’accord D’accord Plutôt d’accord Neutre Plutôt en désaccord En désaccord Fortement en désaccord Aucune réponse
Description suffisamment détaillée des forces et des faiblesses Évaluateurs de l’étape 1 (n=641) 22
(3,4 %)
277
(43,2 %)
144
(22,5 %)
64
(10,0 %)
67
(10,5 %)
45
(7,0 %)
20
(3,1 %)
2
(0,3 %)
Présidents virtuels de l’étape 1 (n=64) 2
(3,1 %)
14
(21,9 %)
13
(20,3 %)
3
(4,7 %)
8
(12,5 %)
18
(28,1 %)
6
(9,4 %)
 
Candidats de l’étape finale (n=1055) 34
(3,2 %)
174
(16,5 %)
152
(14,4 %)
80
(7,6 %)
137
(13,0 %)
222
(21,0 %
255
(24,2 %)
1
(0,1 %)
Juste équilibre entre les forces et les faiblesses qui permet d’étayer les cotes attribuées Évaluateurs de l’étape 1 (n=640) 22
(3,4)
232
(36,3 %)
152
(23,8 %)
85
(13,3 %)
74
(11,6 %)
52
(8,1 %)
21
(3,3 %)
2
(0,3 %)
Présidents virtuels de l’étape 1 (n=64) 1
(1,6 %)
9
(14,1 %)
17
(26,6 %)
5
(7,8 %)
14
(21,9 %)
13
(20,3 %)
5
(7,8 %)
 
Candidats de l’étape finale (n=1053) 32
(3,0 %)
145
(13,8 %)
122
(11,6 %)
107
(10,2 %)
160
(15,2 %)
214
(20,3 %)
273
(25,9 %)
 
Observations centrées sur les critères de sélection Évaluateurs de l’étape 1 (n=638) 31
(4,9 %)
249
(39,0 %)
146
(22,9 %)
93
(14,6 %)
55
(8,6 %)
38
(6,0 %)
24
(3,8 %)
2
(0,3 %)
Présidents virtuels de l’étape 1 (n=64) 3
(4,7 %)
 
20
(31,3 %)
14
(21,9 %)
4
(6,3 %)
8
(12,5 %)
11
(17,2 %)
4
(6,3 %)
 
Candidats de l’étape finale (n=1048) 41
(3,9 %)
196
(18,7 %)
133
(12,7 %)
169
(16,1 %)
135
(12,9 %)
178
(17,0 %)
195
(18,6 %)
1
(0,1 %)
Aucune erreur factuelle Évaluateurs de l’étape 1 (n=622) 50
(8,0 %)
271
(43,6 %)
95
(15,3 %)
111
(17,8 %)
51
(8,2 %)
28
(4,5 %)
14
(2,3 %)
2
(0,3 %)
Présidents virtuels de l’étape 1 (n=63) 3
(4,8 %)
20
(31,7 %)
10
(15,9 %)
8
(12,7 %)
7
(11,1 %)
11
(17,5 %)
4
(6,3 %)
 
Candidats de l’étape finale (n=1026) 58
(5,7 %)
179
(17,4 %)
91
(8,9 %)
147
(14,3 %)
116
(11,3 %)
162
(15,8 %)
272
(26,5 %
1
(0,1 %)
Observations claires Évaluateurs de l’étape 1 (n=640) 41
(6,4 %)
263
(41,1 %)
143
(22,3 %)
89
(13,9 %)
54
(8,4 %)
31
(4,8 %)
17
(2,7 %)
2
(0,3 %)
Présidents virtuels de l’étape 1 (n=64) 2
(3,1 %)
15
(23,4 %)
13
(20,3 %)
6
(9,4 %)
12
(18,8 %)
13
(20,3 %)
3
(4,7 %)
 
Candidats de l’étape finale (n=1049) 52
(5,0 %)
190
(18,1 %)
156
(14,9 %)
185
(17,6 %)
134
(12,8 %)
147
(14,0 %)
185
(17,6 %)
 
Commentaires respectueux Évaluateurs de l’étape 1 (n=640) 131
(20,5 %)
355
(55,5 %)
 
80
(12,5 %)
48
(7,5 %)
18
(2,8 %)
4
(0,6 %)
2
(0,3 %)
2
(0,3 %)
Présidents virtuels de l’étape 1 (n=65) 14
(21,5 %)
30
(46,2 %)
11
(16,9 %)
7
(10,8 %)
2
(3,1 %)
1
(1,5 %)
   
Candidats de l’étape finale (n=1044) 162
(15,5)
360
(34,5 %)
131
(12,5 %)
180
(17,2 %)
52
(5,0 %)
59
(5,7 %)
100
(9,6 %)
 
Aucune référence inappropriée au candidat, à l’établissement de recherche ni au domaine de recherche Évaluateurs de l’étape 1 (n=629) 187
(29,7 %)
311
(49,4)
56
(8,9 %)
52
(8,3 %)
15
(2,4 %)
4
(0,6 %)
2
(0,3 %)
2
(0,3 %)
Présidents virtuels de l’étape 1 (n=66) 21
(31,8 %)
27
(40,9 %)
7
(10,6 %)
6
(9,1 %)
3
(4,5 %)
2
(3,0 %)
   
Candidats de l’étape finale (n=1016) 227
(22,3 %)
346
(34,1 %)
68
(6,7 %)
157
(15,5 %)
51
(5,0 %)
57
(5,6 %)
110
(10,8 %)
 
Aucune divulgation de renseignements personnels sur l’évaluateur Évaluateurs de l’étape 1 (n=620) 230
(37,1 %)
291
(46,9 %)
32
(5,2 %)
42
(6,8 %)
9
(1,5 %)
8
(1,3 %)
6
(1,0 %)
2
(0,3 %)
Présidents virtuels de l’étape 1 (n=66) 33
(50,0 %)
25
(37,9 %)
2
(3,0 %)
3
(4,5 %)
3
(4,5 %)
     
Candidats de l’étape finale (n=964) 366
(38,0 %)
339
(35,2 %)
53
(5,5 %)
135
(14,0 %)
11
(1,1 %)
16
(1,7 %)
44
(4,6 %)
 
Date de modification :