BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Association des bibliothèques de recherche du Canada - ECPv6.15.20//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:Association des bibliothèques de recherche du Canada
X-ORIGINAL-URL:https://www.carl-abrc.ca/fr/
X-WR-CALDESC:évènements pour Association des bibliothèques de recherche du Canada
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:America/Toronto
BEGIN:DAYLIGHT
TZOFFSETFROM:-0500
TZOFFSETTO:-0400
TZNAME:EDT
DTSTART:20240310T070000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0400
TZOFFSETTO:-0500
TZNAME:EST
DTSTART:20241103T060000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:-0500
TZOFFSETTO:-0400
TZNAME:EDT
DTSTART:20250309T070000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0400
TZOFFSETTO:-0500
TZNAME:EST
DTSTART:20251102T060000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:-0500
TZOFFSETTO:-0400
TZNAME:EDT
DTSTART:20260308T070000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0400
TZOFFSETTO:-0500
TZNAME:EST
DTSTART:20261101T060000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251027T000000
DTEND;TZID=America/Toronto:20251028T235959
DTSTAMP:20260501T181417
CREATED:20251015T151211Z
LAST-MODIFIED:20251029T135717Z
UID:38166-1761523200-1761695999@www.carl-abrc.ca
SUMMARY:Atelier des bibliothèques canadiennes sur l’évaluation 2025
DESCRIPTION:« All Events\n \n\n	Atelier des bibliothèques canadiennes sur l’évaluation 2025\n\n			October 27\, 2025\n	  –\n	October 28\, 2025\n	 \nL’Association des bibliothèques de recherche du Canada et la bibliothèque et les archives Dr. John Archer de l’Université de Regina vous invitent à participer à l’atelier des bibliothèques canadiennes sur l’évaluation (ABCE) 2025 qui se tiendra en personne à Regina\, en Saskatchewan\, du 27 au 28 octobre 2025. \nL’atelier est conçu pour intéresser un éventail de bibliothécaires universitaires engagés dans l’évaluation à différents niveaux d’expérience. Le programme consistera en une série d’études de cas et d’ateliers pratiques offrant aux participants des méthodes\, des outils et des techniques efficaces à intégrer dans leur pratique quotidienne de l’évaluation. \nBien que les présentations soient faites en anglais\, les diapositives et les supports seront traduits en français et mis à disposition à l’avance. \n\n	Regina\, Saskatchewan\n\n	Regina\,\n	Saskatchewan\n	Canada\n\n\n	+ Google Map \n\n					\n						\n	 \n\n\n\n					\n				Comité de programme\n		\n				\n				Voyage & Hébergement\n		\n				\n				Coût & Inscription\n		\n				\n				Programme\n		\n				\n				Sessions\n		\n				\n				Ateliers précédents\n		 \nComité de programme\n\nChristine Brown (Présidente)\, Head\, Faculty Engagement (Social Sciences + Humanities)\, University of Alberta \nKatrina Fortner\, Administration and Communications Coordinator\, Ontario Council of University Libraries\nShahira Khair\, University of Victoria\nJuliene McLaughlin\, Assessment & UX Librarian\, University of Guelph\nConnie Winther\, Head\, Faculty Engagement (Health Sciences)\, University of Alberta\nKaren Wiome\, Library Administrator\, University of Regina\nJulie Morin\, Agente principale de programme\, ABRC\n\nVoyage et hébergement\nUn bloc de chambres avec le Atlas Hotel a été réservé au tarif de 149\,95 $ par nuit. Vous pouvez réserver en appelant le 1-306-586-3443 ou en envoyant un courriel à guestambassador@atlashotel.com avec le code : 102625CLA. \nPlan du campus de l’Université de ReginaLa bibliothèque Archer est désignée par le code du bâtiment = LY \nRestauration à ReginaDes dîners-rencontres seront organisés avant l’atelier. \nCoût et inscription\nVeuillez vous inscrire avant le 26 septembre en remplissant ce formulaire et voir les détails de paiement ci-dessous. \nFrais : 430\,00 $ CA [Veuillez noter que ces frais sont supprimés pour les conférenciers\, qui sont uniquement tenus de remplir le formulaire d’inscription lié ci-dessus.] \nLes frais d’inscription comprennent le petit-déjeuner\, les collations et le repas du midi\, et une réception la soirée du 27 octobre. Veuillez nous informer de toute restriction alimentaire lors de votre inscription. \nLes participants qui préfèrent payer par virement électronique peuvent adresser leurs fonds à finance@carl-abrc.ca \nLes participants qui préfèrent payer par carte de crédit ou PayPal peuvent le faire en utilisant le lien ci-dessous. \n					\n				Lundi 27 octobre\n		\n				\n				Mardi 28 octobre\n		 \n\nEdit\n\n\nHeure\nSession                                                                                 \nConférenciers.ères\n\n\n\n\n 8h00 – 8h45   \n Petit-déjeuner et inscription                                                                        \n                                                                                                             \n\n\n 8h45 – 9h00   \n Bienvenue                                                                                              \n Dr David Gregory (Université de Regina) et comité de programme                                              \n\n\n 9h00 – 9h20   \n Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary                                   \n Justine Wheeler & Mary-Jo Romaniuk (Université de Calgary)                                                  \n\n\n 9h25 – 9h45   \n Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires                                          \n Sabina Pagotto (Scholars Portal) et Katrina Fortner (Conseil des bibliothèques universitaires de l’Ontario) \n\n\n 9h50 – 10h10  \n Planification stratégique efficace : étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa               \n Katrine Mallan (Université d’Ottawa)                                                                        \n\n\n 10h15 – 10h35 \n De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques                     \n Sam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western)                                                \n\n\n 10h35 – 11h00 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 11h00 – 11h20 \n Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque                                                   \n Sarah Coysh & Sheril Hook (Université York)                                                                 \n\n\n 11h25 – 11h45 \n Évaluer le succès d’un projet dans les bibliothèques académiques                                                                  \n Jessica Lange & Nailisa Tanner (Université McGill)                                                          \n\n\n 11h45 – 13h00 \nDîner                                                                                                    \n                                                                                                             \n\n\n 13h00 – 13h20 \n Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation                                   \n Juliene McLaughlin & Robin Bergart (Université de Guelph)                                                   \n\n\n 13h25 – 13h45 \n Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques \n Ali Foster\, Abigail Graham\, et David Pearson (Université MacEwan)                                           \n\n\n 13h45 – 14h10 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 14h10 – 16h10 \n Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques                                              \n Julie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser)                          \n\n\n 16h30         \n Réception                                                                                                                         \n                                                                                                             \n\n\n\n\nEdit\n\n\nHeure\nSession\nConférenciers.ères\n\n\n\n\n 8h00 – 8h50   \n Petit-déjeuner                                                                                                                                     \n                                                                                     \n\n\n 8h50 – 9h00   \n Bienvenue / Annonces                                                                                                                               \n                                                                                     \n\n\n 9h00 – 10h30  \n Dix projets d’évaluation récents que nous aimons                                                                                                   \n Justine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \n\n\n 10h30 – 11h00 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 11h00 – 11h30 \n Conférences éclair                                                                                                                                 \n Divers intervenants : Université de Regina\, Université de Toronto                   \n\n\n 11h30 – 13h00 \nDîner\n                                                                                     \n\n\n 13h00 – 13h20 \n Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs                                   \n Michelle Goodridge (Université Wilfrid Laurier)                                     \n\n\n 13h25 – 13h45 \n Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information            \n Amy McLay Paterson (Université Thompson Rivers)                                     \n\n\n 13h50 – 14h10 \n Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques     \n Rong Luo\, Shuzhen Zhao\, et Karen Pillon (Université de Windsor)                     \n\n\n 14h10 – 14h30 \n Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail    \n Sarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill)       \n\n\n 14h30 – 14h45 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 14h45 – 15h05 \n Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs \n Jody Nelson & Alison Pitcher (Université MacEwan)                                   \n\n\n 15h10 – 15h40 \n Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections                                        \n Erin Calhoun (Université de Toronto)                                                \n\n\n 15h45 – 16h05 \n « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée                   \n Ze’ev Schneider (Bibliothèque du Parlement)                                         \n\n\n\n					\n				Lundi 27 octobre\n		\n				\n				Mardi 28 octobre\n		 \n\n\n					 9h00 – 9h20 – Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary\n									\nJustine Wheeler & Mary-Jo Romaniuk (Université de Calgary) \nLes présentateurs décriront l’étude d’impact sur les bibliothèques et les ressources culturelles  à l’Université de Calgary. Cette étude se concentre sur l’expérience de deux groupes d’utilisateurs distincts : les professeurs et les étudiants. Il a été réalisé en étroite collaboration avec Implement Consulting Group. \nLe but de cette étude est de mieux comprendre le rôle et l’impact de les bibliothèques et les ressources culturelles dans la vie académique des étudiants et du corps professoral en capturant et en mesurant ce qui se passe lorsque ces utilisateurs s’engagent avec les bibliothèques et les ressources culturelles. De plus\, l’étude vise à inspirer et informer les décisions stratégiques futures et les plans pour les bibliothèques et les ressources culturelles. \nL’étude est basée sur un cadre Impact Compass\, qui est une approche de méthodes mixtes conçue pour explorer comment les expériences culturelles impactent les individus. La boussole sert d’outil pour communiquer de manière quantitative comment un individu expérimente un produit ou service culturel particulier\, tout en utilisant également l’analyse qualitative des données pour obtenir une compréhension plus approfondie des résultats. \nBien que le cadre Impact Compass ait déjà été utilisé pour les bibliothèques publiques\, il n’avait jamais été utilisé dans un contexte de recherche en bibliothèque. Pour s’assurer que la boussole d’impact a résonné dans le contexte du personnel de les bibliothèques et les ressources culturelles\, les étudiants et les professeurs ont été consultés\, et des adaptations significatives ont été apportées à la boussole. \nPlus précisément\, ce processus collaboratif a permis de déterminer quatre piliers de l’expérience des bibliothèques : l’espace\, les collections et les ressources numériques\, le soutien à l’enseignement et à l’apprentissage et le soutien à la recherche.  Chaque pilier s’est vu attribuer une boussole d’impact.  Chaque boussole a été divisée en quatre dimensions d’impact : émotionnelle\, intellectuelle\, sociale et créative.  Chaque dimension se composait de trois paramètres qui ont été testés et affinés pour refléter les besoins et le contexte d’une bibliothèque de recherche. Les données qualitatives ont ensuite été utilisées pour apporter des nuances et une compréhension de la boussole. À partir de cela\, des profils d’impact ont été développés. \nLes présentateurs discuteront des résultats de l’étude\, y compris les profils d’impact pour les étudiants et le corps professoral. Enfin\, les présentateurs discuteront de la façon dont les résultats de l’étude ont été utilisés et des plans pour une utilisation future. \nObjectifs d’apprentissage : \n\nCompréhension de base de la méthode utilisée pour cette étude.\nPotentiellement\, obtenir un aperçu des résultats de l’étude qui pourrait être généralisable à leur propre contexte\n\n\n\n\n					 9h25 – 9h45 – Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires\n									\nSabina Pagotto (Scholars Portal) and Katrina Fortner (Ontario Council of University Libraries) \nÀ la fin de 2024\, les directeurs de bibliothèques qui composent le Conseil des bibliothèques universitaires de l’Ontario (CBUO) ont demandé de l’aide pour expliquer la valeur des services qu’ils reçoivent du CBUO et de son service Scholars Portal aux cadres supérieurs d’universités en dehors de la bibliothèque. Étant donné que plus de 20 établissements varient considérablement en taille\, intensité de recherche et priorités institutionnelles\, il n’y avait pas de consensus sur les types d’information qui seraient utiles pour communiquer aux cadres supérieurs. Certaines institutions\, par exemple\, préféraient les chiffres réels et demandaient spécifiquement le retour sur investissement ou les économies de coûts ; d’autres ont estimé que les déclarations sur les avantages qualitatifs seraient des arguments plus convaincants auprès de leurs administrateurs. \nEn réponse à cette demande\, le groupe de communication CBUO-Scholars Portal s’est mis en action. Nous avons étudié diverses façons de calculer la valeur et les économies de coûts dans différents services ou domaines d’opérations\, jusqu’à ce que nous ayons identifié une gamme de points de données que nous pensions pouvoir calculer en toute confiance pour chaque institution. Nous avons également rédigé des énoncés de valeur qui énoncent les avantages ou les résultats des services consortiaux et que nous nous attendions à voir résonner chez les administrateurs autres que ceux des bibliothèques. Une fois que nous avons eu un ensemble solide de déclarations\, nous avons demandé aux directeurs de bibliothèque de classer les déclarations qui\, selon eux\, seraient les plus utiles pour leur établissement. À l’aide d’un modèle conçu par notre équipe de services web\, nous avons ensuite généré des rapports personnalisés pour chaque institution qui a répondu. Ces rapports ont été distribués avec la documentation à l’appui qui fournissait plus de contexte pour permettre aux directeurs de bibliothèque de discuter en toute confiance de ces rapports avec les administrateurs de leur établissement\, reliant les points entre le coût de la bibliothèque ou les économies de ressources et les impacts positifs sur la communauté du campus. \nCette session discutera des défis\, des opportunités et des leçons apprises tout au long du projet. \nLes participants apprendront comment : \n\nDiscuter des méthodologies pour calculer les économies de coûts dans les services consortiaux\nAdoptez une optique de communication pour l’évaluation et considérez le rôle du public lors de la communication de la valeur\nPensez de manière critique aux statistiques et aux valeurs calculées et comprenez l’importance de savoir d’où viennent les chiffres\n\n\n\n\n					 9h50 – 10h10 – Planification stratégique efficace: étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa\n									\nKatrine Mallan (Université d’Ottawa) \nCette séance présentera comment la bibliothèque de l’Université d’Ottawa utilise le Cadre d’impact des bibliothèques de l’ABRC pour apporter plus de clarté\, de cohérence et d’évaluabilité à la mise en œuvre de notre nouveau plan stratégique. \nEn utilisant une orientation stratégique comme étude de cas\, j’expliquerai aux participants comment notre groupe de gestion des bibliothèques a élaboré en collaboration un modèle logique pour cartographier les activités clés\, les extrants\, les auditoires\, les résultats et les hypothèses sous-jacentes. Ce processus nous a aidés à aller au-delà des aspirations générales pour définir des actions tangibles\, tester la plausibilité du parcours d’impact et jeter les bases d’une évaluation significative. \nEn ancrant notre planification dans le cadre de l’ABRC\, nous avons établi une compréhension commune de la façon dont notre travail crée un impact et établi une ligne de mire plus claire entre la stratégie et la mise en œuvre. \nLa session mettra en évidence comment l’utilisation des modèles logiques : \n\nNous a aidés à rendre notre stratégie plus réalisable ;\nFait apparaître des hypothèses et clarifié les résultats escomptés ;\nCréé une base plus solide pour les futurs travaux d’évaluation.\n\nCette étude de cas est particulièrement pertinente pour les bibliothèques qui cherchent à combler le fossé entre la planification stratégique et l’exécution opérationnelle\, et pour celles qui visent à intégrer la pensée évaluative sans surcharger le personnel ou les ressources. \nObjectifs d’apprentissage : À la fin de la session\, les participants seront en mesure de : \n\nComprendre comment le cadre d’impact des bibliothèques de l’ABRC peut soutenir la mise en œuvre du plan stratégique.\nIdentifier les éléments clés d’un modèle logique simple qui clarifient l’intention et soutiennent l’évaluation future.\nRéfléchir à la façon dont une réflexion évaluative précoce peut améliorer la cohérence et la faisabilité des efforts de planification stratégique.\n\nCette session est conçue pour être pratique et transférable\, en particulier pour les bibliothèques qui naviguent entre le milieu désordonné de la conception et de l’exécution de la stratégie. Notre étude de cas vise à susciter des idées pour les bibliothèques cherchant à intégrer l’évaluation dans leurs pratiques de planification et à rendre l’intention stratégique plus actionnable et visible. \n\n\n\n					 10h15 – 10h35 – De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques\n									\nSam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western ) \nLes bibliothèques académiques collectent un large éventail de données via diverses plateformes\, outils et procédures. Cependant\, le personnel et la direction ont souvent du mal à accéder à ces données ou à les interpréter. À Western Libraries\, nous avions un défi commun. Les données étaient difficiles à trouver\, hébergées sur différentes plateformes\, suivies de manière incohérente parmi nos équipes et difficiles à connecter pour une prise de décision fondée sur des preuves à tous les niveaux. \nPour aider à cela\, nous développons un tableau de bord en temps réel qui favoriserait la transparence et l’accessibilité à nos données. Ce tableau de bord vise à soutenir la prise de décision fondée sur des preuves dans l’ensemble de l’organisation pour aider à la planification stratégique\, à l’allocation des ressources et aux opérations. \nLe projet a commencé par des consultations avec les dirigeants pour déterminer la portée du projet et définir les objectifs clés. Cela a été suivi d’une série de réunions internes sur l’inventaire des données avec les principaux intervenants de nos services aux utilisateurs et de nos équipes de la haute direction pour comprendre quelles données étaient recueillies\, comment et par qui. Ces réunions ont révélé des lacunes dans la collecte de données\, ainsi que des différences clés dans la façon dont toutes les équipes visualisent et utilisent leurs données. En parallèle\, nous avons également travaillé avec des membres de notre équipe LITS (Library Information Technology Services) pour évaluer les exigences techniques\, explorer les options de visualisation et identifier quelles seraient les options les plus durables à long terme. \nDans cette session\, nous partagerons notre processus de planification\, les leçons apprises et les étapes pratiques que nous avons utilisées pour cartographier et consolider nos données à travers un grand système de bibliothèque. Nous discuterons également de la façon dont nous avons encadré notre processus en utilisant ADKAR (Sensibilisation\, Désir\, Connaissance\, Capacité\, Renforcement) pour soutenir un changement durable et contribuer à une culture d’évaluation dans les bibliothèques occidentales. \nObjectifs d’apprentissage/ Principaux points à retenir \n\nLes participants seront en mesure d’identifier et de consolider les données existantes et de déterminer les lacunes et les solutions dans la collecte de données actuelle.\nLes participants seront en mesure de comprendre le processus précoce de conception d’une « plateforme » pour accroître l’accès aux données institutionnelles.\nLes participants auront des idées pour appliquer des stratégies de gestion du changement afin de promouvoir l’adoption et soutenir les initiatives d’évaluation.\n\n\n\n\n					 11h00 – 11h20 – Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque\n									\nSarah Coysh & Sheril Hook (Université York) \nQui passe du temps et combien de temps passent-ils dans nos bibliothèques ? C’est la question qui nous a poussés à tenir un Jour du recensement dans toutes nos bibliothèques. Nous avons capturé le trafic de bibliothèque de 19232 entrées/sorties à travers la journée.  Nous avons sélectionné dix-sept points de données à enregistrer\, y compris le code postal actuel\, le niveau du diplôme\, le pendulaire ou en résidence\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96 % de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes chacun. \nComme Dillalogue & Koehn (2020)\, nous voulions aller plus loin que le comptage des portes seul\, alors nous avons créé un outil de tap-in/tap-out pour permettre aux utilisateurs d’utiliser volontairement leur identifiant de campus lorsqu’ils entrent et sortent de nos six bibliothèques en une seule journée en 2025. Nous avons calqué ce projet d’évaluation sur celui des bibliothèques de McGill qui ont déjà organisé un événement semblable.  Notre objectif était de capturer 80% du trafic en une seule journée pendant nos heures d’ouverture.  Nous avons également utilisé le jour du recensement comme catalyseur pour notre enquête LibQUAL+ pour laquelle nous avons reçu plus d’enquêtes complétées que les années précédentes. \nDeux approches ont été essentielles au succès du jour du recensement : la participation de tout le personnel de la bibliothèque et l’établissement d’un partenariat avec le Bureau de la planification et de l’analyse institutionnelle (OIPA).  Le personnel a été impliqué dans l’établissement du système de numérisation des cartes d’identité ; la logistique du jour pour chaque bibliothèque ; attribution des rôles le jour du recensement; développer et diffuser des ressources de communication ; célébrant le succès de la journée ; aider à l’analyse préliminaire des résultats).  Le partenariat avec OIPA nous a permis de sélectionner parmi plus de 200 points de données ; maintenir l’anonymat des données ; et nous a fourni le langage pour décrire l’analyse dans les contraintes de protection des données des clients. \nNous avons sélectionné dix-sept points de données\, y compris le code postal actuel\, le niveau du diplôme\, la personne qui fait la navette ou qui réside\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96% de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes. \nDans cette session\, nous partagerons des détails sur ce que nous avons appris sur les utilisateurs des bibliothèques et combien de temps ils restent\, y compris les données qui nous ont surpris et le suivi des idées d’évaluation. \nLes participants découvriront la variété des points de données collectés par les institutions académiques et comment ceux-ci peuvent être utiles pour éclairer les décisions concernant les heures\, le personnel\, la conception de l’espace\, la circulation\, etc. \nLes participants découvriront un système de tableau de bord open-source (Metabase) qui permet d’interroger les données pour la visualisation des données. \nLes participants recevront également un lien vers une pochette contenant des conseils sur la façon de mener leur propre journée de recensement. \nRéférence : \nDillalogue\, E.\, & Koehn\, M. (2020). Assessment on a Dime : Collecte de données utilisateur à faible coût pour l’évaluation. Bibliothèque basée sur des preuves et pratique d’information\, 15(3)\, 2–20. https://doi.org/10.18438/eblip29582 \n\n\n\n					 11h25 – 11h45 – Évaluer le succès d’un projet dans les bibliothèques académiques\n									\nJessica Lange & Nailisa Tanner (Université McGill) \nAu début de tout projet\, les parties prenantes définissent ce qui constitue le succès. Cette définition est ensuite utilisée à la fin du projet pour évaluer si ces objectifs ont été atteints et finalement déterminer si le projet a été « réussi » ou non. Les mesures typiques utilisées dans la gestion de projet\, telles que les indicateurs clés de performance (KPI) et l’utilisation des ressources\, bien qu’elles soient potentiellement utiles\, s’adressent aux entreprises ou aux lieux de travail à but lucratif et peuvent ne pas être les plus pertinentes ni transférables aux environnements académiques où le profit n’est pas un facteur pertinent. \nAprès avoir terminé plusieurs projets dans l’unité de technologie des bibliothèques de McGill et en utilisant des mesures typiques pour évaluer les projets\, il est devenu clair que bien que ces mesures répondaient au « quoi » d’un projet\, elles ne répondaient pas au « comment ». Les projets pourraient être achevés à temps et atteindre leurs objectifs\, mais ils peuvent avoir rencontré des problèmes importants au cours de leur déroulement\, tels qu’une mauvaise planification\, des conflits d’effectifs et des délais serrés. Définir le succès en termes aussi étroits a laissé le personnel insatisfait\, en particulier si le projet a rencontré des défis importants. Faire une rétrospective sur le projet est un modèle pour capturer des retours qualitatifs\, permettant aux membres de l’équipe d’apprendre et de grandir à partir (parfois) d’expériences négatives. Cela peut fournir un contexte supplémentaire en dehors des mesures de succès typiques. \nLes objectifs d’apprentissage de cette présentation incluent : \n\nDécrire brièvement les outils de base de la documentation de gestion de projet (par exemple\, charte\, rétrospective).\nÉnoncez les métriques communes utilisées pour évaluer le succès du projet\nDiscuter d’un modèle\, y compris des rétrospectives\, qui capture les commentaires qualitatifs des participants sur le succès du projet dans un environnement académique\n\n\n\n\n					 13h00 – 13h20 – Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation\n									\nJuliene McLaughlin & Robin Bergart (Université de Guelph) \nComme le dit le proverbe\, « si ce n’est pas cassé\, ne le réparez pas. » Mais parfois\, ce n’est pas aussi clair quand un service de bibliothèque est bien tel qu’il est et devrait être laissé seul\, ou s’il commence à se casser\, ou s’il est déjà cassé.  Pendant de nombreuses années\, notre bibliothèque a maintenu une page Web publique répertoriant les bases de données\, et en 2016\, nous avons mis en œuvre la liste A-Z de bases de données de Springshare. Au cours de cette période\, notre équipe UX a mené des études d’utilisabilité\, recueilli des analyses web et surveillé la documentation de la bibliothèque. Nous avons recommandé des changements progressifs pour s’assurer que cette page est aussi utilisable et utile que possible. Cependant\, plus récemment\, nous avons commencé à nous demander si cette page est toujours pertinente et si elle fait plus de mal que de bien. Après une enquête approfondie sur l’UX\, nous n’avons pas pu parvenir à une conclusion définitive\, mais notre intuition selon laquelle il y a un problème n’a pas disparu.  Que faites-vous lorsque votre instinct vous dit qu’il y a un problème\, mais que les preuves ne sont pas concluantes ? Quand devriez-vous abandonner les améliorations progressives et apporter un changement radical ? Qui décide ? \nObjectifs d’apprentissage : \n\nDiscutez du rôle de l’intuition professionnelle dans le travail sur l’expérience utilisateur\, y compris comment équilibrer les sentiments instinctifs avec des preuves empiriques.\nReconnaître les signes indiquant qu’un service de bibliothèque peut ne plus répondre aux besoins des utilisateurs\, même lorsque les indicateurs d’utilisabilité traditionnels sont peu concluants.\nÉvaluer la tension entre l’amélioration progressive et la refonte radicale et identifier des stratégies pour prendre des décisions éclairées sur le moment de changer d’approche.\n\n\n\n\n					 13h25 – 13h45 – Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques\n									\nAli Foster\, Abigail Graham\, et David Pearson (Université MacEwan) \nCette brève présentation met en évidence les expériences et les leçons tirées d’une refonte complète d’un site Web de bibliothèque de premier cycle axé sur l’amélioration de l’expérience utilisateur pour les étudiants de premier cycle. L’équipe du projet était composée de quatre employés : un graphiste\, un informaticien et deux bibliothécaires. Le principal défi auquel l’équipe a été confrontée était de développer un protocole d’expérience utilisateur (UX) qui privilégiait les perspectives des étudiants tout en obtenant le soutien du personnel de la bibliothèque pour les changements proposés à nos pratiques d’évaluation existantes. \nAvant le lancement du projet à l’automne 2023\, les efforts de refonte du site web précédents tenaient principalement compte des opinions du personnel et du corps professoral de la bibliothèque. Par conséquent\, l’architecture de l’information du site et le ton de la voix ont été signalés comme des domaines d’amélioration potentiels lors du processus de refonte. Cette préoccupation a été validée lorsque l’équipe a collaboré avec des étudiants de troisième année en anthropologie menant des études ethnographiques du site web de la bibliothèque. Dans les deux discussions avec les étudiants et dans leurs rapports formels\, il est devenu clair qu’ils ont trouvé le site web inaccessible\, déroutant et peu accueillant pour les étudiants. À cette fin\, l’équipe du projet a développé un protocole UX qui visait à prioriser les perspectives des étudiants ainsi que les meilleures pratiques en matière de conception web accessible et inclusive. \nCette présentation fournira un bref aperçu du projet\, des exemples clés d’outils d’expérience utilisateur axés sur les étudiants que nous avons appliqués\, ainsi que nos observations et leçons apprises alors que nous continuons à évaluer et à affiner le site web de la bibliothèque. \nRésultats d’apprentissage – Les participants : \n\nComprendre comment mettre en œuvre des pratiques d’expérience utilisateur axées sur les étudiants dans un projet de conception web\nEnvisager des méthodes pour encourager l’adhésion du personnel de la bibliothèque à la conception de sites web axés sur les étudiants\nIdentifier des moyens de collecter et de mettre en œuvre durablement les retours des étudiants sur une base continue\n\n\n\n\n					 14h10 – 16h10 – Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques\n									\nJulie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser) \nLes praticiens de l’évaluation en bibliothèque peuvent intégrer les outils et techniques de dialogue pour faciliter des évaluations communautaires significatives et inclusives—avec les utilisateurs de la bibliothèque ainsi que les collègues de la bibliothèque. Cet atelier présentera la théorie\, les connaissances et les compétences pour faciliter le dialogue dans le travail d’évaluation des bibliothèques. \nLe dialogue peut être défini de nombreuses manières. C’est une méthode pour articuler les besoins\, les désirs et les hypothèses sous-jacentes dans des groupes qui rejette les dynamiques de pouvoir hiérarchiques et qui est axée sur la transformation. Il utilise des pratiques participatives pour organiser des conversations génératives\, être plus inclusif\, favoriser l’apprentissage mutuel\, centrer l’expertise vécue et exploiter la sagesse collective. Il « peut aider les groupes et les communautés à explorer respectueusement des questions polarisantes\, à aborder les conflits\, à délibérer sur le potentiel de problèmes complexes et bien plus encore » (Morris J. Wosk Centre for Dialogue\, Université Simon Fraser\, n.d.). Dans son livre de 1999\, Dialogue and the Art of Thinking Together\, William Issacs a succinctement et plutôt magnifiquement défini le dialogue comme « une conversation avec un centre\, pas des côtés » (p. 19). Williams a ensuite déclaré : « C’est une façon de prendre l’énergie de nos différences et de la canaliser vers quelque chose qui n’a jamais été créé auparavant. » Il nous élève hors de la polarisation et vers un sens commun plus grand\, et est ainsi un moyen d’accéder à l’intelligence et au pouvoir coordonné de groupes de personnes » (p. 19). \nLes participants à cet atelier apprendront comment le sous-groupe du plan d’instruction du Groupe de travail pour la formation et l’éducation en matière d’information (WGILI) de la bibliothèque SFU utilise des méthodes en dialogue pour évaluer les besoins de leurs collègues instructeurs et intégrer l’expertise vécue de leurs collègues dans le nouveau plan d’instruction de la Bibliothèque\, que le sous-groupe est en train de créer. Après une introduction à la théorie et au contexte SFU\, les participants seront invités à assumer le rôle de participants dans un dialogue structuré créé par le sous-groupe pour évaluer les besoins des instructeurs de bibliothèque à la bibliothèque SFU. Ce dialogue facilitera la connaissance co-construite\, le leadership distribué\, la pollinisation croisée des idées et la création de sens partagée et visible. \nAprès avoir expérimenté le dialogue structuré en tant que participants\, les participants seront invités à assumer le rôle de facilitateurs pendant que nous « tirons le rideau » et examinons et réfléchissons aux composantes\, à la conception et aux résultats du dialogue. Nous partagerons la théorie derrière les décisions prises et les actions entreprises et discuterons de la transférabilité des méthodes de facilitation utilisées\, en mettant l’accent sur l’application pratique des concepts et principes théoriques dans d’autres contextes d’évaluation de bibliothèques. Des modèles et des ressources de facilitation que les participants peuvent apporter dans leur pratique d’évaluation seront partagés. Nous discuterons également des avantages d’apporter des méthodes de dialogue et de facilitation dans le travail d’évaluation des bibliothèques. \nObjectifs d’apprentissage  \nÀ la fin de cet atelier\, les participants pourront : \n\nComprendre le dialogue comme une méthodologie.\nAppliquer des techniques de facilitation qui permettent le dialogue et favorisent des conversations significatives dans un cadre d’évaluation en bibliothèque.\nDévelopper des perspectives d’évaluation en utilisant des méthodes de facilitation et de dialogue.\n\nRéférences  \nIsaacs\, W. (1999). Le dialogue et l’art de penser ensemble : une approche pionnière pour communiquer dans les affaires et dans la vie (1ère éd). Monnaie. \nMorris J. Wosk Centre for Dialogue\, Université Simon Fraser (n.d.). Qu’est-ce que Dialogue ? Récupéré le 1 juin 2025\, de https://www.sfu.ca/dialogue/learn/what-is-dialogue.html \n\n\n\n					 9h00 – 10h30 – Dix projets d’évaluation récents que nous aimons\n									\nJustine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \nLe paysage de l’évaluation est en train de changer.  Il y a un changement continu vers une focalisation sur la valeur et l’impact\, une augmentation de l’évaluation qualitative et des méthodes mixtes\, ainsi que des explorations naissantes dans le rôle de l’intelligence artificielle générative dans l’évaluation. Dans notre environnement actuel\, il peut être difficile de suivre les nouvelles initiatives et développements – surtout avec un temps\, des ressources et/ou une technologie limités. \nDans cette session amusante et rythmée\, les présentateurs partageront leurs récents projets d’évaluation et pratiques\, ainsi que des pratiques innovantes dans d’autres bibliothèques. Bien que bon nombre des projets abordés dans la présentation proviennent de bibliothèques universitaires\, tous les projets peuvent être appliqués dans des milieux universitaires\, publics\, gouvernementaux et autres. De plus\, les exemples vont des projets et pratiques qui peuvent être réalisés avec des ressources limitées (temps\, argent\, technologie)\, aux exemples plus intensifs en ressources. \nLes projets et les pratiques présentés varieront en ce qui concerne l’objectif (collections\, espace\, instruction\, etc.)\, la méthodologie (point d’utilisation\, collections prédictives\, photo voice\, etc.)\, la période de temps (transversale\, longitudinale) et la portée de l’impact (individuel\, institutionnel\, sociétal). \nRésultats d’apprentissage : \nCette session s’adresse aux bibliothécaires qui souhaitent découvrir de nouvelles perspectives ou méthodologies dans le domaine de l’expérience utilisateur des bibliothèques\, de l’évaluation ou de la pratique de l’impact. L’objectif de la session est que les participants repartent avec une nouvelle approche de l’évaluation qu’ils peuvent appliquer dans leur bibliothèque. \nDu temps sera également accordé aux membres de l’auditoire pour partager leur propre initiative d’évaluation récente et passionnante. \n\n\n\n					 11h00 – 11h30 – Conférences éclair\n									\nAu-delà des bugs : Utiliser une fonctionnalité ‘Signaler un problème’ pour comprendre les attentes des utilisateurs (Université de Regina) \nEn février 2023\, l’Université de Regina a mis en place une fonctionnalité de signalement d’un problème dans son système de découverte. Depuis lors\, plus de 600 rapports ont été soumis\, et cela est devenu un canal de rétroaction essentiel. Grâce à ces rapports\, nous avons acquis un aperçu des aspects de l’expérience de recherche et de découverte que les clients trouvent déroutants\, contre-intuitifs ou frustrants. Ces rapports de problèmes soumis par les utilisateurs mettent fréquemment en évidence des incohérences entre la fonctionnalité du système et les besoins et hypothèses des utilisateurs. En analysant ces rapports\, nous avons pu mieux comprendre le comportement et les attentes des utilisateurs à l’égard du système de la bibliothèque et de la bibliothèque en général. Cette présentation éclair décrira comment ces rapports ont été analysés\, et les idées acquises grâce à ce processus. \nTests d’utilisabilité et d’accessibilité : Utilisation d’un protocole de réflexion à voix haute comme outil d’évaluation pour les systèmes de revues ouvertes – Caitlin Bakker & Christopher Read (Université de Regina) \nDans cette conférence éclair\, les présentateurs partageront leur expérience en matière de tests d’utilisabilité et d’accessibilité dans le cadre du lancement par l’Université de Regina des Proceedings of the Canadian Nuclear Society in Open Journal Systems (OJS). Cette présentation éclair se concentrera sur les meilleures pratiques et les points à retenir de l’utilisation d’un protocole de réflexion à voix haute pour évaluer la collection et sa fonctionnalité de recherche. L’objectif principal de ces tests était de permettre à diverses communautés d’utilisateurs de s’engager dans une recherche efficace d’informations\, qu’ils accèdent au système via des ordinateurs de bureau ou des appareils mobiles. La session couvrira les aspects pratiques de la méthodologie de test\, tels que le travail avec un stage en bibliothèque à distance. Les participants peuvent s’attendre à en apprendre davantage sur des techniques spécifiques de test d’utilisabilité\, y compris les invites\, les lecteurs d’écran\, l’enregistrement et d’autres aspects du test think aloud\, et comment ils peuvent fournir un aperçu critique pour améliorer la conception du système et la satisfaction des utilisateurs. \nDemander à Chat à propos de LibrarySearch – Susan Bond (Université de Toronto) \nÀ l’Université de Toronto\, nous avons ajouté ces dernières années notre outil d’aide par chat intégré à notre couche de découverte – Ex Libris Primo VE\, que nous avons étiqueté localement comme LibrarySearch. Parce que LibrarySearch est un outil en libre-service\, chaque discussion lancée représente un point de repère potentiel – c’est une façon pour les utilisateurs de nous faire savoir qu’ils ne sont pas capables de se servir. Début 2025\, nous avons entrepris une évaluation exploratoire en examinant les transcriptions de chat d’un mois\, pour voir ce que nous pouvions découvrir sur les défis dans notre interface\, les lacunes dans notre documentation et les problèmes avec nos ressources. Nos conclusions comprenaient des preuves en faveur des changements sur lesquels nous travaillions déjà\, certaines victoires rapides et certaines choses auxquelles nous devrons réfléchir davantage avant de pouvoir les aborder. Dans cette présentation éclair\, nous examinerons nos conclusions spécifiques sur notre interface utilisateur\, notre document de support et la dotation en personnel de notre support de chat\, et aborderons ce que nous avons appris sur notre codage/évaluation et comment nous allons le changer à l’avenir. \n\n\n\n					 13h00 – 13h20– Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs\n									\nMichelle Goodridge (Université Wilfrid Laurier) \nEn 2017\, un partenariat bibliothécaire-faculté a conduit à la création d’une simulation en classe pour un cours de première année de premier cycle sur les droits humains mondiaux. Les étudiants ont assumé des rôles représentant des acteurs mondiaux (par exemple\, des États-nations et des ONG) pour répondre à une crise simulée dans le meilleur intérêt de leur propre rôle\, ce qui a conduit à développer des compétences en recherche\, évaluation et pensée critique dans un environnement d’apprentissage actif. Une étude de recherche à méthodes mixtes a évalué l’impact de la simulation\, combinant des données qualitatives issues de réflexions et d’observations avec une analyse quantitative basée sur les critères. Cette session présentera le design de la simulation\, les stratégies d’évaluation et les principales conclusions\, en démontrant comment l’apprentissage par le jeu peut améliorer de manière significative l’engagement et le développement des compétences des étudiants. Les participants auront un aperçu de l’application de ces méthodes dans d’autres contextes pédagogiques et de l’utilisation des données pour plaider en faveur d’une collaboration plus approfondie entre professeurs et bibliothécaires. \n\n\n\n					 13h25 – 13h45 – Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information.\n									\nAmy McLay Paterson (Université Thompson Rivers) \nEn 2023-2024\, les bibliothécaires de l’Université Thompson Rivers ont développé un programme pilote pour transformer un programme de littératie informationnelle principalement monocouche en un programme structuré et intégré. Le projet pilote d’enseignement en bibliothèque de l’anglais 1100 (ELIP) a été développé comme une collaboration entre la bibliothèque et le département d’anglais au printemps 2023 dans le but d’élargir l’enseignement en bibliothèque pour soutenir la réussite des étudiants et leur appartenance. Plutôt que de participer à la session unique habituelle\, les étudiants ELIP désignés participeront à une série de trois tutoriels hebdomadaires pour la bibliothèque. Le projet ELIP s’est déroulé tout au long de l’année académique 2023-24\, période durant laquelle nous avons collecté des données d’affectation des étudiants\, des retours des étudiants\, des retours du corps professoral et des entrées de journal réfléchies des participants bibliothécaires pour déterminer l’efficacité et la durabilité du programme. \nLes lacunes des sessions de littératie informationnelle ponctuelles sont répandues et bien documentées dans notre profession. Nicole Pagowsky déclare que « le one-shot—même s’il y en a plus d’un — rend difficile d’atteindre un apprentissage plus profond\, une pensée critique et une pédagogie inclusive » (2021\, 2). Cependant\, notre approche du projet pilote—ni un cours en une seule fois ni un cours à crédit — est unique dans la littérature établie. \n\nLe programme ELIP a-t-il aidé les étudiants à réussir leurs cours d’anglais associés ?\nUne instruction plus intégrée aide-t-elle à renforcer les relations entre la bibliothèque et la communauté de l’UTR ?\nComment pouvons-nous améliorer nos pratiques d’enseignement pour mieux répondre aux besoins des étudiants ?\n\nSelon chacun de ces indicateurs\, le programme ELIP a amélioré les résultats par rapport au one-shot habituel. Les résultats du sondage auprès des professeurs sont très positifs\, et les instructeurs bibliothécaires ont tous observé la profondeur de l’engagement des étudiants et la construction de relations positives. Cette relation plus étroite avec les étudiants a également abouti à des améliorations tangibles de nos pratiques pédagogiques et des objets d’apprentissage existants. Ma présentation présentera le programme ELIP\, y compris la justification de sa conception; présenter les différentes méthodes d’évaluation que nous avons utilisées ; et discuter de nos résultats et des prochaines étapes. Des supports de cours\, ainsi que des outils d’évaluation (tels que des sondages et des formulaires de consentement) seront mis à la disposition des participants intéressés. \nObjectifs d’apprentissage \nLes participants à cette session pourront : \n\nReconnaître les avantages et les limites d’une myriade de méthodes d’évaluation de la littératie informationnelle.\nConsidérez comment les objectifs de l’enseignement de la littératie informationnelle affectent la conception et l’évaluation des programmes.\nArticuler une variété de mesures du succès de la littératie informationnelle à utiliser dans les communications et discussions internes et externes.\n\n\n\n\n					 13h50 – 14h10 – Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques\n									\nRong Luo\, Shuzhen Zhao\, et Karen Pillon (University of Windsor) \nÀ mesure que l’enseignement de la littératie informationnelle (LI) continue d’évoluer dans les bibliothèques universitaires\, les pratiques d’évaluation doivent suivre le rythme pour garantir des résultats significatifs. Cette session explore l’efficacité de la formation en LI en présentant une étude menée à l’Université de Windsor qui évalue les compétences en LI perçues et démontrées chez les étudiants diplômés de la Faculté des arts\, des sciences humaines et des sciences sociales (FAHSS). Fondée sur le cadre de l’ACRL pour la littératie informationnelle dans l’enseignement supérieur et utilisant une version modifiée du test Beile de littératie informationnelle pour l’éducation (B-TILED)\, l’étude souligne comment les outils d’analyse et d’évaluation structurée peuvent informer\, améliorer et valider les programmes d’instruction de la bibliothèque. \nLa formation à l’LI prend diverses formes\, des séances en classe aux activités d’orientation et aux consultations individuelles\, mais son efficacité passe souvent inaperçue. En comparant les étudiants qui ont reçu un enseignement formel de l’LI avec ceux qui ne l’ont pas reçu\, cette session révèle si la formation est corrélée avec des compétences de recherche plus solides et une confiance accrue dans la navigation des ressources académiques. \nLes participants découvriront une approche d’évaluation flexible et évolutive utilisant B-TILED\, qui combine des données démographiques\, l’auto-évaluation des capacités de recherche et des tests de connaissances objectifs. La session discute également des considérations pratiques pour la conception\, la mise en œuvre et l’analyse de l’enquête à l’aide de SPSS ou de plateformes similaires. \nObjectifs d’apprentissage : À la fin de cette session\, les participants seront en mesure de : \n\nDécrivez comment les outils d’évaluation de la littératie informationnelle peuvent être intégrés dans les programmes d’enseignement des bibliothèques universitaires.\nIdentifiez les composants clés du cadre B-TILED et comprenez comment l’adapter à différents contextes de bibliothèque.\nAnalyser et interpréter la relation entre l’aptitude à la recherche perçue de soi et les compétences en LI mesurées objectivement.\nAppliquer des stratégies d’analyse quantitative de base pour évaluer l’impact de la formation en bibliothèque à l’aide de plateformes analytiques.\nÉlaborer des stratégies fondées sur des données probantes pour améliorer et justifier les efforts d’enseignement de l’LI en réponse aux besoins d’apprentissage des étudiants et aux objectifs institutionnels.\n\n\n\n\n					 14h10 – 14h30 – Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail\n									\nSarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill) \nDepuis plus de 20 ans\, les bibliothèques numérisent et fournissent un accès en ligne à leurs collections pour mieux servir la recherche\, l’enseignement et les objectifs créatifs des universitaires et des non-universitaires. La nature ouverte et en ligne de la plupart des collections numérisées par les bibliothèques a aidé à faciliter l’accès pour de nouveaux publics; cependant\, cette ouverture signifie également que les bibliothèques connaissent comparativement peu ceux qui utilisent ces ressources\, ce qui rend ces ressources difficiles à évaluer pour les bibliothèques. Si vous ne savez pas qui sont vos utilisateurs\, comment pouvez-vous les connaître ? \nLa recherche sur l’expérience utilisateur a gagné en popularité et est largement acceptée dans les bibliothèques comme un ensemble standard de techniques pour évaluer les services et les interfaces des bibliothèques\, et les plateformes de collections numériques ne font pas exception ici. Cependant\, une grande partie de la recherche sur l’expérience utilisateur menée dans le but d’évaluer les programmes et plateformes de collections numériques se limite aux affiliés institutionnels et ne concerne que la plateforme de collections numériques elle-même\, négligeant les questions sur la façon dont les utilisateurs trouvent ces collections en premier lieu ainsi que comment ils les utilisent dans leurs recherches. \nCette présentation rend compte d’une étude à méthodes mixtes menée dans le but d’élargir nos horizons sur qui sont les utilisateurs des collections numériques et comment ils utilisent les ressources numérisées des bibliothèques dans leurs recherches. Notre étude a utilisé des enquêtes anonymes et des entretiens qualitatifs pour atteindre un équilibre entre l’ampleur de la participation et la profondeur des réponses. Reconnaissant la nature ouverte de nos collections numériques\, nous avons inclus des chercheurs académiques indépendamment du lieu ou de l’affiliation institutionnelle\, ainsi que des chercheurs non académiques comme les journalistes\, les artistes\, les blogueurs et les historiens publics. Notre étude a posé trois questions de recherche principales : Qui utilise les collections numérisées des bibliothèques ? Comment les trouvent-ils ? Et enfin\, comment les utilisent-ils dans leurs recherches ? \nDans cette présentation\, nous nous concentrerons sur les méthodes que nous avons utilisées pour cette étude\, leurs résultats et ce que nous avons appris de ce processus. Nous discuterons de l’importance d’utiliser plusieurs types de techniques de recherche pour l’évaluation dans le contexte de la recherche sur l’expérience utilisateur\, et en particulier de ce que ce type de recherche à méthodes mixtes peut contribuer à la suite d’outils de recherche sur l’expérience utilisateur. Les participants apprendront les points forts de la recherche à méthodes mixtes\, comment les techniques de recherche exploratoire peuvent être utilisées pour compléter et améliorer d’autres données évaluatives\, comme les études d’utilisabilité et l’analyse web\, qui peuvent être collectées pour l’évaluation des bibliothèques\, et comment appliquer ces techniques pour répondre à de grandes questions en matière d’expérience utilisateur et d’évaluation des services de bibliothèque. \n\n\n\n					 14h45 – 15h05 – Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs\n									\nJody Nelson & Alison Pitcher (Université MacEwan) \nNotre session présentera le programme d’évaluation de l’enseignement de la littératie informationnelle [LI] dirigé par des pairs que nous facilitons pour les bibliothécaires dans notre université de premier cycle\, y compris l’impulsion\, le développement\, la fondation théorique\, la structure et l’impact. Nous partagerons des observations sur la façon dont le programme contribue à notre compréhension de la pratique d’enseignement réflexif comme étant au cœur de l’évaluation pédagogique et du développement d’une communauté plus cohésive de pratiques pédagogiques parmi les bibliothécaires enseignants impliqués dans le programme. \nNotre programme de mentorat réfléchi entre pairs dans l’enseignement des triangles remplit le mandat de la bibliothèque pour développer des pratiques durables d’évaluation de l’enseignement de l’LI en harmonie avec le plan stratégique de notre université\, Teaching Greatness. Adoptant une approche d’évaluation centrée sur l’étudiant et fondée sur le cadre d’évaluation critique de l’enseignement en bibliothèque développé par McCartin & Dineen (2018)\, notre programme d’évaluation critique de l’LI promeut l’évaluation intentionnelle et continue de l’enseignement cultivée à travers la pratique réflexive. En nous attribuant le travail d’évaluation et d’amélioration en tant qu’enseignants\, nous transférons la charge de l’évaluation (c’est-à-dire remplir des formulaires de retour ou des instruments de mesure) sur les étudiants. \nEn construisant la participation de longue date de notre bibliothèque dans l’enseignement des triangles d’observation et du mentorat pédagogique LI\, notre programme offre des opportunités d’évaluation continue de l’enseignement en combinaison avec un mentorat ciblé par les pairs. Les participants au programme forment des triangles de mentorat par les pairs qui se rencontrent plusieurs fois au cours d’un trimestre académique. Les participants individuels identifient les éléments d’enseignement prioritaires (c.-à-d. le contenu\, l’accessibilité\, les interactions avec les étudiants) au sujet desquels ils aimeraient recevoir des commentaires constructifs; les observateurs pairs adoptent une approche basée sur les points forts\, partageant des retours positifs ainsi que toute suggestion utile pour l’amélioration dans les domaines pré-identifiés. En tant que membres d’une triade de co-mentorat\, les participants visent à favoriser l’excellence dans l’enseignement tout en apprenant les uns des autres\, en collectant des idées pour améliorer les expériences d’apprentissage des étudiants lorsqu’ils s’observent mutuellement. Pour les bibliothécaires en début de carrière en particulier\, l’aspect co-mentorat crée un environnement sûr pour développer la compétence d’enseignement et la confiance. Ce programme permet non seulement une évaluation significative de l’enseignement\, mais offre également aux participants la possibilité de favoriser une pratique réflexive individuelle de manière continue\, soutenue et relationnelle (Lewitzky\, 2020). \nSuite à notre session\, les participants repartiront avec une compréhension de :● La valeur de l’observation relationnelle par les pairs pour l’évaluation de l’enseignement● Le rôle de la pratique pédagogique réflexive pour une amélioration soutenue et continue● Comment notre programme est géré afin qu’il puisse être adapté pour les institutions participantes \nRéférences :Lewitzky\, R.A. (2020). Éduquer\, apprendre et grandir : Une revue du rôle d’enseignement dans la bibliothéconomie académique. Bibliothèques universitaires et de premier cycle\, 27(1)\, 32-40. \nMcCartin\, L. F.\, & Dineen\, R. (2018). Vers une pratique d’évaluation critique et inclusive pour l’enseignement en bibliothèque. Litwin Books. \n\n\n\n					 15h10 – 15h40 – Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections\n									\nErin Calhoun (Université de Toronto) \nLes développements dans l’édition en libre accès\, les modèles d’affaires et les politiques de financement ont amené les communications savantes au sein du travail de développement des collections. De plus en plus\, les fonds pour le développement des collections des bibliothèques sont réaffectés pour couvrir les frais d’édition grâce à des accords transitoires de lecture et de publication. Ce changement s’accompagne d’un besoin pressant de nouveaux cadres d’évaluation – ceux qui vont au-delà des statistiques traditionnelles sur l’utilisation des ressources électroniques pour mesurer la production de publications et l’investissement financier. Les bibliothèques doivent développer des capacités pour recueillir et analyser les données de publication institutionnelle afin d’éclairer les décisions relatives au développement des collections. \nCependant\, évaluer la publication en libre accès n’est pas simple. Les données de publication en libre accès sont souvent présentées dans des formats incohérents et dispersées dans les rapports bibliométriques et ceux des éditeurs\, ce qui entrave l’analyse agrégée. Pour relever ce défi\, les bibliothèques de l’Université de Toronto ont lancé un projet pilote visant à rationaliser la collecte\, le nettoyage et la visualisation des données de publication en libre accès. \nLa courte session partagera des idées tirées du projet pilote\, qui comprend la collecte de rapports sur les données de publication provenant de plusieurs accords d’accès libre\, la normalisation des données dans un modèle unifié\, et construire un tableau de bord interactif pour visualiser l’activité éditoriale et les contributions financières de l’université dans l’édition en libre accès. Le projet a d’abord exploré des solutions basées sur la programmation pour le nettoyage des données\, mais a finalement adopté KNIME – une plateforme open source à faible code – pour gérer les tâches complexes de nettoyage des données de manière évolutive et accessible. \nÀ partir de cette présentation\, les participants : \n\nAcquérir des connaissances sur la façon de suivre et de visualiser la publication en libre accès dans leur établissement\nComprendre les défis liés à la collecte de données sur les publications et les stratégies de collecte de grands ensembles de données non standardisés\nIdentifier des outils\, des outils et des solutions à faible code\, tels que Knime\, pour travailler avec de grands ensembles de données complexes\n\nCette présentation sera utile pour ceux qui s’intéressent aux nouvelles méthodes d’évaluation et sources de données\, aux outils d’analyse des données et à ceux qui cherchent à commencer à travailler avec des données de publication en accès libre. \n\n\n\n					 15h45 – 16h05– « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée\n									\nZe’ev Schneider (Bibliothèque du Parlement) \nLes riches collections de la Bibliothèque du Parlement (la Bibliothèque)\, développées au fil de nombreuses décennies\, sont essentielles à sa mission de contribuer à la démocratie parlementaire canadienne en « gérant et en fournissant des informations et des connaissances fiables\, pertinentes et faisant autorité ». Les collections sont réparties entre plusieurs sections de la Cité parlementaire ainsi qu’une installation d’entreposage hors site. \nDe plus\, une succursale libre-service destinée principalement aux chercheurs de la bibliothèque offre un accès sur place à une collection d’imprimés. Une récente évaluation complète de cette collection a permis de dégager suffisamment d’espace sur les étagères pour de nouvelles acquisitions. En réfléchissant à la façon de développer cette collection et de gérer l’espace\, nous avons réfléchi au rôle actuel et à la valeur de l’impression sur place pour les spécialistes du sujet dans leur travail et leurs recherches\, leur développement professionnel et leur lecture loisir. Ce processus a conduit à la création du sondage utilisateur couvert dans cette présentation. \nDans cette session\, je présenterai l’enquête de la conception aux résultats. \nLa présentation comprendra : \n\nUne introduction à la Bibliothèque du Parlement (le nouveau membre de l’ABRC!)\, y compris ses collections et ses utilisateurs\nÉtapes et itérations dans la conception de l’enquête\nObjectifs de l’enquête\, résultats et résultats prévus\n\nObjectifs d’apprentissage \nLes participants à la conférence apprendront sur \n\nConsidérations lors de la création d’une enquête ciblée pour un groupe d’utilisateurs local\nLes idées glanées à partir des résultats de l’enquête\, y compris l’expérience des répondants sur la collection d’imprimés et l’espace ; et les différences entre les chercheurs plus récents et plus chevronnés dans leur connaissance et leurs préférences pour l’impression sur site\nDéfis et leçons apprises\n\n\n\n\n2025 Canadian Library Assessment Workshop\nOctober 27 – October 28 at Regina\, Saskatchewan\n\n2023 Canadian Library Assessment Workshop\nOctober 23\, 2023 – October 25\, 2023 at London\, Ontario\n\n2019 Canadian Library Assessment Workshop\nOctober 22\, 2019 – October 24\, 2019 at Windsor\, Ontario\n\n2017 Canadian Library Assessment Workshop\nOctober 26\, 2017 – October 27\, 2017 at Victoria\, British Columbia\n\n2015 Canadian Library Assessment Workshop\nOctober 14\, 2015 – October 16\, 2015 at Toronto\, Ontario\n\n\n					\n									En savoir plus sur l’ABCE\n					 \nComité de programme\n\nChristine Brown (Présidente)\, Head\, Faculty Engagement (Social Sciences + Humanities)\, University of Alberta \nKatrina Fortner\, Administration and Communications Coordinator\, Ontario Council of University Libraries\nShahira Khair\, University of Victoria\nJuliene McLaughlin\, Assessment & UX Librarian\, University of Guelph\nConnie Winther\, Head\, Faculty Engagement (Health Sciences)\, University of Alberta\nKaren Wiome\, Library Administrator\, University of Regina\nJulie Morin\, Agente principale de programme\, ABRC\n\nVoyage et hébergement\nUn bloc de chambres avec le Atlas Hotel a été réservé au tarif de 149\,95 $ par nuit. Vous pouvez réserver en appelant le 1-306-586-3443 ou en envoyant un courriel à guestambassador@atlashotel.com avec le code : 102625CLA. \nPlan du campus de l’Université de ReginaLa bibliothèque Archer est désignée par le code du bâtiment = LY \nRestauration à ReginaDes dîners-rencontres seront organisés avant l’atelier. \nCoût et inscription\nVeuillez vous inscrire avant le 26 septembre en remplissant ce formulaire et voir les détails de paiement ci-dessous. \nFrais : 430\,00 $ CA [Veuillez noter que ces frais sont supprimés pour les conférenciers\, qui sont uniquement tenus de remplir le formulaire d’inscription lié ci-dessus.] \nLes frais d’inscription comprennent le petit-déjeuner\, les collations et le repas du midi\, et une réception la soirée du 27 octobre. Veuillez nous informer de toute restriction alimentaire lors de votre inscription. \nLes participants qui préfèrent payer par virement électronique peuvent adresser leurs fonds à finance@carl-abrc.ca \nLes participants qui préfèrent payer par carte de crédit ou PayPal peuvent le faire en utilisant le lien ci-dessous. \n					\n				Lundi 27 octobre\n		\n				\n				Mardi 28 octobre\n		 \n\nEdit\n\n\nHeure\nSession                                                                                 \nConférenciers.ères\n\n\n\n\n 8h00 – 8h45   \n Petit-déjeuner et inscription                                                                        \n                                                                                                             \n\n\n 8h45 – 9h00   \n Bienvenue                                                                                              \n Dr David Gregory (Université de Regina) et comité de programme                                              \n\n\n 9h00 – 9h20   \n Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary                                   \n Justine Wheeler & Mary-Jo Romaniuk (Université de Calgary)                                                  \n\n\n 9h25 – 9h45   \n Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires                                          \n Sabina Pagotto (Scholars Portal) et Katrina Fortner (Conseil des bibliothèques universitaires de l’Ontario) \n\n\n 9h50 – 10h10  \n Planification stratégique efficace : étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa               \n Katrine Mallan (Université d’Ottawa)                                                                        \n\n\n 10h15 – 10h35 \n De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques                     \n Sam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western)                                                \n\n\n 10h35 – 11h00 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 11h00 – 11h20 \n Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque                                                   \n Sarah Coysh & Sheril Hook (Université York)                                                                 \n\n\n 11h25 – 11h45 \n Évaluer le succès d’un projet dans les bibliothèques académiques                                                                  \n Jessica Lange & Nailisa Tanner (Université McGill)                                                          \n\n\n 11h45 – 13h00 \nDîner                                                                                                    \n                                                                                                             \n\n\n 13h00 – 13h20 \n Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation                                   \n Juliene McLaughlin & Robin Bergart (Université de Guelph)                                                   \n\n\n 13h25 – 13h45 \n Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques \n Ali Foster\, Abigail Graham\, et David Pearson (Université MacEwan)                                           \n\n\n 13h45 – 14h10 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 14h10 – 16h10 \n Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques                                              \n Julie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser)                          \n\n\n 16h30         \n Réception                                                                                                                         \n                                                                                                             \n\n\n\n\nEdit\n\n\nHeure\nSession\nConférenciers.ères\n\n\n\n\n 8h00 – 8h50   \n Petit-déjeuner                                                                                                                                     \n                                                                                     \n\n\n 8h50 – 9h00   \n Bienvenue / Annonces                                                                                                                               \n                                                                                     \n\n\n 9h00 – 10h30  \n Dix projets d’évaluation récents que nous aimons                                                                                                   \n Justine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \n\n\n 10h30 – 11h00 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 11h00 – 11h30 \n Conférences éclair                                                                                                                                 \n Divers intervenants : Université de Regina\, Université de Toronto                   \n\n\n 11h30 – 13h00 \nDîner\n                                                                                     \n\n\n 13h00 – 13h20 \n Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs                                   \n Michelle Goodridge (Université Wilfrid Laurier)                                     \n\n\n 13h25 – 13h45 \n Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information            \n Amy McLay Paterson (Université Thompson Rivers)                                     \n\n\n 13h50 – 14h10 \n Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques     \n Rong Luo\, Shuzhen Zhao\, et Karen Pillon (Université de Windsor)                     \n\n\n 14h10 – 14h30 \n Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail    \n Sarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill)       \n\n\n 14h30 – 14h45 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 14h45 – 15h05 \n Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs \n Jody Nelson & Alison Pitcher (Université MacEwan)                                   \n\n\n 15h10 – 15h40 \n Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections                                        \n Erin Calhoun (Université de Toronto)                                                \n\n\n 15h45 – 16h05 \n « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée                   \n Ze’ev Schneider (Bibliothèque du Parlement)                                         \n\n\n\n\nEdit\n\n\nHeure\nSession                                                                                 \nConférenciers.ères\n\n\n\n\n 8h00 – 8h45   \n Petit-déjeuner et inscription                                                                        \n                                                                                                             \n\n\n 8h45 – 9h00   \n Bienvenue                                                                                              \n Dr David Gregory (Université de Regina) et comité de programme                                              \n\n\n 9h00 – 9h20   \n Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary                                   \n Justine Wheeler & Mary-Jo Romaniuk (Université de Calgary)                                                  \n\n\n 9h25 – 9h45   \n Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires                                          \n Sabina Pagotto (Scholars Portal) et Katrina Fortner (Conseil des bibliothèques universitaires de l’Ontario) \n\n\n 9h50 – 10h10  \n Planification stratégique efficace : étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa               \n Katrine Mallan (Université d’Ottawa)                                                                        \n\n\n 10h15 – 10h35 \n De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques                     \n Sam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western)                                                \n\n\n 10h35 – 11h00 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 11h00 – 11h20 \n Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque                                                   \n Sarah Coysh & Sheril Hook (Université York)                                                                 \n\n\n 11h25 – 11h45 \n Évaluer le succès d’un projet dans les bibliothèques académiques                                                                  \n Jessica Lange & Nailisa Tanner (Université McGill)                                                          \n\n\n 11h45 – 13h00 \nDîner                                                                                                    \n                                                                                                             \n\n\n 13h00 – 13h20 \n Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation                                   \n Juliene McLaughlin & Robin Bergart (Université de Guelph)                                                   \n\n\n 13h25 – 13h45 \n Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques \n Ali Foster\, Abigail Graham\, et David Pearson (Université MacEwan)                                           \n\n\n 13h45 – 14h10 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 14h10 – 16h10 \n Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques                                              \n Julie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser)                          \n\n\n 16h30         \n Réception                                                                                                                         \n                                                                                                             \n\n\n\n\nEdit\n\n\nHeure\nSession\nConférenciers.ères\n\n\n\n\n 8h00 – 8h50   \n Petit-déjeuner                                                                                                                                     \n                                                                                     \n\n\n 8h50 – 9h00   \n Bienvenue / Annonces                                                                                                                               \n                                                                                     \n\n\n 9h00 – 10h30  \n Dix projets d’évaluation récents que nous aimons                                                                                                   \n Justine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \n\n\n 10h30 – 11h00 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 11h00 – 11h30 \n Conférences éclair                                                                                                                                 \n Divers intervenants : Université de Regina\, Université de Toronto                   \n\n\n 11h30 – 13h00 \nDîner\n                                                                                     \n\n\n 13h00 – 13h20 \n Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs                                   \n Michelle Goodridge (Université Wilfrid Laurier)                                     \n\n\n 13h25 – 13h45 \n Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information            \n Amy McLay Paterson (Université Thompson Rivers)                                     \n\n\n 13h50 – 14h10 \n Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques     \n Rong Luo\, Shuzhen Zhao\, et Karen Pillon (Université de Windsor)                     \n\n\n 14h10 – 14h30 \n Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail    \n Sarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill)       \n\n\n 14h30 – 14h45 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 14h45 – 15h05 \n Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs \n Jody Nelson & Alison Pitcher (Université MacEwan)                                   \n\n\n 15h10 – 15h40 \n Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections                                        \n Erin Calhoun (Université de Toronto)                                                \n\n\n 15h45 – 16h05 \n « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée                   \n Ze’ev Schneider (Bibliothèque du Parlement)                                         \n\n\n\n					\n				Lundi 27 octobre\n		\n				\n				Mardi 28 octobre\n		 \n\n\n					 9h00 – 9h20 – Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary\n									\nJustine Wheeler & Mary-Jo Romaniuk (Université de Calgary) \nLes présentateurs décriront l’étude d’impact sur les bibliothèques et les ressources culturelles  à l’Université de Calgary. Cette étude se concentre sur l’expérience de deux groupes d’utilisateurs distincts : les professeurs et les étudiants. Il a été réalisé en étroite collaboration avec Implement Consulting Group. \nLe but de cette étude est de mieux comprendre le rôle et l’impact de les bibliothèques et les ressources culturelles dans la vie académique des étudiants et du corps professoral en capturant et en mesurant ce qui se passe lorsque ces utilisateurs s’engagent avec les bibliothèques et les ressources culturelles. De plus\, l’étude vise à inspirer et informer les décisions stratégiques futures et les plans pour les bibliothèques et les ressources culturelles. \nL’étude est basée sur un cadre Impact Compass\, qui est une approche de méthodes mixtes conçue pour explorer comment les expériences culturelles impactent les individus. La boussole sert d’outil pour communiquer de manière quantitative comment un individu expérimente un produit ou service culturel particulier\, tout en utilisant également l’analyse qualitative des données pour obtenir une compréhension plus approfondie des résultats. \nBien que le cadre Impact Compass ait déjà été utilisé pour les bibliothèques publiques\, il n’avait jamais été utilisé dans un contexte de recherche en bibliothèque. Pour s’assurer que la boussole d’impact a résonné dans le contexte du personnel de les bibliothèques et les ressources culturelles\, les étudiants et les professeurs ont été consultés\, et des adaptations significatives ont été apportées à la boussole. \nPlus précisément\, ce processus collaboratif a permis de déterminer quatre piliers de l’expérience des bibliothèques : l’espace\, les collections et les ressources numériques\, le soutien à l’enseignement et à l’apprentissage et le soutien à la recherche.  Chaque pilier s’est vu attribuer une boussole d’impact.  Chaque boussole a été divisée en quatre dimensions d’impact : émotionnelle\, intellectuelle\, sociale et créative.  Chaque dimension se composait de trois paramètres qui ont été testés et affinés pour refléter les besoins et le contexte d’une bibliothèque de recherche. Les données qualitatives ont ensuite été utilisées pour apporter des nuances et une compréhension de la boussole. À partir de cela\, des profils d’impact ont été développés. \nLes présentateurs discuteront des résultats de l’étude\, y compris les profils d’impact pour les étudiants et le corps professoral. Enfin\, les présentateurs discuteront de la façon dont les résultats de l’étude ont été utilisés et des plans pour une utilisation future. \nObjectifs d’apprentissage : \n\nCompréhension de base de la méthode utilisée pour cette étude.\nPotentiellement\, obtenir un aperçu des résultats de l’étude qui pourrait être généralisable à leur propre contexte\n\n\n\n\n					 9h25 – 9h45 – Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires\n									\nSabina Pagotto (Scholars Portal) and Katrina Fortner (Ontario Council of University Libraries) \nÀ la fin de 2024\, les directeurs de bibliothèques qui composent le Conseil des bibliothèques universitaires de l’Ontario (CBUO) ont demandé de l’aide pour expliquer la valeur des services qu’ils reçoivent du CBUO et de son service Scholars Portal aux cadres supérieurs d’universités en dehors de la bibliothèque. Étant donné que plus de 20 établissements varient considérablement en taille\, intensité de recherche et priorités institutionnelles\, il n’y avait pas de consensus sur les types d’information qui seraient utiles pour communiquer aux cadres supérieurs. Certaines institutions\, par exemple\, préféraient les chiffres réels et demandaient spécifiquement le retour sur investissement ou les économies de coûts ; d’autres ont estimé que les déclarations sur les avantages qualitatifs seraient des arguments plus convaincants auprès de leurs administrateurs. \nEn réponse à cette demande\, le groupe de communication CBUO-Scholars Portal s’est mis en action. Nous avons étudié diverses façons de calculer la valeur et les économies de coûts dans différents services ou domaines d’opérations\, jusqu’à ce que nous ayons identifié une gamme de points de données que nous pensions pouvoir calculer en toute confiance pour chaque institution. Nous avons également rédigé des énoncés de valeur qui énoncent les avantages ou les résultats des services consortiaux et que nous nous attendions à voir résonner chez les administrateurs autres que ceux des bibliothèques. Une fois que nous avons eu un ensemble solide de déclarations\, nous avons demandé aux directeurs de bibliothèque de classer les déclarations qui\, selon eux\, seraient les plus utiles pour leur établissement. À l’aide d’un modèle conçu par notre équipe de services web\, nous avons ensuite généré des rapports personnalisés pour chaque institution qui a répondu. Ces rapports ont été distribués avec la documentation à l’appui qui fournissait plus de contexte pour permettre aux directeurs de bibliothèque de discuter en toute confiance de ces rapports avec les administrateurs de leur établissement\, reliant les points entre le coût de la bibliothèque ou les économies de ressources et les impacts positifs sur la communauté du campus. \nCette session discutera des défis\, des opportunités et des leçons apprises tout au long du projet. \nLes participants apprendront comment : \n\nDiscuter des méthodologies pour calculer les économies de coûts dans les services consortiaux\nAdoptez une optique de communication pour l’évaluation et considérez le rôle du public lors de la communication de la valeur\nPensez de manière critique aux statistiques et aux valeurs calculées et comprenez l’importance de savoir d’où viennent les chiffres\n\n\n\n\n					 9h50 – 10h10 – Planification stratégique efficace: étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa\n									\nKatrine Mallan (Université d’Ottawa) \nCette séance présentera comment la bibliothèque de l’Université d’Ottawa utilise le Cadre d’impact des bibliothèques de l’ABRC pour apporter plus de clarté\, de cohérence et d’évaluabilité à la mise en œuvre de notre nouveau plan stratégique. \nEn utilisant une orientation stratégique comme étude de cas\, j’expliquerai aux participants comment notre groupe de gestion des bibliothèques a élaboré en collaboration un modèle logique pour cartographier les activités clés\, les extrants\, les auditoires\, les résultats et les hypothèses sous-jacentes. Ce processus nous a aidés à aller au-delà des aspirations générales pour définir des actions tangibles\, tester la plausibilité du parcours d’impact et jeter les bases d’une évaluation significative. \nEn ancrant notre planification dans le cadre de l’ABRC\, nous avons établi une compréhension commune de la façon dont notre travail crée un impact et établi une ligne de mire plus claire entre la stratégie et la mise en œuvre. \nLa session mettra en évidence comment l’utilisation des modèles logiques : \n\nNous a aidés à rendre notre stratégie plus réalisable ;\nFait apparaître des hypothèses et clarifié les résultats escomptés ;\nCréé une base plus solide pour les futurs travaux d’évaluation.\n\nCette étude de cas est particulièrement pertinente pour les bibliothèques qui cherchent à combler le fossé entre la planification stratégique et l’exécution opérationnelle\, et pour celles qui visent à intégrer la pensée évaluative sans surcharger le personnel ou les ressources. \nObjectifs d’apprentissage : À la fin de la session\, les participants seront en mesure de : \n\nComprendre comment le cadre d’impact des bibliothèques de l’ABRC peut soutenir la mise en œuvre du plan stratégique.\nIdentifier les éléments clés d’un modèle logique simple qui clarifient l’intention et soutiennent l’évaluation future.\nRéfléchir à la façon dont une réflexion évaluative précoce peut améliorer la cohérence et la faisabilité des efforts de planification stratégique.\n\nCette session est conçue pour être pratique et transférable\, en particulier pour les bibliothèques qui naviguent entre le milieu désordonné de la conception et de l’exécution de la stratégie. Notre étude de cas vise à susciter des idées pour les bibliothèques cherchant à intégrer l’évaluation dans leurs pratiques de planification et à rendre l’intention stratégique plus actionnable et visible. \n\n\n\n					 10h15 – 10h35 – De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques\n									\nSam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western ) \nLes bibliothèques académiques collectent un large éventail de données via diverses plateformes\, outils et procédures. Cependant\, le personnel et la direction ont souvent du mal à accéder à ces données ou à les interpréter. À Western Libraries\, nous avions un défi commun. Les données étaient difficiles à trouver\, hébergées sur différentes plateformes\, suivies de manière incohérente parmi nos équipes et difficiles à connecter pour une prise de décision fondée sur des preuves à tous les niveaux. \nPour aider à cela\, nous développons un tableau de bord en temps réel qui favoriserait la transparence et l’accessibilité à nos données. Ce tableau de bord vise à soutenir la prise de décision fondée sur des preuves dans l’ensemble de l’organisation pour aider à la planification stratégique\, à l’allocation des ressources et aux opérations. \nLe projet a commencé par des consultations avec les dirigeants pour déterminer la portée du projet et définir les objectifs clés. Cela a été suivi d’une série de réunions internes sur l’inventaire des données avec les principaux intervenants de nos services aux utilisateurs et de nos équipes de la haute direction pour comprendre quelles données étaient recueillies\, comment et par qui. Ces réunions ont révélé des lacunes dans la collecte de données\, ainsi que des différences clés dans la façon dont toutes les équipes visualisent et utilisent leurs données. En parallèle\, nous avons également travaillé avec des membres de notre équipe LITS (Library Information Technology Services) pour évaluer les exigences techniques\, explorer les options de visualisation et identifier quelles seraient les options les plus durables à long terme. \nDans cette session\, nous partagerons notre processus de planification\, les leçons apprises et les étapes pratiques que nous avons utilisées pour cartographier et consolider nos données à travers un grand système de bibliothèque. Nous discuterons également de la façon dont nous avons encadré notre processus en utilisant ADKAR (Sensibilisation\, Désir\, Connaissance\, Capacité\, Renforcement) pour soutenir un changement durable et contribuer à une culture d’évaluation dans les bibliothèques occidentales. \nObjectifs d’apprentissage/ Principaux points à retenir \n\nLes participants seront en mesure d’identifier et de consolider les données existantes et de déterminer les lacunes et les solutions dans la collecte de données actuelle.\nLes participants seront en mesure de comprendre le processus précoce de conception d’une « plateforme » pour accroître l’accès aux données institutionnelles.\nLes participants auront des idées pour appliquer des stratégies de gestion du changement afin de promouvoir l’adoption et soutenir les initiatives d’évaluation.\n\n\n\n\n					 11h00 – 11h20 – Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque\n									\nSarah Coysh & Sheril Hook (Université York) \nQui passe du temps et combien de temps passent-ils dans nos bibliothèques ? C’est la question qui nous a poussés à tenir un Jour du recensement dans toutes nos bibliothèques. Nous avons capturé le trafic de bibliothèque de 19232 entrées/sorties à travers la journée.  Nous avons sélectionné dix-sept points de données à enregistrer\, y compris le code postal actuel\, le niveau du diplôme\, le pendulaire ou en résidence\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96 % de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes chacun. \nComme Dillalogue & Koehn (2020)\, nous voulions aller plus loin que le comptage des portes seul\, alors nous avons créé un outil de tap-in/tap-out pour permettre aux utilisateurs d’utiliser volontairement leur identifiant de campus lorsqu’ils entrent et sortent de nos six bibliothèques en une seule journée en 2025. Nous avons calqué ce projet d’évaluation sur celui des bibliothèques de McGill qui ont déjà organisé un événement semblable.  Notre objectif était de capturer 80% du trafic en une seule journée pendant nos heures d’ouverture.  Nous avons également utilisé le jour du recensement comme catalyseur pour notre enquête LibQUAL+ pour laquelle nous avons reçu plus d’enquêtes complétées que les années précédentes. \nDeux approches ont été essentielles au succès du jour du recensement : la participation de tout le personnel de la bibliothèque et l’établissement d’un partenariat avec le Bureau de la planification et de l’analyse institutionnelle (OIPA).  Le personnel a été impliqué dans l’établissement du système de numérisation des cartes d’identité ; la logistique du jour pour chaque bibliothèque ; attribution des rôles le jour du recensement; développer et diffuser des ressources de communication ; célébrant le succès de la journée ; aider à l’analyse préliminaire des résultats).  Le partenariat avec OIPA nous a permis de sélectionner parmi plus de 200 points de données ; maintenir l’anonymat des données ; et nous a fourni le langage pour décrire l’analyse dans les contraintes de protection des données des clients. \nNous avons sélectionné dix-sept points de données\, y compris le code postal actuel\, le niveau du diplôme\, la personne qui fait la navette ou qui réside\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96% de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes. \nDans cette session\, nous partagerons des détails sur ce que nous avons appris sur les utilisateurs des bibliothèques et combien de temps ils restent\, y compris les données qui nous ont surpris et le suivi des idées d’évaluation. \nLes participants découvriront la variété des points de données collectés par les institutions académiques et comment ceux-ci peuvent être utiles pour éclairer les décisions concernant les heures\, le personnel\, la conception de l’espace\, la circulation\, etc. \nLes participants découvriront un système de tableau de bord open-source (Metabase) qui permet d’interroger les données pour la visualisation des données. \nLes participants recevront également un lien vers une pochette contenant des conseils sur la façon de mener leur propre journée de recensement. \nRéférence : \nDillalogue\, E.\, & Koehn\, M. (2020). Assessment on a Dime : Collecte de données utilisateur à faible coût pour l’évaluation. Bibliothèque basée sur des preuves et pratique d’information\, 15(3)\, 2–20. https://doi.org/10.18438/eblip29582 \n\n\n\n					 11h25 – 11h45 – Évaluer le succès d’un projet dans les bibliothèques académiques\n									\nJessica Lange & Nailisa Tanner (Université McGill) \nAu début de tout projet\, les parties prenantes définissent ce qui constitue le succès. Cette définition est ensuite utilisée à la fin du projet pour évaluer si ces objectifs ont été atteints et finalement déterminer si le projet a été « réussi » ou non. Les mesures typiques utilisées dans la gestion de projet\, telles que les indicateurs clés de performance (KPI) et l’utilisation des ressources\, bien qu’elles soient potentiellement utiles\, s’adressent aux entreprises ou aux lieux de travail à but lucratif et peuvent ne pas être les plus pertinentes ni transférables aux environnements académiques où le profit n’est pas un facteur pertinent. \nAprès avoir terminé plusieurs projets dans l’unité de technologie des bibliothèques de McGill et en utilisant des mesures typiques pour évaluer les projets\, il est devenu clair que bien que ces mesures répondaient au « quoi » d’un projet\, elles ne répondaient pas au « comment ». Les projets pourraient être achevés à temps et atteindre leurs objectifs\, mais ils peuvent avoir rencontré des problèmes importants au cours de leur déroulement\, tels qu’une mauvaise planification\, des conflits d’effectifs et des délais serrés. Définir le succès en termes aussi étroits a laissé le personnel insatisfait\, en particulier si le projet a rencontré des défis importants. Faire une rétrospective sur le projet est un modèle pour capturer des retours qualitatifs\, permettant aux membres de l’équipe d’apprendre et de grandir à partir (parfois) d’expériences négatives. Cela peut fournir un contexte supplémentaire en dehors des mesures de succès typiques. \nLes objectifs d’apprentissage de cette présentation incluent : \n\nDécrire brièvement les outils de base de la documentation de gestion de projet (par exemple\, charte\, rétrospective).\nÉnoncez les métriques communes utilisées pour évaluer le succès du projet\nDiscuter d’un modèle\, y compris des rétrospectives\, qui capture les commentaires qualitatifs des participants sur le succès du projet dans un environnement académique\n\n\n\n\n					 13h00 – 13h20 – Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation\n									\nJuliene McLaughlin & Robin Bergart (Université de Guelph) \nComme le dit le proverbe\, « si ce n’est pas cassé\, ne le réparez pas. » Mais parfois\, ce n’est pas aussi clair quand un service de bibliothèque est bien tel qu’il est et devrait être laissé seul\, ou s’il commence à se casser\, ou s’il est déjà cassé.  Pendant de nombreuses années\, notre bibliothèque a maintenu une page Web publique répertoriant les bases de données\, et en 2016\, nous avons mis en œuvre la liste A-Z de bases de données de Springshare. Au cours de cette période\, notre équipe UX a mené des études d’utilisabilité\, recueilli des analyses web et surveillé la documentation de la bibliothèque. Nous avons recommandé des changements progressifs pour s’assurer que cette page est aussi utilisable et utile que possible. Cependant\, plus récemment\, nous avons commencé à nous demander si cette page est toujours pertinente et si elle fait plus de mal que de bien. Après une enquête approfondie sur l’UX\, nous n’avons pas pu parvenir à une conclusion définitive\, mais notre intuition selon laquelle il y a un problème n’a pas disparu.  Que faites-vous lorsque votre instinct vous dit qu’il y a un problème\, mais que les preuves ne sont pas concluantes ? Quand devriez-vous abandonner les améliorations progressives et apporter un changement radical ? Qui décide ? \nObjectifs d’apprentissage : \n\nDiscutez du rôle de l’intuition professionnelle dans le travail sur l’expérience utilisateur\, y compris comment équilibrer les sentiments instinctifs avec des preuves empiriques.\nReconnaître les signes indiquant qu’un service de bibliothèque peut ne plus répondre aux besoins des utilisateurs\, même lorsque les indicateurs d’utilisabilité traditionnels sont peu concluants.\nÉvaluer la tension entre l’amélioration progressive et la refonte radicale et identifier des stratégies pour prendre des décisions éclairées sur le moment de changer d’approche.\n\n\n\n\n					 13h25 – 13h45 – Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques\n									\nAli Foster\, Abigail Graham\, et David Pearson (Université MacEwan) \nCette brève présentation met en évidence les expériences et les leçons tirées d’une refonte complète d’un site Web de bibliothèque de premier cycle axé sur l’amélioration de l’expérience utilisateur pour les étudiants de premier cycle. L’équipe du projet était composée de quatre employés : un graphiste\, un informaticien et deux bibliothécaires. Le principal défi auquel l’équipe a été confrontée était de développer un protocole d’expérience utilisateur (UX) qui privilégiait les perspectives des étudiants tout en obtenant le soutien du personnel de la bibliothèque pour les changements proposés à nos pratiques d’évaluation existantes. \nAvant le lancement du projet à l’automne 2023\, les efforts de refonte du site web précédents tenaient principalement compte des opinions du personnel et du corps professoral de la bibliothèque. Par conséquent\, l’architecture de l’information du site et le ton de la voix ont été signalés comme des domaines d’amélioration potentiels lors du processus de refonte. Cette préoccupation a été validée lorsque l’équipe a collaboré avec des étudiants de troisième année en anthropologie menant des études ethnographiques du site web de la bibliothèque. Dans les deux discussions avec les étudiants et dans leurs rapports formels\, il est devenu clair qu’ils ont trouvé le site web inaccessible\, déroutant et peu accueillant pour les étudiants. À cette fin\, l’équipe du projet a développé un protocole UX qui visait à prioriser les perspectives des étudiants ainsi que les meilleures pratiques en matière de conception web accessible et inclusive. \nCette présentation fournira un bref aperçu du projet\, des exemples clés d’outils d’expérience utilisateur axés sur les étudiants que nous avons appliqués\, ainsi que nos observations et leçons apprises alors que nous continuons à évaluer et à affiner le site web de la bibliothèque. \nRésultats d’apprentissage – Les participants : \n\nComprendre comment mettre en œuvre des pratiques d’expérience utilisateur axées sur les étudiants dans un projet de conception web\nEnvisager des méthodes pour encourager l’adhésion du personnel de la bibliothèque à la conception de sites web axés sur les étudiants\nIdentifier des moyens de collecter et de mettre en œuvre durablement les retours des étudiants sur une base continue\n\n\n\n\n					 14h10 – 16h10 – Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques\n									\nJulie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser) \nLes praticiens de l’évaluation en bibliothèque peuvent intégrer les outils et techniques de dialogue pour faciliter des évaluations communautaires significatives et inclusives—avec les utilisateurs de la bibliothèque ainsi que les collègues de la bibliothèque. Cet atelier présentera la théorie\, les connaissances et les compétences pour faciliter le dialogue dans le travail d’évaluation des bibliothèques. \nLe dialogue peut être défini de nombreuses manières. C’est une méthode pour articuler les besoins\, les désirs et les hypothèses sous-jacentes dans des groupes qui rejette les dynamiques de pouvoir hiérarchiques et qui est axée sur la transformation. Il utilise des pratiques participatives pour organiser des conversations génératives\, être plus inclusif\, favoriser l’apprentissage mutuel\, centrer l’expertise vécue et exploiter la sagesse collective. Il « peut aider les groupes et les communautés à explorer respectueusement des questions polarisantes\, à aborder les conflits\, à délibérer sur le potentiel de problèmes complexes et bien plus encore » (Morris J. Wosk Centre for Dialogue\, Université Simon Fraser\, n.d.). Dans son livre de 1999\, Dialogue and the Art of Thinking Together\, William Issacs a succinctement et plutôt magnifiquement défini le dialogue comme « une conversation avec un centre\, pas des côtés » (p. 19). Williams a ensuite déclaré : « C’est une façon de prendre l’énergie de nos différences et de la canaliser vers quelque chose qui n’a jamais été créé auparavant. » Il nous élève hors de la polarisation et vers un sens commun plus grand\, et est ainsi un moyen d’accéder à l’intelligence et au pouvoir coordonné de groupes de personnes » (p. 19). \nLes participants à cet atelier apprendront comment le sous-groupe du plan d’instruction du Groupe de travail pour la formation et l’éducation en matière d’information (WGILI) de la bibliothèque SFU utilise des méthodes en dialogue pour évaluer les besoins de leurs collègues instructeurs et intégrer l’expertise vécue de leurs collègues dans le nouveau plan d’instruction de la Bibliothèque\, que le sous-groupe est en train de créer. Après une introduction à la théorie et au contexte SFU\, les participants seront invités à assumer le rôle de participants dans un dialogue structuré créé par le sous-groupe pour évaluer les besoins des instructeurs de bibliothèque à la bibliothèque SFU. Ce dialogue facilitera la connaissance co-construite\, le leadership distribué\, la pollinisation croisée des idées et la création de sens partagée et visible. \nAprès avoir expérimenté le dialogue structuré en tant que participants\, les participants seront invités à assumer le rôle de facilitateurs pendant que nous « tirons le rideau » et examinons et réfléchissons aux composantes\, à la conception et aux résultats du dialogue. Nous partagerons la théorie derrière les décisions prises et les actions entreprises et discuterons de la transférabilité des méthodes de facilitation utilisées\, en mettant l’accent sur l’application pratique des concepts et principes théoriques dans d’autres contextes d’évaluation de bibliothèques. Des modèles et des ressources de facilitation que les participants peuvent apporter dans leur pratique d’évaluation seront partagés. Nous discuterons également des avantages d’apporter des méthodes de dialogue et de facilitation dans le travail d’évaluation des bibliothèques. \nObjectifs d’apprentissage  \nÀ la fin de cet atelier\, les participants pourront : \n\nComprendre le dialogue comme une méthodologie.\nAppliquer des techniques de facilitation qui permettent le dialogue et favorisent des conversations significatives dans un cadre d’évaluation en bibliothèque.\nDévelopper des perspectives d’évaluation en utilisant des méthodes de facilitation et de dialogue.\n\nRéférences  \nIsaacs\, W. (1999). Le dialogue et l’art de penser ensemble : une approche pionnière pour communiquer dans les affaires et dans la vie (1ère éd). Monnaie. \nMorris J. Wosk Centre for Dialogue\, Université Simon Fraser (n.d.). Qu’est-ce que Dialogue ? Récupéré le 1 juin 2025\, de https://www.sfu.ca/dialogue/learn/what-is-dialogue.html \n\n\n\n					 9h00 – 10h30 – Dix projets d’évaluation récents que nous aimons\n									\nJustine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \nLe paysage de l’évaluation est en train de changer.  Il y a un changement continu vers une focalisation sur la valeur et l’impact\, une augmentation de l’évaluation qualitative et des méthodes mixtes\, ainsi que des explorations naissantes dans le rôle de l’intelligence artificielle générative dans l’évaluation. Dans notre environnement actuel\, il peut être difficile de suivre les nouvelles initiatives et développements – surtout avec un temps\, des ressources et/ou une technologie limités. \nDans cette session amusante et rythmée\, les présentateurs partageront leurs récents projets d’évaluation et pratiques\, ainsi que des pratiques innovantes dans d’autres bibliothèques. Bien que bon nombre des projets abordés dans la présentation proviennent de bibliothèques universitaires\, tous les projets peuvent être appliqués dans des milieux universitaires\, publics\, gouvernementaux et autres. De plus\, les exemples vont des projets et pratiques qui peuvent être réalisés avec des ressources limitées (temps\, argent\, technologie)\, aux exemples plus intensifs en ressources. \nLes projets et les pratiques présentés varieront en ce qui concerne l’objectif (collections\, espace\, instruction\, etc.)\, la méthodologie (point d’utilisation\, collections prédictives\, photo voice\, etc.)\, la période de temps (transversale\, longitudinale) et la portée de l’impact (individuel\, institutionnel\, sociétal). \nRésultats d’apprentissage : \nCette session s’adresse aux bibliothécaires qui souhaitent découvrir de nouvelles perspectives ou méthodologies dans le domaine de l’expérience utilisateur des bibliothèques\, de l’évaluation ou de la pratique de l’impact. L’objectif de la session est que les participants repartent avec une nouvelle approche de l’évaluation qu’ils peuvent appliquer dans leur bibliothèque. \nDu temps sera également accordé aux membres de l’auditoire pour partager leur propre initiative d’évaluation récente et passionnante. \n\n\n\n					 11h00 – 11h30 – Conférences éclair\n									\nAu-delà des bugs : Utiliser une fonctionnalité ‘Signaler un problème’ pour comprendre les attentes des utilisateurs (Université de Regina) \nEn février 2023\, l’Université de Regina a mis en place une fonctionnalité de signalement d’un problème dans son système de découverte. Depuis lors\, plus de 600 rapports ont été soumis\, et cela est devenu un canal de rétroaction essentiel. Grâce à ces rapports\, nous avons acquis un aperçu des aspects de l’expérience de recherche et de découverte que les clients trouvent déroutants\, contre-intuitifs ou frustrants. Ces rapports de problèmes soumis par les utilisateurs mettent fréquemment en évidence des incohérences entre la fonctionnalité du système et les besoins et hypothèses des utilisateurs. En analysant ces rapports\, nous avons pu mieux comprendre le comportement et les attentes des utilisateurs à l’égard du système de la bibliothèque et de la bibliothèque en général. Cette présentation éclair décrira comment ces rapports ont été analysés\, et les idées acquises grâce à ce processus. \nTests d’utilisabilité et d’accessibilité : Utilisation d’un protocole de réflexion à voix haute comme outil d’évaluation pour les systèmes de revues ouvertes – Caitlin Bakker & Christopher Read (Université de Regina) \nDans cette conférence éclair\, les présentateurs partageront leur expérience en matière de tests d’utilisabilité et d’accessibilité dans le cadre du lancement par l’Université de Regina des Proceedings of the Canadian Nuclear Society in Open Journal Systems (OJS). Cette présentation éclair se concentrera sur les meilleures pratiques et les points à retenir de l’utilisation d’un protocole de réflexion à voix haute pour évaluer la collection et sa fonctionnalité de recherche. L’objectif principal de ces tests était de permettre à diverses communautés d’utilisateurs de s’engager dans une recherche efficace d’informations\, qu’ils accèdent au système via des ordinateurs de bureau ou des appareils mobiles. La session couvrira les aspects pratiques de la méthodologie de test\, tels que le travail avec un stage en bibliothèque à distance. Les participants peuvent s’attendre à en apprendre davantage sur des techniques spécifiques de test d’utilisabilité\, y compris les invites\, les lecteurs d’écran\, l’enregistrement et d’autres aspects du test think aloud\, et comment ils peuvent fournir un aperçu critique pour améliorer la conception du système et la satisfaction des utilisateurs. \nDemander à Chat à propos de LibrarySearch – Susan Bond (Université de Toronto) \nÀ l’Université de Toronto\, nous avons ajouté ces dernières années notre outil d’aide par chat intégré à notre couche de découverte – Ex Libris Primo VE\, que nous avons étiqueté localement comme LibrarySearch. Parce que LibrarySearch est un outil en libre-service\, chaque discussion lancée représente un point de repère potentiel – c’est une façon pour les utilisateurs de nous faire savoir qu’ils ne sont pas capables de se servir. Début 2025\, nous avons entrepris une évaluation exploratoire en examinant les transcriptions de chat d’un mois\, pour voir ce que nous pouvions découvrir sur les défis dans notre interface\, les lacunes dans notre documentation et les problèmes avec nos ressources. Nos conclusions comprenaient des preuves en faveur des changements sur lesquels nous travaillions déjà\, certaines victoires rapides et certaines choses auxquelles nous devrons réfléchir davantage avant de pouvoir les aborder. Dans cette présentation éclair\, nous examinerons nos conclusions spécifiques sur notre interface utilisateur\, notre document de support et la dotation en personnel de notre support de chat\, et aborderons ce que nous avons appris sur notre codage/évaluation et comment nous allons le changer à l’avenir. \n\n\n\n					 13h00 – 13h20– Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs\n									\nMichelle Goodridge (Université Wilfrid Laurier) \nEn 2017\, un partenariat bibliothécaire-faculté a conduit à la création d’une simulation en classe pour un cours de première année de premier cycle sur les droits humains mondiaux. Les étudiants ont assumé des rôles représentant des acteurs mondiaux (par exemple\, des États-nations et des ONG) pour répondre à une crise simulée dans le meilleur intérêt de leur propre rôle\, ce qui a conduit à développer des compétences en recherche\, évaluation et pensée critique dans un environnement d’apprentissage actif. Une étude de recherche à méthodes mixtes a évalué l’impact de la simulation\, combinant des données qualitatives issues de réflexions et d’observations avec une analyse quantitative basée sur les critères. Cette session présentera le design de la simulation\, les stratégies d’évaluation et les principales conclusions\, en démontrant comment l’apprentissage par le jeu peut améliorer de manière significative l’engagement et le développement des compétences des étudiants. Les participants auront un aperçu de l’application de ces méthodes dans d’autres contextes pédagogiques et de l’utilisation des données pour plaider en faveur d’une collaboration plus approfondie entre professeurs et bibliothécaires. \n\n\n\n					 13h25 – 13h45 – Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information.\n									\nAmy McLay Paterson (Université Thompson Rivers) \nEn 2023-2024\, les bibliothécaires de l’Université Thompson Rivers ont développé un programme pilote pour transformer un programme de littératie informationnelle principalement monocouche en un programme structuré et intégré. Le projet pilote d’enseignement en bibliothèque de l’anglais 1100 (ELIP) a été développé comme une collaboration entre la bibliothèque et le département d’anglais au printemps 2023 dans le but d’élargir l’enseignement en bibliothèque pour soutenir la réussite des étudiants et leur appartenance. Plutôt que de participer à la session unique habituelle\, les étudiants ELIP désignés participeront à une série de trois tutoriels hebdomadaires pour la bibliothèque. Le projet ELIP s’est déroulé tout au long de l’année académique 2023-24\, période durant laquelle nous avons collecté des données d’affectation des étudiants\, des retours des étudiants\, des retours du corps professoral et des entrées de journal réfléchies des participants bibliothécaires pour déterminer l’efficacité et la durabilité du programme. \nLes lacunes des sessions de littératie informationnelle ponctuelles sont répandues et bien documentées dans notre profession. Nicole Pagowsky déclare que « le one-shot—même s’il y en a plus d’un — rend difficile d’atteindre un apprentissage plus profond\, une pensée critique et une pédagogie inclusive » (2021\, 2). Cependant\, notre approche du projet pilote—ni un cours en une seule fois ni un cours à crédit — est unique dans la littérature établie. \n\nLe programme ELIP a-t-il aidé les étudiants à réussir leurs cours d’anglais associés ?\nUne instruction plus intégrée aide-t-elle à renforcer les relations entre la bibliothèque et la communauté de l’UTR ?\nComment pouvons-nous améliorer nos pratiques d’enseignement pour mieux répondre aux besoins des étudiants ?\n\nSelon chacun de ces indicateurs\, le programme ELIP a amélioré les résultats par rapport au one-shot habituel. Les résultats du sondage auprès des professeurs sont très positifs\, et les instructeurs bibliothécaires ont tous observé la profondeur de l’engagement des étudiants et la construction de relations positives. Cette relation plus étroite avec les étudiants a également abouti à des améliorations tangibles de nos pratiques pédagogiques et des objets d’apprentissage existants. Ma présentation présentera le programme ELIP\, y compris la justification de sa conception; présenter les différentes méthodes d’évaluation que nous avons utilisées ; et discuter de nos résultats et des prochaines étapes. Des supports de cours\, ainsi que des outils d’évaluation (tels que des sondages et des formulaires de consentement) seront mis à la disposition des participants intéressés. \nObjectifs d’apprentissage \nLes participants à cette session pourront : \n\nReconnaître les avantages et les limites d’une myriade de méthodes d’évaluation de la littératie informationnelle.\nConsidérez comment les objectifs de l’enseignement de la littératie informationnelle affectent la conception et l’évaluation des programmes.\nArticuler une variété de mesures du succès de la littératie informationnelle à utiliser dans les communications et discussions internes et externes.\n\n\n\n\n					 13h50 – 14h10 – Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques\n									\nRong Luo\, Shuzhen Zhao\, et Karen Pillon (University of Windsor) \nÀ mesure que l’enseignement de la littératie informationnelle (LI) continue d’évoluer dans les bibliothèques universitaires\, les pratiques d’évaluation doivent suivre le rythme pour garantir des résultats significatifs. Cette session explore l’efficacité de la formation en LI en présentant une étude menée à l’Université de Windsor qui évalue les compétences en LI perçues et démontrées chez les étudiants diplômés de la Faculté des arts\, des sciences humaines et des sciences sociales (FAHSS). Fondée sur le cadre de l’ACRL pour la littératie informationnelle dans l’enseignement supérieur et utilisant une version modifiée du test Beile de littératie informationnelle pour l’éducation (B-TILED)\, l’étude souligne comment les outils d’analyse et d’évaluation structurée peuvent informer\, améliorer et valider les programmes d’instruction de la bibliothèque. \nLa formation à l’LI prend diverses formes\, des séances en classe aux activités d’orientation et aux consultations individuelles\, mais son efficacité passe souvent inaperçue. En comparant les étudiants qui ont reçu un enseignement formel de l’LI avec ceux qui ne l’ont pas reçu\, cette session révèle si la formation est corrélée avec des compétences de recherche plus solides et une confiance accrue dans la navigation des ressources académiques. \nLes participants découvriront une approche d’évaluation flexible et évolutive utilisant B-TILED\, qui combine des données démographiques\, l’auto-évaluation des capacités de recherche et des tests de connaissances objectifs. La session discute également des considérations pratiques pour la conception\, la mise en œuvre et l’analyse de l’enquête à l’aide de SPSS ou de plateformes similaires. \nObjectifs d’apprentissage : À la fin de cette session\, les participants seront en mesure de : \n\nDécrivez comment les outils d’évaluation de la littératie informationnelle peuvent être intégrés dans les programmes d’enseignement des bibliothèques universitaires.\nIdentifiez les composants clés du cadre B-TILED et comprenez comment l’adapter à différents contextes de bibliothèque.\nAnalyser et interpréter la relation entre l’aptitude à la recherche perçue de soi et les compétences en LI mesurées objectivement.\nAppliquer des stratégies d’analyse quantitative de base pour évaluer l’impact de la formation en bibliothèque à l’aide de plateformes analytiques.\nÉlaborer des stratégies fondées sur des données probantes pour améliorer et justifier les efforts d’enseignement de l’LI en réponse aux besoins d’apprentissage des étudiants et aux objectifs institutionnels.\n\n\n\n\n					 14h10 – 14h30 – Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail\n									\nSarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill) \nDepuis plus de 20 ans\, les bibliothèques numérisent et fournissent un accès en ligne à leurs collections pour mieux servir la recherche\, l’enseignement et les objectifs créatifs des universitaires et des non-universitaires. La nature ouverte et en ligne de la plupart des collections numérisées par les bibliothèques a aidé à faciliter l’accès pour de nouveaux publics; cependant\, cette ouverture signifie également que les bibliothèques connaissent comparativement peu ceux qui utilisent ces ressources\, ce qui rend ces ressources difficiles à évaluer pour les bibliothèques. Si vous ne savez pas qui sont vos utilisateurs\, comment pouvez-vous les connaître ? \nLa recherche sur l’expérience utilisateur a gagné en popularité et est largement acceptée dans les bibliothèques comme un ensemble standard de techniques pour évaluer les services et les interfaces des bibliothèques\, et les plateformes de collections numériques ne font pas exception ici. Cependant\, une grande partie de la recherche sur l’expérience utilisateur menée dans le but d’évaluer les programmes et plateformes de collections numériques se limite aux affiliés institutionnels et ne concerne que la plateforme de collections numériques elle-même\, négligeant les questions sur la façon dont les utilisateurs trouvent ces collections en premier lieu ainsi que comment ils les utilisent dans leurs recherches. \nCette présentation rend compte d’une étude à méthodes mixtes menée dans le but d’élargir nos horizons sur qui sont les utilisateurs des collections numériques et comment ils utilisent les ressources numérisées des bibliothèques dans leurs recherches. Notre étude a utilisé des enquêtes anonymes et des entretiens qualitatifs pour atteindre un équilibre entre l’ampleur de la participation et la profondeur des réponses. Reconnaissant la nature ouverte de nos collections numériques\, nous avons inclus des chercheurs académiques indépendamment du lieu ou de l’affiliation institutionnelle\, ainsi que des chercheurs non académiques comme les journalistes\, les artistes\, les blogueurs et les historiens publics. Notre étude a posé trois questions de recherche principales : Qui utilise les collections numérisées des bibliothèques ? Comment les trouvent-ils ? Et enfin\, comment les utilisent-ils dans leurs recherches ? \nDans cette présentation\, nous nous concentrerons sur les méthodes que nous avons utilisées pour cette étude\, leurs résultats et ce que nous avons appris de ce processus. Nous discuterons de l’importance d’utiliser plusieurs types de techniques de recherche pour l’évaluation dans le contexte de la recherche sur l’expérience utilisateur\, et en particulier de ce que ce type de recherche à méthodes mixtes peut contribuer à la suite d’outils de recherche sur l’expérience utilisateur. Les participants apprendront les points forts de la recherche à méthodes mixtes\, comment les techniques de recherche exploratoire peuvent être utilisées pour compléter et améliorer d’autres données évaluatives\, comme les études d’utilisabilité et l’analyse web\, qui peuvent être collectées pour l’évaluation des bibliothèques\, et comment appliquer ces techniques pour répondre à de grandes questions en matière d’expérience utilisateur et d’évaluation des services de bibliothèque. \n\n\n\n					 14h45 – 15h05 – Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs\n									\nJody Nelson & Alison Pitcher (Université MacEwan) \nNotre session présentera le programme d’évaluation de l’enseignement de la littératie informationnelle [LI] dirigé par des pairs que nous facilitons pour les bibliothécaires dans notre université de premier cycle\, y compris l’impulsion\, le développement\, la fondation théorique\, la structure et l’impact. Nous partagerons des observations sur la façon dont le programme contribue à notre compréhension de la pratique d’enseignement réflexif comme étant au cœur de l’évaluation pédagogique et du développement d’une communauté plus cohésive de pratiques pédagogiques parmi les bibliothécaires enseignants impliqués dans le programme. \nNotre programme de mentorat réfléchi entre pairs dans l’enseignement des triangles remplit le mandat de la bibliothèque pour développer des pratiques durables d’évaluation de l’enseignement de l’LI en harmonie avec le plan stratégique de notre université\, Teaching Greatness. Adoptant une approche d’évaluation centrée sur l’étudiant et fondée sur le cadre d’évaluation critique de l’enseignement en bibliothèque développé par McCartin & Dineen (2018)\, notre programme d’évaluation critique de l’LI promeut l’évaluation intentionnelle et continue de l’enseignement cultivée à travers la pratique réflexive. En nous attribuant le travail d’évaluation et d’amélioration en tant qu’enseignants\, nous transférons la charge de l’évaluation (c’est-à-dire remplir des formulaires de retour ou des instruments de mesure) sur les étudiants. \nEn construisant la participation de longue date de notre bibliothèque dans l’enseignement des triangles d’observation et du mentorat pédagogique LI\, notre programme offre des opportunités d’évaluation continue de l’enseignement en combinaison avec un mentorat ciblé par les pairs. Les participants au programme forment des triangles de mentorat par les pairs qui se rencontrent plusieurs fois au cours d’un trimestre académique. Les participants individuels identifient les éléments d’enseignement prioritaires (c.-à-d. le contenu\, l’accessibilité\, les interactions avec les étudiants) au sujet desquels ils aimeraient recevoir des commentaires constructifs; les observateurs pairs adoptent une approche basée sur les points forts\, partageant des retours positifs ainsi que toute suggestion utile pour l’amélioration dans les domaines pré-identifiés. En tant que membres d’une triade de co-mentorat\, les participants visent à favoriser l’excellence dans l’enseignement tout en apprenant les uns des autres\, en collectant des idées pour améliorer les expériences d’apprentissage des étudiants lorsqu’ils s’observent mutuellement. Pour les bibliothécaires en début de carrière en particulier\, l’aspect co-mentorat crée un environnement sûr pour développer la compétence d’enseignement et la confiance. Ce programme permet non seulement une évaluation significative de l’enseignement\, mais offre également aux participants la possibilité de favoriser une pratique réflexive individuelle de manière continue\, soutenue et relationnelle (Lewitzky\, 2020). \nSuite à notre session\, les participants repartiront avec une compréhension de :● La valeur de l’observation relationnelle par les pairs pour l’évaluation de l’enseignement● Le rôle de la pratique pédagogique réflexive pour une amélioration soutenue et continue● Comment notre programme est géré afin qu’il puisse être adapté pour les institutions participantes \nRéférences :Lewitzky\, R.A. (2020). Éduquer\, apprendre et grandir : Une revue du rôle d’enseignement dans la bibliothéconomie académique. Bibliothèques universitaires et de premier cycle\, 27(1)\, 32-40. \nMcCartin\, L. F.\, & Dineen\, R. (2018). Vers une pratique d’évaluation critique et inclusive pour l’enseignement en bibliothèque. Litwin Books. \n\n\n\n					 15h10 – 15h40 – Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections\n									\nErin Calhoun (Université de Toronto) \nLes développements dans l’édition en libre accès\, les modèles d’affaires et les politiques de financement ont amené les communications savantes au sein du travail de développement des collections. De plus en plus\, les fonds pour le développement des collections des bibliothèques sont réaffectés pour couvrir les frais d’édition grâce à des accords transitoires de lecture et de publication. Ce changement s’accompagne d’un besoin pressant de nouveaux cadres d’évaluation – ceux qui vont au-delà des statistiques traditionnelles sur l’utilisation des ressources électroniques pour mesurer la production de publications et l’investissement financier. Les bibliothèques doivent développer des capacités pour recueillir et analyser les données de publication institutionnelle afin d’éclairer les décisions relatives au développement des collections. \nCependant\, évaluer la publication en libre accès n’est pas simple. Les données de publication en libre accès sont souvent présentées dans des formats incohérents et dispersées dans les rapports bibliométriques et ceux des éditeurs\, ce qui entrave l’analyse agrégée. Pour relever ce défi\, les bibliothèques de l’Université de Toronto ont lancé un projet pilote visant à rationaliser la collecte\, le nettoyage et la visualisation des données de publication en libre accès. \nLa courte session partagera des idées tirées du projet pilote\, qui comprend la collecte de rapports sur les données de publication provenant de plusieurs accords d’accès libre\, la normalisation des données dans un modèle unifié\, et construire un tableau de bord interactif pour visualiser l’activité éditoriale et les contributions financières de l’université dans l’édition en libre accès. Le projet a d’abord exploré des solutions basées sur la programmation pour le nettoyage des données\, mais a finalement adopté KNIME – une plateforme open source à faible code – pour gérer les tâches complexes de nettoyage des données de manière évolutive et accessible. \nÀ partir de cette présentation\, les participants : \n\nAcquérir des connaissances sur la façon de suivre et de visualiser la publication en libre accès dans leur établissement\nComprendre les défis liés à la collecte de données sur les publications et les stratégies de collecte de grands ensembles de données non standardisés\nIdentifier des outils\, des outils et des solutions à faible code\, tels que Knime\, pour travailler avec de grands ensembles de données complexes\n\nCette présentation sera utile pour ceux qui s’intéressent aux nouvelles méthodes d’évaluation et sources de données\, aux outils d’analyse des données et à ceux qui cherchent à commencer à travailler avec des données de publication en accès libre. \n\n\n\n					 15h45 – 16h05– « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée\n									\nZe’ev Schneider (Bibliothèque du Parlement) \nLes riches collections de la Bibliothèque du Parlement (la Bibliothèque)\, développées au fil de nombreuses décennies\, sont essentielles à sa mission de contribuer à la démocratie parlementaire canadienne en « gérant et en fournissant des informations et des connaissances fiables\, pertinentes et faisant autorité ». Les collections sont réparties entre plusieurs sections de la Cité parlementaire ainsi qu’une installation d’entreposage hors site. \nDe plus\, une succursale libre-service destinée principalement aux chercheurs de la bibliothèque offre un accès sur place à une collection d’imprimés. Une récente évaluation complète de cette collection a permis de dégager suffisamment d’espace sur les étagères pour de nouvelles acquisitions. En réfléchissant à la façon de développer cette collection et de gérer l’espace\, nous avons réfléchi au rôle actuel et à la valeur de l’impression sur place pour les spécialistes du sujet dans leur travail et leurs recherches\, leur développement professionnel et leur lecture loisir. Ce processus a conduit à la création du sondage utilisateur couvert dans cette présentation. \nDans cette session\, je présenterai l’enquête de la conception aux résultats. \nLa présentation comprendra : \n\nUne introduction à la Bibliothèque du Parlement (le nouveau membre de l’ABRC!)\, y compris ses collections et ses utilisateurs\nÉtapes et itérations dans la conception de l’enquête\nObjectifs de l’enquête\, résultats et résultats prévus\n\nObjectifs d’apprentissage \nLes participants à la conférence apprendront sur \n\nConsidérations lors de la création d’une enquête ciblée pour un groupe d’utilisateurs local\nLes idées glanées à partir des résultats de l’enquête\, y compris l’expérience des répondants sur la collection d’imprimés et l’espace ; et les différences entre les chercheurs plus récents et plus chevronnés dans leur connaissance et leurs préférences pour l’impression sur site\nDéfis et leçons apprises\n\n\n\n\n					 9h00 – 9h20 – Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary\n									\nJustine Wheeler & Mary-Jo Romaniuk (Université de Calgary) \nLes présentateurs décriront l’étude d’impact sur les bibliothèques et les ressources culturelles  à l’Université de Calgary. Cette étude se concentre sur l’expérience de deux groupes d’utilisateurs distincts : les professeurs et les étudiants. Il a été réalisé en étroite collaboration avec Implement Consulting Group. \nLe but de cette étude est de mieux comprendre le rôle et l’impact de les bibliothèques et les ressources culturelles dans la vie académique des étudiants et du corps professoral en capturant et en mesurant ce qui se passe lorsque ces utilisateurs s’engagent avec les bibliothèques et les ressources culturelles. De plus\, l’étude vise à inspirer et informer les décisions stratégiques futures et les plans pour les bibliothèques et les ressources culturelles. \nL’étude est basée sur un cadre Impact Compass\, qui est une approche de méthodes mixtes conçue pour explorer comment les expériences culturelles impactent les individus. La boussole sert d’outil pour communiquer de manière quantitative comment un individu expérimente un produit ou service culturel particulier\, tout en utilisant également l’analyse qualitative des données pour obtenir une compréhension plus approfondie des résultats. \nBien que le cadre Impact Compass ait déjà été utilisé pour les bibliothèques publiques\, il n’avait jamais été utilisé dans un contexte de recherche en bibliothèque. Pour s’assurer que la boussole d’impact a résonné dans le contexte du personnel de les bibliothèques et les ressources culturelles\, les étudiants et les professeurs ont été consultés\, et des adaptations significatives ont été apportées à la boussole. \nPlus précisément\, ce processus collaboratif a permis de déterminer quatre piliers de l’expérience des bibliothèques : l’espace\, les collections et les ressources numériques\, le soutien à l’enseignement et à l’apprentissage et le soutien à la recherche.  Chaque pilier s’est vu attribuer une boussole d’impact.  Chaque boussole a été divisée en quatre dimensions d’impact : émotionnelle\, intellectuelle\, sociale et créative.  Chaque dimension se composait de trois paramètres qui ont été testés et affinés pour refléter les besoins et le contexte d’une bibliothèque de recherche. Les données qualitatives ont ensuite été utilisées pour apporter des nuances et une compréhension de la boussole. À partir de cela\, des profils d’impact ont été développés. \nLes présentateurs discuteront des résultats de l’étude\, y compris les profils d’impact pour les étudiants et le corps professoral. Enfin\, les présentateurs discuteront de la façon dont les résultats de l’étude ont été utilisés et des plans pour une utilisation future. \nObjectifs d’apprentissage : \n\nCompréhension de base de la méthode utilisée pour cette étude.\nPotentiellement\, obtenir un aperçu des résultats de l’étude qui pourrait être généralisable à leur propre contexte\n\n\n\n\n					 9h25 – 9h45 – Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires\n									\nSabina Pagotto (Scholars Portal) and Katrina Fortner (Ontario Council of University Libraries) \nÀ la fin de 2024\, les directeurs de bibliothèques qui composent le Conseil des bibliothèques universitaires de l’Ontario (CBUO) ont demandé de l’aide pour expliquer la valeur des services qu’ils reçoivent du CBUO et de son service Scholars Portal aux cadres supérieurs d’universités en dehors de la bibliothèque. Étant donné que plus de 20 établissements varient considérablement en taille\, intensité de recherche et priorités institutionnelles\, il n’y avait pas de consensus sur les types d’information qui seraient utiles pour communiquer aux cadres supérieurs. Certaines institutions\, par exemple\, préféraient les chiffres réels et demandaient spécifiquement le retour sur investissement ou les économies de coûts ; d’autres ont estimé que les déclarations sur les avantages qualitatifs seraient des arguments plus convaincants auprès de leurs administrateurs. \nEn réponse à cette demande\, le groupe de communication CBUO-Scholars Portal s’est mis en action. Nous avons étudié diverses façons de calculer la valeur et les économies de coûts dans différents services ou domaines d’opérations\, jusqu’à ce que nous ayons identifié une gamme de points de données que nous pensions pouvoir calculer en toute confiance pour chaque institution. Nous avons également rédigé des énoncés de valeur qui énoncent les avantages ou les résultats des services consortiaux et que nous nous attendions à voir résonner chez les administrateurs autres que ceux des bibliothèques. Une fois que nous avons eu un ensemble solide de déclarations\, nous avons demandé aux directeurs de bibliothèque de classer les déclarations qui\, selon eux\, seraient les plus utiles pour leur établissement. À l’aide d’un modèle conçu par notre équipe de services web\, nous avons ensuite généré des rapports personnalisés pour chaque institution qui a répondu. Ces rapports ont été distribués avec la documentation à l’appui qui fournissait plus de contexte pour permettre aux directeurs de bibliothèque de discuter en toute confiance de ces rapports avec les administrateurs de leur établissement\, reliant les points entre le coût de la bibliothèque ou les économies de ressources et les impacts positifs sur la communauté du campus. \nCette session discutera des défis\, des opportunités et des leçons apprises tout au long du projet. \nLes participants apprendront comment : \n\nDiscuter des méthodologies pour calculer les économies de coûts dans les services consortiaux\nAdoptez une optique de communication pour l’évaluation et considérez le rôle du public lors de la communication de la valeur\nPensez de manière critique aux statistiques et aux valeurs calculées et comprenez l’importance de savoir d’où viennent les chiffres\n\n\n\n\n					 9h50 – 10h10 – Planification stratégique efficace: étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa\n									\nKatrine Mallan (Université d’Ottawa) \nCette séance présentera comment la bibliothèque de l’Université d’Ottawa utilise le Cadre d’impact des bibliothèques de l’ABRC pour apporter plus de clarté\, de cohérence et d’évaluabilité à la mise en œuvre de notre nouveau plan stratégique. \nEn utilisant une orientation stratégique comme étude de cas\, j’expliquerai aux participants comment notre groupe de gestion des bibliothèques a élaboré en collaboration un modèle logique pour cartographier les activités clés\, les extrants\, les auditoires\, les résultats et les hypothèses sous-jacentes. Ce processus nous a aidés à aller au-delà des aspirations générales pour définir des actions tangibles\, tester la plausibilité du parcours d’impact et jeter les bases d’une évaluation significative. \nEn ancrant notre planification dans le cadre de l’ABRC\, nous avons établi une compréhension commune de la façon dont notre travail crée un impact et établi une ligne de mire plus claire entre la stratégie et la mise en œuvre. \nLa session mettra en évidence comment l’utilisation des modèles logiques : \n\nNous a aidés à rendre notre stratégie plus réalisable ;\nFait apparaître des hypothèses et clarifié les résultats escomptés ;\nCréé une base plus solide pour les futurs travaux d’évaluation.\n\nCette étude de cas est particulièrement pertinente pour les bibliothèques qui cherchent à combler le fossé entre la planification stratégique et l’exécution opérationnelle\, et pour celles qui visent à intégrer la pensée évaluative sans surcharger le personnel ou les ressources. \nObjectifs d’apprentissage : À la fin de la session\, les participants seront en mesure de : \n\nComprendre comment le cadre d’impact des bibliothèques de l’ABRC peut soutenir la mise en œuvre du plan stratégique.\nIdentifier les éléments clés d’un modèle logique simple qui clarifient l’intention et soutiennent l’évaluation future.\nRéfléchir à la façon dont une réflexion évaluative précoce peut améliorer la cohérence et la faisabilité des efforts de planification stratégique.\n\nCette session est conçue pour être pratique et transférable\, en particulier pour les bibliothèques qui naviguent entre le milieu désordonné de la conception et de l’exécution de la stratégie. Notre étude de cas vise à susciter des idées pour les bibliothèques cherchant à intégrer l’évaluation dans leurs pratiques de planification et à rendre l’intention stratégique plus actionnable et visible. \n\n\n\n					 10h15 – 10h35 – De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques\n									\nSam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western ) \nLes bibliothèques académiques collectent un large éventail de données via diverses plateformes\, outils et procédures. Cependant\, le personnel et la direction ont souvent du mal à accéder à ces données ou à les interpréter. À Western Libraries\, nous avions un défi commun. Les données étaient difficiles à trouver\, hébergées sur différentes plateformes\, suivies de manière incohérente parmi nos équipes et difficiles à connecter pour une prise de décision fondée sur des preuves à tous les niveaux. \nPour aider à cela\, nous développons un tableau de bord en temps réel qui favoriserait la transparence et l’accessibilité à nos données. Ce tableau de bord vise à soutenir la prise de décision fondée sur des preuves dans l’ensemble de l’organisation pour aider à la planification stratégique\, à l’allocation des ressources et aux opérations. \nLe projet a commencé par des consultations avec les dirigeants pour déterminer la portée du projet et définir les objectifs clés. Cela a été suivi d’une série de réunions internes sur l’inventaire des données avec les principaux intervenants de nos services aux utilisateurs et de nos équipes de la haute direction pour comprendre quelles données étaient recueillies\, comment et par qui. Ces réunions ont révélé des lacunes dans la collecte de données\, ainsi que des différences clés dans la façon dont toutes les équipes visualisent et utilisent leurs données. En parallèle\, nous avons également travaillé avec des membres de notre équipe LITS (Library Information Technology Services) pour évaluer les exigences techniques\, explorer les options de visualisation et identifier quelles seraient les options les plus durables à long terme. \nDans cette session\, nous partagerons notre processus de planification\, les leçons apprises et les étapes pratiques que nous avons utilisées pour cartographier et consolider nos données à travers un grand système de bibliothèque. Nous discuterons également de la façon dont nous avons encadré notre processus en utilisant ADKAR (Sensibilisation\, Désir\, Connaissance\, Capacité\, Renforcement) pour soutenir un changement durable et contribuer à une culture d’évaluation dans les bibliothèques occidentales. \nObjectifs d’apprentissage/ Principaux points à retenir \n\nLes participants seront en mesure d’identifier et de consolider les données existantes et de déterminer les lacunes et les solutions dans la collecte de données actuelle.\nLes participants seront en mesure de comprendre le processus précoce de conception d’une « plateforme » pour accroître l’accès aux données institutionnelles.\nLes participants auront des idées pour appliquer des stratégies de gestion du changement afin de promouvoir l’adoption et soutenir les initiatives d’évaluation.\n\n\n\n\n					 11h00 – 11h20 – Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque\n									\nSarah Coysh & Sheril Hook (Université York) \nQui passe du temps et combien de temps passent-ils dans nos bibliothèques ? C’est la question qui nous a poussés à tenir un Jour du recensement dans toutes nos bibliothèques. Nous avons capturé le trafic de bibliothèque de 19232 entrées/sorties à travers la journée.  Nous avons sélectionné dix-sept points de données à enregistrer\, y compris le code postal actuel\, le niveau du diplôme\, le pendulaire ou en résidence\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96 % de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes chacun. \nComme Dillalogue & Koehn (2020)\, nous voulions aller plus loin que le comptage des portes seul\, alors nous avons créé un outil de tap-in/tap-out pour permettre aux utilisateurs d’utiliser volontairement leur identifiant de campus lorsqu’ils entrent et sortent de nos six bibliothèques en une seule journée en 2025. Nous avons calqué ce projet d’évaluation sur celui des bibliothèques de McGill qui ont déjà organisé un événement semblable.  Notre objectif était de capturer 80% du trafic en une seule journée pendant nos heures d’ouverture.  Nous avons également utilisé le jour du recensement comme catalyseur pour notre enquête LibQUAL+ pour laquelle nous avons reçu plus d’enquêtes complétées que les années précédentes. \nDeux approches ont été essentielles au succès du jour du recensement : la participation de tout le personnel de la bibliothèque et l’établissement d’un partenariat avec le Bureau de la planification et de l’analyse institutionnelle (OIPA).  Le personnel a été impliqué dans l’établissement du système de numérisation des cartes d’identité ; la logistique du jour pour chaque bibliothèque ; attribution des rôles le jour du recensement; développer et diffuser des ressources de communication ; célébrant le succès de la journée ; aider à l’analyse préliminaire des résultats).  Le partenariat avec OIPA nous a permis de sélectionner parmi plus de 200 points de données ; maintenir l’anonymat des données ; et nous a fourni le langage pour décrire l’analyse dans les contraintes de protection des données des clients. \nNous avons sélectionné dix-sept points de données\, y compris le code postal actuel\, le niveau du diplôme\, la personne qui fait la navette ou qui réside\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96% de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes. \nDans cette session\, nous partagerons des détails sur ce que nous avons appris sur les utilisateurs des bibliothèques et combien de temps ils restent\, y compris les données qui nous ont surpris et le suivi des idées d’évaluation. \nLes participants découvriront la variété des points de données collectés par les institutions académiques et comment ceux-ci peuvent être utiles pour éclairer les décisions concernant les heures\, le personnel\, la conception de l’espace\, la circulation\, etc. \nLes participants découvriront un système de tableau de bord open-source (Metabase) qui permet d’interroger les données pour la visualisation des données. \nLes participants recevront également un lien vers une pochette contenant des conseils sur la façon de mener leur propre journée de recensement. \nRéférence : \nDillalogue\, E.\, & Koehn\, M. (2020). Assessment on a Dime : Collecte de données utilisateur à faible coût pour l’évaluation. Bibliothèque basée sur des preuves et pratique d’information\, 15(3)\, 2–20. https://doi.org/10.18438/eblip29582 \n\n\n\n					 11h25 – 11h45 – Évaluer le succès d’un projet dans les bibliothèques académiques\n									\nJessica Lange & Nailisa Tanner (Université McGill) \nAu début de tout projet\, les parties prenantes définissent ce qui constitue le succès. Cette définition est ensuite utilisée à la fin du projet pour évaluer si ces objectifs ont été atteints et finalement déterminer si le projet a été « réussi » ou non. Les mesures typiques utilisées dans la gestion de projet\, telles que les indicateurs clés de performance (KPI) et l’utilisation des ressources\, bien qu’elles soient potentiellement utiles\, s’adressent aux entreprises ou aux lieux de travail à but lucratif et peuvent ne pas être les plus pertinentes ni transférables aux environnements académiques où le profit n’est pas un facteur pertinent. \nAprès avoir terminé plusieurs projets dans l’unité de technologie des bibliothèques de McGill et en utilisant des mesures typiques pour évaluer les projets\, il est devenu clair que bien que ces mesures répondaient au « quoi » d’un projet\, elles ne répondaient pas au « comment ». Les projets pourraient être achevés à temps et atteindre leurs objectifs\, mais ils peuvent avoir rencontré des problèmes importants au cours de leur déroulement\, tels qu’une mauvaise planification\, des conflits d’effectifs et des délais serrés. Définir le succès en termes aussi étroits a laissé le personnel insatisfait\, en particulier si le projet a rencontré des défis importants. Faire une rétrospective sur le projet est un modèle pour capturer des retours qualitatifs\, permettant aux membres de l’équipe d’apprendre et de grandir à partir (parfois) d’expériences négatives. Cela peut fournir un contexte supplémentaire en dehors des mesures de succès typiques. \nLes objectifs d’apprentissage de cette présentation incluent : \n\nDécrire brièvement les outils de base de la documentation de gestion de projet (par exemple\, charte\, rétrospective).\nÉnoncez les métriques communes utilisées pour évaluer le succès du projet\nDiscuter d’un modèle\, y compris des rétrospectives\, qui capture les commentaires qualitatifs des participants sur le succès du projet dans un environnement académique\n\n\n\n\n					 13h00 – 13h20 – Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation\n									\nJuliene McLaughlin & Robin Bergart (Université de Guelph) \nComme le dit le proverbe\, « si ce n’est pas cassé\, ne le réparez pas. » Mais parfois\, ce n’est pas aussi clair quand un service de bibliothèque est bien tel qu’il est et devrait être laissé seul\, ou s’il commence à se casser\, ou s’il est déjà cassé.  Pendant de nombreuses années\, notre bibliothèque a maintenu une page Web publique répertoriant les bases de données\, et en 2016\, nous avons mis en œuvre la liste A-Z de bases de données de Springshare. Au cours de cette période\, notre équipe UX a mené des études d’utilisabilité\, recueilli des analyses web et surveillé la documentation de la bibliothèque. Nous avons recommandé des changements progressifs pour s’assurer que cette page est aussi utilisable et utile que possible. Cependant\, plus récemment\, nous avons commencé à nous demander si cette page est toujours pertinente et si elle fait plus de mal que de bien. Après une enquête approfondie sur l’UX\, nous n’avons pas pu parvenir à une conclusion définitive\, mais notre intuition selon laquelle il y a un problème n’a pas disparu.  Que faites-vous lorsque votre instinct vous dit qu’il y a un problème\, mais que les preuves ne sont pas concluantes ? Quand devriez-vous abandonner les améliorations progressives et apporter un changement radical ? Qui décide ? \nObjectifs d’apprentissage : \n\nDiscutez du rôle de l’intuition professionnelle dans le travail sur l’expérience utilisateur\, y compris comment équilibrer les sentiments instinctifs avec des preuves empiriques.\nReconnaître les signes indiquant qu’un service de bibliothèque peut ne plus répondre aux besoins des utilisateurs\, même lorsque les indicateurs d’utilisabilité traditionnels sont peu concluants.\nÉvaluer la tension entre l’amélioration progressive et la refonte radicale et identifier des stratégies pour prendre des décisions éclairées sur le moment de changer d’approche.\n\n\n\n\n					 13h25 – 13h45 – Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques\n									\nAli Foster\, Abigail Graham\, et David Pearson (Université MacEwan) \nCette brève présentation met en évidence les expériences et les leçons tirées d’une refonte complète d’un site Web de bibliothèque de premier cycle axé sur l’amélioration de l’expérience utilisateur pour les étudiants de premier cycle. L’équipe du projet était composée de quatre employés : un graphiste\, un informaticien et deux bibliothécaires. Le principal défi auquel l’équipe a été confrontée était de développer un protocole d’expérience utilisateur (UX) qui privilégiait les perspectives des étudiants tout en obtenant le soutien du personnel de la bibliothèque pour les changements proposés à nos pratiques d’évaluation existantes. \nAvant le lancement du projet à l’automne 2023\, les efforts de refonte du site web précédents tenaient principalement compte des opinions du personnel et du corps professoral de la bibliothèque. Par conséquent\, l’architecture de l’information du site et le ton de la voix ont été signalés comme des domaines d’amélioration potentiels lors du processus de refonte. Cette préoccupation a été validée lorsque l’équipe a collaboré avec des étudiants de troisième année en anthropologie menant des études ethnographiques du site web de la bibliothèque. Dans les deux discussions avec les étudiants et dans leurs rapports formels\, il est devenu clair qu’ils ont trouvé le site web inaccessible\, déroutant et peu accueillant pour les étudiants. À cette fin\, l’équipe du projet a développé un protocole UX qui visait à prioriser les perspectives des étudiants ainsi que les meilleures pratiques en matière de conception web accessible et inclusive. \nCette présentation fournira un bref aperçu du projet\, des exemples clés d’outils d’expérience utilisateur axés sur les étudiants que nous avons appliqués\, ainsi que nos observations et leçons apprises alors que nous continuons à évaluer et à affiner le site web de la bibliothèque. \nRésultats d’apprentissage – Les participants : \n\nComprendre comment mettre en œuvre des pratiques d’expérience utilisateur axées sur les étudiants dans un projet de conception web\nEnvisager des méthodes pour encourager l’adhésion du personnel de la bibliothèque à la conception de sites web axés sur les étudiants\nIdentifier des moyens de collecter et de mettre en œuvre durablement les retours des étudiants sur une base continue\n\n\n\n\n					 14h10 – 16h10 – Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques\n									\nJulie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser) \nLes praticiens de l’évaluation en bibliothèque peuvent intégrer les outils et techniques de dialogue pour faciliter des évaluations communautaires significatives et inclusives—avec les utilisateurs de la bibliothèque ainsi que les collègues de la bibliothèque. Cet atelier présentera la théorie\, les connaissances et les compétences pour faciliter le dialogue dans le travail d’évaluation des bibliothèques. \nLe dialogue peut être défini de nombreuses manières. C’est une méthode pour articuler les besoins\, les désirs et les hypothèses sous-jacentes dans des groupes qui rejette les dynamiques de pouvoir hiérarchiques et qui est axée sur la transformation. Il utilise des pratiques participatives pour organiser des conversations génératives\, être plus inclusif\, favoriser l’apprentissage mutuel\, centrer l’expertise vécue et exploiter la sagesse collective. Il « peut aider les groupes et les communautés à explorer respectueusement des questions polarisantes\, à aborder les conflits\, à délibérer sur le potentiel de problèmes complexes et bien plus encore » (Morris J. Wosk Centre for Dialogue\, Université Simon Fraser\, n.d.). Dans son livre de 1999\, Dialogue and the Art of Thinking Together\, William Issacs a succinctement et plutôt magnifiquement défini le dialogue comme « une conversation avec un centre\, pas des côtés » (p. 19). Williams a ensuite déclaré : « C’est une façon de prendre l’énergie de nos différences et de la canaliser vers quelque chose qui n’a jamais été créé auparavant. » Il nous élève hors de la polarisation et vers un sens commun plus grand\, et est ainsi un moyen d’accéder à l’intelligence et au pouvoir coordonné de groupes de personnes » (p. 19). \nLes participants à cet atelier apprendront comment le sous-groupe du plan d’instruction du Groupe de travail pour la formation et l’éducation en matière d’information (WGILI) de la bibliothèque SFU utilise des méthodes en dialogue pour évaluer les besoins de leurs collègues instructeurs et intégrer l’expertise vécue de leurs collègues dans le nouveau plan d’instruction de la Bibliothèque\, que le sous-groupe est en train de créer. Après une introduction à la théorie et au contexte SFU\, les participants seront invités à assumer le rôle de participants dans un dialogue structuré créé par le sous-groupe pour évaluer les besoins des instructeurs de bibliothèque à la bibliothèque SFU. Ce dialogue facilitera la connaissance co-construite\, le leadership distribué\, la pollinisation croisée des idées et la création de sens partagée et visible. \nAprès avoir expérimenté le dialogue structuré en tant que participants\, les participants seront invités à assumer le rôle de facilitateurs pendant que nous « tirons le rideau » et examinons et réfléchissons aux composantes\, à la conception et aux résultats du dialogue. Nous partagerons la théorie derrière les décisions prises et les actions entreprises et discuterons de la transférabilité des méthodes de facilitation utilisées\, en mettant l’accent sur l’application pratique des concepts et principes théoriques dans d’autres contextes d’évaluation de bibliothèques. Des modèles et des ressources de facilitation que les participants peuvent apporter dans leur pratique d’évaluation seront partagés. Nous discuterons également des avantages d’apporter des méthodes de dialogue et de facilitation dans le travail d’évaluation des bibliothèques. \nObjectifs d’apprentissage  \nÀ la fin de cet atelier\, les participants pourront : \n\nComprendre le dialogue comme une méthodologie.\nAppliquer des techniques de facilitation qui permettent le dialogue et favorisent des conversations significatives dans un cadre d’évaluation en bibliothèque.\nDévelopper des perspectives d’évaluation en utilisant des méthodes de facilitation et de dialogue.\n\nRéférences  \nIsaacs\, W. (1999). Le dialogue et l’art de penser ensemble : une approche pionnière pour communiquer dans les affaires et dans la vie (1ère éd). Monnaie. \nMorris J. Wosk Centre for Dialogue\, Université Simon Fraser (n.d.). Qu’est-ce que Dialogue ? Récupéré le 1 juin 2025\, de https://www.sfu.ca/dialogue/learn/what-is-dialogue.html \n\nJustine Wheeler & Mary-Jo Romaniuk (Université de Calgary) \nLes présentateurs décriront l’étude d’impact sur les bibliothèques et les ressources culturelles  à l’Université de Calgary. Cette étude se concentre sur l’expérience de deux groupes d’utilisateurs distincts : les professeurs et les étudiants. Il a été réalisé en étroite collaboration avec Implement Consulting Group. \nLe but de cette étude est de mieux comprendre le rôle et l’impact de les bibliothèques et les ressources culturelles dans la vie académique des étudiants et du corps professoral en capturant et en mesurant ce qui se passe lorsque ces utilisateurs s’engagent avec les bibliothèques et les ressources culturelles. De plus\, l’étude vise à inspirer et informer les décisions stratégiques futures et les plans pour les bibliothèques et les ressources culturelles. \nL’étude est basée sur un cadre Impact Compass\, qui est une approche de méthodes mixtes conçue pour explorer comment les expériences culturelles impactent les individus. La boussole sert d’outil pour communiquer de manière quantitative comment un individu expérimente un produit ou service culturel particulier\, tout en utilisant également l’analyse qualitative des données pour obtenir une compréhension plus approfondie des résultats. \nBien que le cadre Impact Compass ait déjà été utilisé pour les bibliothèques publiques\, il n’avait jamais été utilisé dans un contexte de recherche en bibliothèque. Pour s’assurer que la boussole d’impact a résonné dans le contexte du personnel de les bibliothèques et les ressources culturelles\, les étudiants et les professeurs ont été consultés\, et des adaptations significatives ont été apportées à la boussole. \nPlus précisément\, ce processus collaboratif a permis de déterminer quatre piliers de l’expérience des bibliothèques : l’espace\, les collections et les ressources numériques\, le soutien à l’enseignement et à l’apprentissage et le soutien à la recherche.  Chaque pilier s’est vu attribuer une boussole d’impact.  Chaque boussole a été divisée en quatre dimensions d’impact : émotionnelle\, intellectuelle\, sociale et créative.  Chaque dimension se composait de trois paramètres qui ont été testés et affinés pour refléter les besoins et le contexte d’une bibliothèque de recherche. Les données qualitatives ont ensuite été utilisées pour apporter des nuances et une compréhension de la boussole. À partir de cela\, des profils d’impact ont été développés. \nLes présentateurs discuteront des résultats de l’étude\, y compris les profils d’impact pour les étudiants et le corps professoral. Enfin\, les présentateurs discuteront de la façon dont les résultats de l’étude ont été utilisés et des plans pour une utilisation future. \nObjectifs d’apprentissage : \n\nCompréhension de base de la méthode utilisée pour cette étude.\nPotentiellement\, obtenir un aperçu des résultats de l’étude qui pourrait être généralisable à leur propre contexte\n\nSabina Pagotto (Scholars Portal) and Katrina Fortner (Ontario Council of University Libraries) \nÀ la fin de 2024\, les directeurs de bibliothèques qui composent le Conseil des bibliothèques universitaires de l’Ontario (CBUO) ont demandé de l’aide pour expliquer la valeur des services qu’ils reçoivent du CBUO et de son service Scholars Portal aux cadres supérieurs d’universités en dehors de la bibliothèque. Étant donné que plus de 20 établissements varient considérablement en taille\, intensité de recherche et priorités institutionnelles\, il n’y avait pas de consensus sur les types d’information qui seraient utiles pour communiquer aux cadres supérieurs. Certaines institutions\, par exemple\, préféraient les chiffres réels et demandaient spécifiquement le retour sur investissement ou les économies de coûts ; d’autres ont estimé que les déclarations sur les avantages qualitatifs seraient des arguments plus convaincants auprès de leurs administrateurs. \nEn réponse à cette demande\, le groupe de communication CBUO-Scholars Portal s’est mis en action. Nous avons étudié diverses façons de calculer la valeur et les économies de coûts dans différents services ou domaines d’opérations\, jusqu’à ce que nous ayons identifié une gamme de points de données que nous pensions pouvoir calculer en toute confiance pour chaque institution. Nous avons également rédigé des énoncés de valeur qui énoncent les avantages ou les résultats des services consortiaux et que nous nous attendions à voir résonner chez les administrateurs autres que ceux des bibliothèques. Une fois que nous avons eu un ensemble solide de déclarations\, nous avons demandé aux directeurs de bibliothèque de classer les déclarations qui\, selon eux\, seraient les plus utiles pour leur établissement. À l’aide d’un modèle conçu par notre équipe de services web\, nous avons ensuite généré des rapports personnalisés pour chaque institution qui a répondu. Ces rapports ont été distribués avec la documentation à l’appui qui fournissait plus de contexte pour permettre aux directeurs de bibliothèque de discuter en toute confiance de ces rapports avec les administrateurs de leur établissement\, reliant les points entre le coût de la bibliothèque ou les économies de ressources et les impacts positifs sur la communauté du campus. \nCette session discutera des défis\, des opportunités et des leçons apprises tout au long du projet. \nLes participants apprendront comment : \n\nDiscuter des méthodologies pour calculer les économies de coûts dans les services consortiaux\nAdoptez une optique de communication pour l’évaluation et considérez le rôle du public lors de la communication de la valeur\nPensez de manière critique aux statistiques et aux valeurs calculées et comprenez l’importance de savoir d’où viennent les chiffres\n\nKatrine Mallan (Université d’Ottawa) \nCette séance présentera comment la bibliothèque de l’Université d’Ottawa utilise le Cadre d’impact des bibliothèques de l’ABRC pour apporter plus de clarté\, de cohérence et d’évaluabilité à la mise en œuvre de notre nouveau plan stratégique. \nEn utilisant une orientation stratégique comme étude de cas\, j’expliquerai aux participants comment notre groupe de gestion des bibliothèques a élaboré en collaboration un modèle logique pour cartographier les activités clés\, les extrants\, les auditoires\, les résultats et les hypothèses sous-jacentes. Ce processus nous a aidés à aller au-delà des aspirations générales pour définir des actions tangibles\, tester la plausibilité du parcours d’impact et jeter les bases d’une évaluation significative. \nEn ancrant notre planification dans le cadre de l’ABRC\, nous avons établi une compréhension commune de la façon dont notre travail crée un impact et établi une ligne de mire plus claire entre la stratégie et la mise en œuvre. \nLa session mettra en évidence comment l’utilisation des modèles logiques : \n\nNous a aidés à rendre notre stratégie plus réalisable ;\nFait apparaître des hypothèses et clarifié les résultats escomptés ;\nCréé une base plus solide pour les futurs travaux d’évaluation.\n\nCette étude de cas est particulièrement pertinente pour les bibliothèques qui cherchent à combler le fossé entre la planification stratégique et l’exécution opérationnelle\, et pour celles qui visent à intégrer la pensée évaluative sans surcharger le personnel ou les ressources. \nObjectifs d’apprentissage : À la fin de la session\, les participants seront en mesure de : \n\nComprendre comment le cadre d’impact des bibliothèques de l’ABRC peut soutenir la mise en œuvre du plan stratégique.\nIdentifier les éléments clés d’un modèle logique simple qui clarifient l’intention et soutiennent l’évaluation future.\nRéfléchir à la façon dont une réflexion évaluative précoce peut améliorer la cohérence et la faisabilité des efforts de planification stratégique.\n\nCette session est conçue pour être pratique et transférable\, en particulier pour les bibliothèques qui naviguent entre le milieu désordonné de la conception et de l’exécution de la stratégie. Notre étude de cas vise à susciter des idées pour les bibliothèques cherchant à intégrer l’évaluation dans leurs pratiques de planification et à rendre l’intention stratégique plus actionnable et visible. \nSam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western ) \nLes bibliothèques académiques collectent un large éventail de données via diverses plateformes\, outils et procédures. Cependant\, le personnel et la direction ont souvent du mal à accéder à ces données ou à les interpréter. À Western Libraries\, nous avions un défi commun. Les données étaient difficiles à trouver\, hébergées sur différentes plateformes\, suivies de manière incohérente parmi nos équipes et difficiles à connecter pour une prise de décision fondée sur des preuves à tous les niveaux. \nPour aider à cela\, nous développons un tableau de bord en temps réel qui favoriserait la transparence et l’accessibilité à nos données. Ce tableau de bord vise à soutenir la prise de décision fondée sur des preuves dans l’ensemble de l’organisation pour aider à la planification stratégique\, à l’allocation des ressources et aux opérations. \nLe projet a commencé par des consultations avec les dirigeants pour déterminer la portée du projet et définir les objectifs clés. Cela a été suivi d’une série de réunions internes sur l’inventaire des données avec les principaux intervenants de nos services aux utilisateurs et de nos équipes de la haute direction pour comprendre quelles données étaient recueillies\, comment et par qui. Ces réunions ont révélé des lacunes dans la collecte de données\, ainsi que des différences clés dans la façon dont toutes les équipes visualisent et utilisent leurs données. En parallèle\, nous avons également travaillé avec des membres de notre équipe LITS (Library Information Technology Services) pour évaluer les exigences techniques\, explorer les options de visualisation et identifier quelles seraient les options les plus durables à long terme. \nDans cette session\, nous partagerons notre processus de planification\, les leçons apprises et les étapes pratiques que nous avons utilisées pour cartographier et consolider nos données à travers un grand système de bibliothèque. Nous discuterons également de la façon dont nous avons encadré notre processus en utilisant ADKAR (Sensibilisation\, Désir\, Connaissance\, Capacité\, Renforcement) pour soutenir un changement durable et contribuer à une culture d’évaluation dans les bibliothèques occidentales. \nObjectifs d’apprentissage/ Principaux points à retenir \n\nLes participants seront en mesure d’identifier et de consolider les données existantes et de déterminer les lacunes et les solutions dans la collecte de données actuelle.\nLes participants seront en mesure de comprendre le processus précoce de conception d’une « plateforme » pour accroître l’accès aux données institutionnelles.\nLes participants auront des idées pour appliquer des stratégies de gestion du changement afin de promouvoir l’adoption et soutenir les initiatives d’évaluation.\n\nSarah Coysh & Sheril Hook (Université York) \nQui passe du temps et combien de temps passent-ils dans nos bibliothèques ? C’est la question qui nous a poussés à tenir un Jour du recensement dans toutes nos bibliothèques. Nous avons capturé le trafic de bibliothèque de 19232 entrées/sorties à travers la journée.  Nous avons sélectionné dix-sept points de données à enregistrer\, y compris le code postal actuel\, le niveau du diplôme\, le pendulaire ou en résidence\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96 % de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes chacun. \nComme Dillalogue & Koehn (2020)\, nous voulions aller plus loin que le comptage des portes seul\, alors nous avons créé un outil de tap-in/tap-out pour permettre aux utilisateurs d’utiliser volontairement leur identifiant de campus lorsqu’ils entrent et sortent de nos six bibliothèques en une seule journée en 2025. Nous avons calqué ce projet d’évaluation sur celui des bibliothèques de McGill qui ont déjà organisé un événement semblable.  Notre objectif était de capturer 80% du trafic en une seule journée pendant nos heures d’ouverture.  Nous avons également utilisé le jour du recensement comme catalyseur pour notre enquête LibQUAL+ pour laquelle nous avons reçu plus d’enquêtes complétées que les années précédentes. \nDeux approches ont été essentielles au succès du jour du recensement : la participation de tout le personnel de la bibliothèque et l’établissement d’un partenariat avec le Bureau de la planification et de l’analyse institutionnelle (OIPA).  Le personnel a été impliqué dans l’établissement du système de numérisation des cartes d’identité ; la logistique du jour pour chaque bibliothèque ; attribution des rôles le jour du recensement; développer et diffuser des ressources de communication ; célébrant le succès de la journée ; aider à l’analyse préliminaire des résultats).  Le partenariat avec OIPA nous a permis de sélectionner parmi plus de 200 points de données ; maintenir l’anonymat des données ; et nous a fourni le langage pour décrire l’analyse dans les contraintes de protection des données des clients. \nNous avons sélectionné dix-sept points de données\, y compris le code postal actuel\, le niveau du diplôme\, la personne qui fait la navette ou qui réside\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96% de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes. \nDans cette session\, nous partagerons des détails sur ce que nous avons appris sur les utilisateurs des bibliothèques et combien de temps ils restent\, y compris les données qui nous ont surpris et le suivi des idées d’évaluation. \nLes participants découvriront la variété des points de données collectés par les institutions académiques et comment ceux-ci peuvent être utiles pour éclairer les décisions concernant les heures\, le personnel\, la conception de l’espace\, la circulation\, etc. \nLes participants découvriront un système de tableau de bord open-source (Metabase) qui permet d’interroger les données pour la visualisation des données. \nLes participants recevront également un lien vers une pochette contenant des conseils sur la façon de mener leur propre journée de recensement. \nRéférence : \nDillalogue\, E.\, & Koehn\, M. (2020). Assessment on a Dime : Collecte de données utilisateur à faible coût pour l’évaluation. Bibliothèque basée sur des preuves et pratique d’information\, 15(3)\, 2–20. https://doi.org/10.18438/eblip29582 \nJessica Lange & Nailisa Tanner (Université McGill) \nAu début de tout projet\, les parties prenantes définissent ce qui constitue le succès. Cette définition est ensuite utilisée à la fin du projet pour évaluer si ces objectifs ont été atteints et finalement déterminer si le projet a été « réussi » ou non. Les mesures typiques utilisées dans la gestion de projet\, telles que les indicateurs clés de performance (KPI) et l’utilisation des ressources\, bien qu’elles soient potentiellement utiles\, s’adressent aux entreprises ou aux lieux de travail à but lucratif et peuvent ne pas être les plus pertinentes ni transférables aux environnements académiques où le profit n’est pas un facteur pertinent. \nAprès avoir terminé plusieurs projets dans l’unité de technologie des bibliothèques de McGill et en utilisant des mesures typiques pour évaluer les projets\, il est devenu clair que bien que ces mesures répondaient au « quoi » d’un projet\, elles ne répondaient pas au « comment ». Les projets pourraient être achevés à temps et atteindre leurs objectifs\, mais ils peuvent avoir rencontré des problèmes importants au cours de leur déroulement\, tels qu’une mauvaise planification\, des conflits d’effectifs et des délais serrés. Définir le succès en termes aussi étroits a laissé le personnel insatisfait\, en particulier si le projet a rencontré des défis importants. Faire une rétrospective sur le projet est un modèle pour capturer des retours qualitatifs\, permettant aux membres de l’équipe d’apprendre et de grandir à partir (parfois) d’expériences négatives. Cela peut fournir un contexte supplémentaire en dehors des mesures de succès typiques. \nLes objectifs d’apprentissage de cette présentation incluent : \n\nDécrire brièvement les outils de base de la documentation de gestion de projet (par exemple\, charte\, rétrospective).\nÉnoncez les métriques communes utilisées pour évaluer le succès du projet\nDiscuter d’un modèle\, y compris des rétrospectives\, qui capture les commentaires qualitatifs des participants sur le succès du projet dans un environnement académique\n\nJuliene McLaughlin & Robin Bergart (Université de Guelph) \nComme le dit le proverbe\, « si ce n’est pas cassé\, ne le réparez pas. » Mais parfois\, ce n’est pas aussi clair quand un service de bibliothèque est bien tel qu’il est et devrait être laissé seul\, ou s’il commence à se casser\, ou s’il est déjà cassé.  Pendant de nombreuses années\, notre bibliothèque a maintenu une page Web publique répertoriant les bases de données\, et en 2016\, nous avons mis en œuvre la liste A-Z de bases de données de Springshare. Au cours de cette période\, notre équipe UX a mené des études d’utilisabilité\, recueilli des analyses web et surveillé la documentation de la bibliothèque. Nous avons recommandé des changements progressifs pour s’assurer que cette page est aussi utilisable et utile que possible. Cependant\, plus récemment\, nous avons commencé à nous demander si cette page est toujours pertinente et si elle fait plus de mal que de bien. Après une enquête approfondie sur l’UX\, nous n’avons pas pu parvenir à une conclusion définitive\, mais notre intuition selon laquelle il y a un problème n’a pas disparu.  Que faites-vous lorsque votre instinct vous dit qu’il y a un problème\, mais que les preuves ne sont pas concluantes ? Quand devriez-vous abandonner les améliorations progressives et apporter un changement radical ? Qui décide ? \nObjectifs d’apprentissage : \n\nDiscutez du rôle de l’intuition professionnelle dans le travail sur l’expérience utilisateur\, y compris comment équilibrer les sentiments instinctifs avec des preuves empiriques.\nReconnaître les signes indiquant qu’un service de bibliothèque peut ne plus répondre aux besoins des utilisateurs\, même lorsque les indicateurs d’utilisabilité traditionnels sont peu concluants.\nÉvaluer la tension entre l’amélioration progressive et la refonte radicale et identifier des stratégies pour prendre des décisions éclairées sur le moment de changer d’approche.\n\nAli Foster\, Abigail Graham\, et David Pearson (Université MacEwan) \nCette brève présentation met en évidence les expériences et les leçons tirées d’une refonte complète d’un site Web de bibliothèque de premier cycle axé sur l’amélioration de l’expérience utilisateur pour les étudiants de premier cycle. L’équipe du projet était composée de quatre employés : un graphiste\, un informaticien et deux bibliothécaires. Le principal défi auquel l’équipe a été confrontée était de développer un protocole d’expérience utilisateur (UX) qui privilégiait les perspectives des étudiants tout en obtenant le soutien du personnel de la bibliothèque pour les changements proposés à nos pratiques d’évaluation existantes. \nAvant le lancement du projet à l’automne 2023\, les efforts de refonte du site web précédents tenaient principalement compte des opinions du personnel et du corps professoral de la bibliothèque. Par conséquent\, l’architecture de l’information du site et le ton de la voix ont été signalés comme des domaines d’amélioration potentiels lors du processus de refonte. Cette préoccupation a été validée lorsque l’équipe a collaboré avec des étudiants de troisième année en anthropologie menant des études ethnographiques du site web de la bibliothèque. Dans les deux discussions avec les étudiants et dans leurs rapports formels\, il est devenu clair qu’ils ont trouvé le site web inaccessible\, déroutant et peu accueillant pour les étudiants. À cette fin\, l’équipe du projet a développé un protocole UX qui visait à prioriser les perspectives des étudiants ainsi que les meilleures pratiques en matière de conception web accessible et inclusive. \nCette présentation fournira un bref aperçu du projet\, des exemples clés d’outils d’expérience utilisateur axés sur les étudiants que nous avons appliqués\, ainsi que nos observations et leçons apprises alors que nous continuons à évaluer et à affiner le site web de la bibliothèque. \nRésultats d’apprentissage – Les participants : \n\nComprendre comment mettre en œuvre des pratiques d’expérience utilisateur axées sur les étudiants dans un projet de conception web\nEnvisager des méthodes pour encourager l’adhésion du personnel de la bibliothèque à la conception de sites web axés sur les étudiants\nIdentifier des moyens de collecter et de mettre en œuvre durablement les retours des étudiants sur une base continue\n\nJulie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser) \nLes praticiens de l’évaluation en bibliothèque peuvent intégrer les outils et techniques de dialogue pour faciliter des évaluations communautaires significatives et inclusives—avec les utilisateurs de la bibliothèque ainsi que les collègues de la bibliothèque. Cet atelier présentera la théorie\, les connaissances et les compétences pour faciliter le dialogue dans le travail d’évaluation des bibliothèques. \nLe dialogue peut être défini de nombreuses manières. C’est une méthode pour articuler les besoins\, les désirs et les hypothèses sous-jacentes dans des groupes qui rejette les dynamiques de pouvoir hiérarchiques et qui est axée sur la transformation. Il utilise des pratiques participatives pour organiser des conversations génératives\, être plus inclusif\, favoriser l’apprentissage mutuel\, centrer l’expertise vécue et exploiter la sagesse collective. Il « peut aider les groupes et les communautés à explorer respectueusement des questions polarisantes\, à aborder les conflits\, à délibérer sur le potentiel de problèmes complexes et bien plus encore » (Morris J. Wosk Centre for Dialogue\, Université Simon Fraser\, n.d.). Dans son livre de 1999\, Dialogue and the Art of Thinking Together\, William Issacs a succinctement et plutôt magnifiquement défini le dialogue comme « une conversation avec un centre\, pas des côtés » (p. 19). Williams a ensuite déclaré : « C’est une façon de prendre l’énergie de nos différences et de la canaliser vers quelque chose qui n’a jamais été créé auparavant. » Il nous élève hors de la polarisation et vers un sens commun plus grand\, et est ainsi un moyen d’accéder à l’intelligence et au pouvoir coordonné de groupes de personnes » (p. 19). \nLes participants à cet atelier apprendront comment le sous-groupe du plan d’instruction du Groupe de travail pour la formation et l’éducation en matière d’information (WGILI) de la bibliothèque SFU utilise des méthodes en dialogue pour évaluer les besoins de leurs collègues instructeurs et intégrer l’expertise vécue de leurs collègues dans le nouveau plan d’instruction de la Bibliothèque\, que le sous-groupe est en train de créer. Après une introduction à la théorie et au contexte SFU\, les participants seront invités à assumer le rôle de participants dans un dialogue structuré créé par le sous-groupe pour évaluer les besoins des instructeurs de bibliothèque à la bibliothèque SFU. Ce dialogue facilitera la connaissance co-construite\, le leadership distribué\, la pollinisation croisée des idées et la création de sens partagée et visible. \nAprès avoir expérimenté le dialogue structuré en tant que participants\, les participants seront invités à assumer le rôle de facilitateurs pendant que nous « tirons le rideau » et examinons et réfléchissons aux composantes\, à la conception et aux résultats du dialogue. Nous partagerons la théorie derrière les décisions prises et les actions entreprises et discuterons de la transférabilité des méthodes de facilitation utilisées\, en mettant l’accent sur l’application pratique des concepts et principes théoriques dans d’autres contextes d’évaluation de bibliothèques. Des modèles et des ressources de facilitation que les participants peuvent apporter dans leur pratique d’évaluation seront partagés. Nous discuterons également des avantages d’apporter des méthodes de dialogue et de facilitation dans le travail d’évaluation des bibliothèques. \nObjectifs d’apprentissage  \nÀ la fin de cet atelier\, les participants pourront : \n\nComprendre le dialogue comme une méthodologie.\nAppliquer des techniques de facilitation qui permettent le dialogue et favorisent des conversations significatives dans un cadre d’évaluation en bibliothèque.\nDévelopper des perspectives d’évaluation en utilisant des méthodes de facilitation et de dialogue.\n\nRéférences  \nIsaacs\, W. (1999). Le dialogue et l’art de penser ensemble : une approche pionnière pour communiquer dans les affaires et dans la vie (1ère éd). Monnaie. \nMorris J. Wosk Centre for Dialogue\, Université Simon Fraser (n.d.). Qu’est-ce que Dialogue ? Récupéré le 1 juin 2025\, de https://www.sfu.ca/dialogue/learn/what-is-dialogue.html \n\n\n					 9h00 – 10h30 – Dix projets d’évaluation récents que nous aimons\n									\nJustine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \nLe paysage de l’évaluation est en train de changer.  Il y a un changement continu vers une focalisation sur la valeur et l’impact\, une augmentation de l’évaluation qualitative et des méthodes mixtes\, ainsi que des explorations naissantes dans le rôle de l’intelligence artificielle générative dans l’évaluation. Dans notre environnement actuel\, il peut être difficile de suivre les nouvelles initiatives et développements – surtout avec un temps\, des ressources et/ou une technologie limités. \nDans cette session amusante et rythmée\, les présentateurs partageront leurs récents projets d’évaluation et pratiques\, ainsi que des pratiques innovantes dans d’autres bibliothèques. Bien que bon nombre des projets abordés dans la présentation proviennent de bibliothèques universitaires\, tous les projets peuvent être appliqués dans des milieux universitaires\, publics\, gouvernementaux et autres. De plus\, les exemples vont des projets et pratiques qui peuvent être réalisés avec des ressources limitées (temps\, argent\, technologie)\, aux exemples plus intensifs en ressources. \nLes projets et les pratiques présentés varieront en ce qui concerne l’objectif (collections\, espace\, instruction\, etc.)\, la méthodologie (point d’utilisation\, collections prédictives\, photo voice\, etc.)\, la période de temps (transversale\, longitudinale) et la portée de l’impact (individuel\, institutionnel\, sociétal). \nRésultats d’apprentissage : \nCette session s’adresse aux bibliothécaires qui souhaitent découvrir de nouvelles perspectives ou méthodologies dans le domaine de l’expérience utilisateur des bibliothèques\, de l’évaluation ou de la pratique de l’impact. L’objectif de la session est que les participants repartent avec une nouvelle approche de l’évaluation qu’ils peuvent appliquer dans leur bibliothèque. \nDu temps sera également accordé aux membres de l’auditoire pour partager leur propre initiative d’évaluation récente et passionnante. \n\n\n\n					 11h00 – 11h30 – Conférences éclair\n									\nAu-delà des bugs : Utiliser une fonctionnalité ‘Signaler un problème’ pour comprendre les attentes des utilisateurs (Université de Regina) \nEn février 2023\, l’Université de Regina a mis en place une fonctionnalité de signalement d’un problème dans son système de découverte. Depuis lors\, plus de 600 rapports ont été soumis\, et cela est devenu un canal de rétroaction essentiel. Grâce à ces rapports\, nous avons acquis un aperçu des aspects de l’expérience de recherche et de découverte que les clients trouvent déroutants\, contre-intuitifs ou frustrants. Ces rapports de problèmes soumis par les utilisateurs mettent fréquemment en évidence des incohérences entre la fonctionnalité du système et les besoins et hypothèses des utilisateurs. En analysant ces rapports\, nous avons pu mieux comprendre le comportement et les attentes des utilisateurs à l’égard du système de la bibliothèque et de la bibliothèque en général. Cette présentation éclair décrira comment ces rapports ont été analysés\, et les idées acquises grâce à ce processus. \nTests d’utilisabilité et d’accessibilité : Utilisation d’un protocole de réflexion à voix haute comme outil d’évaluation pour les systèmes de revues ouvertes – Caitlin Bakker & Christopher Read (Université de Regina) \nDans cette conférence éclair\, les présentateurs partageront leur expérience en matière de tests d’utilisabilité et d’accessibilité dans le cadre du lancement par l’Université de Regina des Proceedings of the Canadian Nuclear Society in Open Journal Systems (OJS). Cette présentation éclair se concentrera sur les meilleures pratiques et les points à retenir de l’utilisation d’un protocole de réflexion à voix haute pour évaluer la collection et sa fonctionnalité de recherche. L’objectif principal de ces tests était de permettre à diverses communautés d’utilisateurs de s’engager dans une recherche efficace d’informations\, qu’ils accèdent au système via des ordinateurs de bureau ou des appareils mobiles. La session couvrira les aspects pratiques de la méthodologie de test\, tels que le travail avec un stage en bibliothèque à distance. Les participants peuvent s’attendre à en apprendre davantage sur des techniques spécifiques de test d’utilisabilité\, y compris les invites\, les lecteurs d’écran\, l’enregistrement et d’autres aspects du test think aloud\, et comment ils peuvent fournir un aperçu critique pour améliorer la conception du système et la satisfaction des utilisateurs. \nDemander à Chat à propos de LibrarySearch – Susan Bond (Université de Toronto) \nÀ l’Université de Toronto\, nous avons ajouté ces dernières années notre outil d’aide par chat intégré à notre couche de découverte – Ex Libris Primo VE\, que nous avons étiqueté localement comme LibrarySearch. Parce que LibrarySearch est un outil en libre-service\, chaque discussion lancée représente un point de repère potentiel – c’est une façon pour les utilisateurs de nous faire savoir qu’ils ne sont pas capables de se servir. Début 2025\, nous avons entrepris une évaluation exploratoire en examinant les transcriptions de chat d’un mois\, pour voir ce que nous pouvions découvrir sur les défis dans notre interface\, les lacunes dans notre documentation et les problèmes avec nos ressources. Nos conclusions comprenaient des preuves en faveur des changements sur lesquels nous travaillions déjà\, certaines victoires rapides et certaines choses auxquelles nous devrons réfléchir davantage avant de pouvoir les aborder. Dans cette présentation éclair\, nous examinerons nos conclusions spécifiques sur notre interface utilisateur\, notre document de support et la dotation en personnel de notre support de chat\, et aborderons ce que nous avons appris sur notre codage/évaluation et comment nous allons le changer à l’avenir. \n\n\n\n					 13h00 – 13h20– Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs\n									\nMichelle Goodridge (Université Wilfrid Laurier) \nEn 2017\, un partenariat bibliothécaire-faculté a conduit à la création d’une simulation en classe pour un cours de première année de premier cycle sur les droits humains mondiaux. Les étudiants ont assumé des rôles représentant des acteurs mondiaux (par exemple\, des États-nations et des ONG) pour répondre à une crise simulée dans le meilleur intérêt de leur propre rôle\, ce qui a conduit à développer des compétences en recherche\, évaluation et pensée critique dans un environnement d’apprentissage actif. Une étude de recherche à méthodes mixtes a évalué l’impact de la simulation\, combinant des données qualitatives issues de réflexions et d’observations avec une analyse quantitative basée sur les critères. Cette session présentera le design de la simulation\, les stratégies d’évaluation et les principales conclusions\, en démontrant comment l’apprentissage par le jeu peut améliorer de manière significative l’engagement et le développement des compétences des étudiants. Les participants auront un aperçu de l’application de ces méthodes dans d’autres contextes pédagogiques et de l’utilisation des données pour plaider en faveur d’une collaboration plus approfondie entre professeurs et bibliothécaires. \n\n\n\n					 13h25 – 13h45 – Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information.\n									\nAmy McLay Paterson (Université Thompson Rivers) \nEn 2023-2024\, les bibliothécaires de l’Université Thompson Rivers ont développé un programme pilote pour transformer un programme de littératie informationnelle principalement monocouche en un programme structuré et intégré. Le projet pilote d’enseignement en bibliothèque de l’anglais 1100 (ELIP) a été développé comme une collaboration entre la bibliothèque et le département d’anglais au printemps 2023 dans le but d’élargir l’enseignement en bibliothèque pour soutenir la réussite des étudiants et leur appartenance. Plutôt que de participer à la session unique habituelle\, les étudiants ELIP désignés participeront à une série de trois tutoriels hebdomadaires pour la bibliothèque. Le projet ELIP s’est déroulé tout au long de l’année académique 2023-24\, période durant laquelle nous avons collecté des données d’affectation des étudiants\, des retours des étudiants\, des retours du corps professoral et des entrées de journal réfléchies des participants bibliothécaires pour déterminer l’efficacité et la durabilité du programme. \nLes lacunes des sessions de littératie informationnelle ponctuelles sont répandues et bien documentées dans notre profession. Nicole Pagowsky déclare que « le one-shot—même s’il y en a plus d’un — rend difficile d’atteindre un apprentissage plus profond\, une pensée critique et une pédagogie inclusive » (2021\, 2). Cependant\, notre approche du projet pilote—ni un cours en une seule fois ni un cours à crédit — est unique dans la littérature établie. \n\nLe programme ELIP a-t-il aidé les étudiants à réussir leurs cours d’anglais associés ?\nUne instruction plus intégrée aide-t-elle à renforcer les relations entre la bibliothèque et la communauté de l’UTR ?\nComment pouvons-nous améliorer nos pratiques d’enseignement pour mieux répondre aux besoins des étudiants ?\n\nSelon chacun de ces indicateurs\, le programme ELIP a amélioré les résultats par rapport au one-shot habituel. Les résultats du sondage auprès des professeurs sont très positifs\, et les instructeurs bibliothécaires ont tous observé la profondeur de l’engagement des étudiants et la construction de relations positives. Cette relation plus étroite avec les étudiants a également abouti à des améliorations tangibles de nos pratiques pédagogiques et des objets d’apprentissage existants. Ma présentation présentera le programme ELIP\, y compris la justification de sa conception; présenter les différentes méthodes d’évaluation que nous avons utilisées ; et discuter de nos résultats et des prochaines étapes. Des supports de cours\, ainsi que des outils d’évaluation (tels que des sondages et des formulaires de consentement) seront mis à la disposition des participants intéressés. \nObjectifs d’apprentissage \nLes participants à cette session pourront : \n\nReconnaître les avantages et les limites d’une myriade de méthodes d’évaluation de la littératie informationnelle.\nConsidérez comment les objectifs de l’enseignement de la littératie informationnelle affectent la conception et l’évaluation des programmes.\nArticuler une variété de mesures du succès de la littératie informationnelle à utiliser dans les communications et discussions internes et externes.\n\n\n\n\n					 13h50 – 14h10 – Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques\n									\nRong Luo\, Shuzhen Zhao\, et Karen Pillon (University of Windsor) \nÀ mesure que l’enseignement de la littératie informationnelle (LI) continue d’évoluer dans les bibliothèques universitaires\, les pratiques d’évaluation doivent suivre le rythme pour garantir des résultats significatifs. Cette session explore l’efficacité de la formation en LI en présentant une étude menée à l’Université de Windsor qui évalue les compétences en LI perçues et démontrées chez les étudiants diplômés de la Faculté des arts\, des sciences humaines et des sciences sociales (FAHSS). Fondée sur le cadre de l’ACRL pour la littératie informationnelle dans l’enseignement supérieur et utilisant une version modifiée du test Beile de littératie informationnelle pour l’éducation (B-TILED)\, l’étude souligne comment les outils d’analyse et d’évaluation structurée peuvent informer\, améliorer et valider les programmes d’instruction de la bibliothèque. \nLa formation à l’LI prend diverses formes\, des séances en classe aux activités d’orientation et aux consultations individuelles\, mais son efficacité passe souvent inaperçue. En comparant les étudiants qui ont reçu un enseignement formel de l’LI avec ceux qui ne l’ont pas reçu\, cette session révèle si la formation est corrélée avec des compétences de recherche plus solides et une confiance accrue dans la navigation des ressources académiques. \nLes participants découvriront une approche d’évaluation flexible et évolutive utilisant B-TILED\, qui combine des données démographiques\, l’auto-évaluation des capacités de recherche et des tests de connaissances objectifs. La session discute également des considérations pratiques pour la conception\, la mise en œuvre et l’analyse de l’enquête à l’aide de SPSS ou de plateformes similaires. \nObjectifs d’apprentissage : À la fin de cette session\, les participants seront en mesure de : \n\nDécrivez comment les outils d’évaluation de la littératie informationnelle peuvent être intégrés dans les programmes d’enseignement des bibliothèques universitaires.\nIdentifiez les composants clés du cadre B-TILED et comprenez comment l’adapter à différents contextes de bibliothèque.\nAnalyser et interpréter la relation entre l’aptitude à la recherche perçue de soi et les compétences en LI mesurées objectivement.\nAppliquer des stratégies d’analyse quantitative de base pour évaluer l’impact de la formation en bibliothèque à l’aide de plateformes analytiques.\nÉlaborer des stratégies fondées sur des données probantes pour améliorer et justifier les efforts d’enseignement de l’LI en réponse aux besoins d’apprentissage des étudiants et aux objectifs institutionnels.\n\n\n\n\n					 14h10 – 14h30 – Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail\n									\nSarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill) \nDepuis plus de 20 ans\, les bibliothèques numérisent et fournissent un accès en ligne à leurs collections pour mieux servir la recherche\, l’enseignement et les objectifs créatifs des universitaires et des non-universitaires. La nature ouverte et en ligne de la plupart des collections numérisées par les bibliothèques a aidé à faciliter l’accès pour de nouveaux publics; cependant\, cette ouverture signifie également que les bibliothèques connaissent comparativement peu ceux qui utilisent ces ressources\, ce qui rend ces ressources difficiles à évaluer pour les bibliothèques. Si vous ne savez pas qui sont vos utilisateurs\, comment pouvez-vous les connaître ? \nLa recherche sur l’expérience utilisateur a gagné en popularité et est largement acceptée dans les bibliothèques comme un ensemble standard de techniques pour évaluer les services et les interfaces des bibliothèques\, et les plateformes de collections numériques ne font pas exception ici. Cependant\, une grande partie de la recherche sur l’expérience utilisateur menée dans le but d’évaluer les programmes et plateformes de collections numériques se limite aux affiliés institutionnels et ne concerne que la plateforme de collections numériques elle-même\, négligeant les questions sur la façon dont les utilisateurs trouvent ces collections en premier lieu ainsi que comment ils les utilisent dans leurs recherches. \nCette présentation rend compte d’une étude à méthodes mixtes menée dans le but d’élargir nos horizons sur qui sont les utilisateurs des collections numériques et comment ils utilisent les ressources numérisées des bibliothèques dans leurs recherches. Notre étude a utilisé des enquêtes anonymes et des entretiens qualitatifs pour atteindre un équilibre entre l’ampleur de la participation et la profondeur des réponses. Reconnaissant la nature ouverte de nos collections numériques\, nous avons inclus des chercheurs académiques indépendamment du lieu ou de l’affiliation institutionnelle\, ainsi que des chercheurs non académiques comme les journalistes\, les artistes\, les blogueurs et les historiens publics. Notre étude a posé trois questions de recherche principales : Qui utilise les collections numérisées des bibliothèques ? Comment les trouvent-ils ? Et enfin\, comment les utilisent-ils dans leurs recherches ? \nDans cette présentation\, nous nous concentrerons sur les méthodes que nous avons utilisées pour cette étude\, leurs résultats et ce que nous avons appris de ce processus. Nous discuterons de l’importance d’utiliser plusieurs types de techniques de recherche pour l’évaluation dans le contexte de la recherche sur l’expérience utilisateur\, et en particulier de ce que ce type de recherche à méthodes mixtes peut contribuer à la suite d’outils de recherche sur l’expérience utilisateur. Les participants apprendront les points forts de la recherche à méthodes mixtes\, comment les techniques de recherche exploratoire peuvent être utilisées pour compléter et améliorer d’autres données évaluatives\, comme les études d’utilisabilité et l’analyse web\, qui peuvent être collectées pour l’évaluation des bibliothèques\, et comment appliquer ces techniques pour répondre à de grandes questions en matière d’expérience utilisateur et d’évaluation des services de bibliothèque. \n\n\n\n					 14h45 – 15h05 – Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs\n									\nJody Nelson & Alison Pitcher (Université MacEwan) \nNotre session présentera le programme d’évaluation de l’enseignement de la littératie informationnelle [LI] dirigé par des pairs que nous facilitons pour les bibliothécaires dans notre université de premier cycle\, y compris l’impulsion\, le développement\, la fondation théorique\, la structure et l’impact. Nous partagerons des observations sur la façon dont le programme contribue à notre compréhension de la pratique d’enseignement réflexif comme étant au cœur de l’évaluation pédagogique et du développement d’une communauté plus cohésive de pratiques pédagogiques parmi les bibliothécaires enseignants impliqués dans le programme. \nNotre programme de mentorat réfléchi entre pairs dans l’enseignement des triangles remplit le mandat de la bibliothèque pour développer des pratiques durables d’évaluation de l’enseignement de l’LI en harmonie avec le plan stratégique de notre université\, Teaching Greatness. Adoptant une approche d’évaluation centrée sur l’étudiant et fondée sur le cadre d’évaluation critique de l’enseignement en bibliothèque développé par McCartin & Dineen (2018)\, notre programme d’évaluation critique de l’LI promeut l’évaluation intentionnelle et continue de l’enseignement cultivée à travers la pratique réflexive. En nous attribuant le travail d’évaluation et d’amélioration en tant qu’enseignants\, nous transférons la charge de l’évaluation (c’est-à-dire remplir des formulaires de retour ou des instruments de mesure) sur les étudiants. \nEn construisant la participation de longue date de notre bibliothèque dans l’enseignement des triangles d’observation et du mentorat pédagogique LI\, notre programme offre des opportunités d’évaluation continue de l’enseignement en combinaison avec un mentorat ciblé par les pairs. Les participants au programme forment des triangles de mentorat par les pairs qui se rencontrent plusieurs fois au cours d’un trimestre académique. Les participants individuels identifient les éléments d’enseignement prioritaires (c.-à-d. le contenu\, l’accessibilité\, les interactions avec les étudiants) au sujet desquels ils aimeraient recevoir des commentaires constructifs; les observateurs pairs adoptent une approche basée sur les points forts\, partageant des retours positifs ainsi que toute suggestion utile pour l’amélioration dans les domaines pré-identifiés. En tant que membres d’une triade de co-mentorat\, les participants visent à favoriser l’excellence dans l’enseignement tout en apprenant les uns des autres\, en collectant des idées pour améliorer les expériences d’apprentissage des étudiants lorsqu’ils s’observent mutuellement. Pour les bibliothécaires en début de carrière en particulier\, l’aspect co-mentorat crée un environnement sûr pour développer la compétence d’enseignement et la confiance. Ce programme permet non seulement une évaluation significative de l’enseignement\, mais offre également aux participants la possibilité de favoriser une pratique réflexive individuelle de manière continue\, soutenue et relationnelle (Lewitzky\, 2020). \nSuite à notre session\, les participants repartiront avec une compréhension de :● La valeur de l’observation relationnelle par les pairs pour l’évaluation de l’enseignement● Le rôle de la pratique pédagogique réflexive pour une amélioration soutenue et continue● Comment notre programme est géré afin qu’il puisse être adapté pour les institutions participantes \nRéférences :Lewitzky\, R.A. (2020). Éduquer\, apprendre et grandir : Une revue du rôle d’enseignement dans la bibliothéconomie académique. Bibliothèques universitaires et de premier cycle\, 27(1)\, 32-40. \nMcCartin\, L. F.\, & Dineen\, R. (2018). Vers une pratique d’évaluation critique et inclusive pour l’enseignement en bibliothèque. Litwin Books. \n\n\n\n					 15h10 – 15h40 – Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections\n									\nErin Calhoun (Université de Toronto) \nLes développements dans l’édition en libre accès\, les modèles d’affaires et les politiques de financement ont amené les communications savantes au sein du travail de développement des collections. De plus en plus\, les fonds pour le développement des collections des bibliothèques sont réaffectés pour couvrir les frais d’édition grâce à des accords transitoires de lecture et de publication. Ce changement s’accompagne d’un besoin pressant de nouveaux cadres d’évaluation – ceux qui vont au-delà des statistiques traditionnelles sur l’utilisation des ressources électroniques pour mesurer la production de publications et l’investissement financier. Les bibliothèques doivent développer des capacités pour recueillir et analyser les données de publication institutionnelle afin d’éclairer les décisions relatives au développement des collections. \nCependant\, évaluer la publication en libre accès n’est pas simple. Les données de publication en libre accès sont souvent présentées dans des formats incohérents et dispersées dans les rapports bibliométriques et ceux des éditeurs\, ce qui entrave l’analyse agrégée. Pour relever ce défi\, les bibliothèques de l’Université de Toronto ont lancé un projet pilote visant à rationaliser la collecte\, le nettoyage et la visualisation des données de publication en libre accès. \nLa courte session partagera des idées tirées du projet pilote\, qui comprend la collecte de rapports sur les données de publication provenant de plusieurs accords d’accès libre\, la normalisation des données dans un modèle unifié\, et construire un tableau de bord interactif pour visualiser l’activité éditoriale et les contributions financières de l’université dans l’édition en libre accès. Le projet a d’abord exploré des solutions basées sur la programmation pour le nettoyage des données\, mais a finalement adopté KNIME – une plateforme open source à faible code – pour gérer les tâches complexes de nettoyage des données de manière évolutive et accessible. \nÀ partir de cette présentation\, les participants : \n\nAcquérir des connaissances sur la façon de suivre et de visualiser la publication en libre accès dans leur établissement\nComprendre les défis liés à la collecte de données sur les publications et les stratégies de collecte de grands ensembles de données non standardisés\nIdentifier des outils\, des outils et des solutions à faible code\, tels que Knime\, pour travailler avec de grands ensembles de données complexes\n\nCette présentation sera utile pour ceux qui s’intéressent aux nouvelles méthodes d’évaluation et sources de données\, aux outils d’analyse des données et à ceux qui cherchent à commencer à travailler avec des données de publication en accès libre. \n\n\n\n					 15h45 – 16h05– « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée\n									\nZe’ev Schneider (Bibliothèque du Parlement) \nLes riches collections de la Bibliothèque du Parlement (la Bibliothèque)\, développées au fil de nombreuses décennies\, sont essentielles à sa mission de contribuer à la démocratie parlementaire canadienne en « gérant et en fournissant des informations et des connaissances fiables\, pertinentes et faisant autorité ». Les collections sont réparties entre plusieurs sections de la Cité parlementaire ainsi qu’une installation d’entreposage hors site. \nDe plus\, une succursale libre-service destinée principalement aux chercheurs de la bibliothèque offre un accès sur place à une collection d’imprimés. Une récente évaluation complète de cette collection a permis de dégager suffisamment d’espace sur les étagères pour de nouvelles acquisitions. En réfléchissant à la façon de développer cette collection et de gérer l’espace\, nous avons réfléchi au rôle actuel et à la valeur de l’impression sur place pour les spécialistes du sujet dans leur travail et leurs recherches\, leur développement professionnel et leur lecture loisir. Ce processus a conduit à la création du sondage utilisateur couvert dans cette présentation. \nDans cette session\, je présenterai l’enquête de la conception aux résultats. \nLa présentation comprendra : \n\nUne introduction à la Bibliothèque du Parlement (le nouveau membre de l’ABRC!)\, y compris ses collections et ses utilisateurs\nÉtapes et itérations dans la conception de l’enquête\nObjectifs de l’enquête\, résultats et résultats prévus\n\nObjectifs d’apprentissage \nLes participants à la conférence apprendront sur \n\nConsidérations lors de la création d’une enquête ciblée pour un groupe d’utilisateurs local\nLes idées glanées à partir des résultats de l’enquête\, y compris l’expérience des répondants sur la collection d’imprimés et l’espace ; et les différences entre les chercheurs plus récents et plus chevronnés dans leur connaissance et leurs préférences pour l’impression sur site\nDéfis et leçons apprises\n\n\nJustine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \nLe paysage de l’évaluation est en train de changer.  Il y a un changement continu vers une focalisation sur la valeur et l’impact\, une augmentation de l’évaluation qualitative et des méthodes mixtes\, ainsi que des explorations naissantes dans le rôle de l’intelligence artificielle générative dans l’évaluation. Dans notre environnement actuel\, il peut être difficile de suivre les nouvelles initiatives et développements – surtout avec un temps\, des ressources et/ou une technologie limités. \nDans cette session amusante et rythmée\, les présentateurs partageront leurs récents projets d’évaluation et pratiques\, ainsi que des pratiques innovantes dans d’autres bibliothèques. Bien que bon nombre des projets abordés dans la présentation proviennent de bibliothèques universitaires\, tous les projets peuvent être appliqués dans des milieux universitaires\, publics\, gouvernementaux et autres. De plus\, les exemples vont des projets et pratiques qui peuvent être réalisés avec des ressources limitées (temps\, argent\, technologie)\, aux exemples plus intensifs en ressources. \nLes projets et les pratiques présentés varieront en ce qui concerne l’objectif (collections\, espace\, instruction\, etc.)\, la méthodologie (point d’utilisation\, collections prédictives\, photo voice\, etc.)\, la période de temps (transversale\, longitudinale) et la portée de l’impact (individuel\, institutionnel\, sociétal). \nRésultats d’apprentissage : \nCette session s’adresse aux bibliothécaires qui souhaitent découvrir de nouvelles perspectives ou méthodologies dans le domaine de l’expérience utilisateur des bibliothèques\, de l’évaluation ou de la pratique de l’impact. L’objectif de la session est que les participants repartent avec une nouvelle approche de l’évaluation qu’ils peuvent appliquer dans leur bibliothèque. \nDu temps sera également accordé aux membres de l’auditoire pour partager leur propre initiative d’évaluation récente et passionnante. \nAu-delà des bugs : Utiliser une fonctionnalité ‘Signaler un problème’ pour comprendre les attentes des utilisateurs (Université de Regina) \nEn février 2023\, l’Université de Regina a mis en place une fonctionnalité de signalement d’un problème dans son système de découverte. Depuis lors\, plus de 600 rapports ont été soumis\, et cela est devenu un canal de rétroaction essentiel. Grâce à ces rapports\, nous avons acquis un aperçu des aspects de l’expérience de recherche et de découverte que les clients trouvent déroutants\, contre-intuitifs ou frustrants. Ces rapports de problèmes soumis par les utilisateurs mettent fréquemment en évidence des incohérences entre la fonctionnalité du système et les besoins et hypothèses des utilisateurs. En analysant ces rapports\, nous avons pu mieux comprendre le comportement et les attentes des utilisateurs à l’égard du système de la bibliothèque et de la bibliothèque en général. Cette présentation éclair décrira comment ces rapports ont été analysés\, et les idées acquises grâce à ce processus. \nTests d’utilisabilité et d’accessibilité : Utilisation d’un protocole de réflexion à voix haute comme outil d’évaluation pour les systèmes de revues ouvertes – Caitlin Bakker & Christopher Read (Université de Regina) \nDans cette conférence éclair\, les présentateurs partageront leur expérience en matière de tests d’utilisabilité et d’accessibilité dans le cadre du lancement par l’Université de Regina des Proceedings of the Canadian Nuclear Society in Open Journal Systems (OJS). Cette présentation éclair se concentrera sur les meilleures pratiques et les points à retenir de l’utilisation d’un protocole de réflexion à voix haute pour évaluer la collection et sa fonctionnalité de recherche. L’objectif principal de ces tests était de permettre à diverses communautés d’utilisateurs de s’engager dans une recherche efficace d’informations\, qu’ils accèdent au système via des ordinateurs de bureau ou des appareils mobiles. La session couvrira les aspects pratiques de la méthodologie de test\, tels que le travail avec un stage en bibliothèque à distance. Les participants peuvent s’attendre à en apprendre davantage sur des techniques spécifiques de test d’utilisabilité\, y compris les invites\, les lecteurs d’écran\, l’enregistrement et d’autres aspects du test think aloud\, et comment ils peuvent fournir un aperçu critique pour améliorer la conception du système et la satisfaction des utilisateurs. \nDemander à Chat à propos de LibrarySearch – Susan Bond (Université de Toronto) \nÀ l’Université de Toronto\, nous avons ajouté ces dernières années notre outil d’aide par chat intégré à notre couche de découverte – Ex Libris Primo VE\, que nous avons étiqueté localement comme LibrarySearch. Parce que LibrarySearch est un outil en libre-service\, chaque discussion lancée représente un point de repère potentiel – c’est une façon pour les utilisateurs de nous faire savoir qu’ils ne sont pas capables de se servir. Début 2025\, nous avons entrepris une évaluation exploratoire en examinant les transcriptions de chat d’un mois\, pour voir ce que nous pouvions découvrir sur les défis dans notre interface\, les lacunes dans notre documentation et les problèmes avec nos ressources. Nos conclusions comprenaient des preuves en faveur des changements sur lesquels nous travaillions déjà\, certaines victoires rapides et certaines choses auxquelles nous devrons réfléchir davantage avant de pouvoir les aborder. Dans cette présentation éclair\, nous examinerons nos conclusions spécifiques sur notre interface utilisateur\, notre document de support et la dotation en personnel de notre support de chat\, et aborderons ce que nous avons appris sur notre codage/évaluation et comment nous allons le changer à l’avenir. \nMichelle Goodridge (Université Wilfrid Laurier) \nEn 2017\, un partenariat bibliothécaire-faculté a conduit à la création d’une simulation en classe pour un cours de première année de premier cycle sur les droits humains mondiaux. Les étudiants ont assumé des rôles représentant des acteurs mondiaux (par exemple\, des États-nations et des ONG) pour répondre à une crise simulée dans le meilleur intérêt de leur propre rôle\, ce qui a conduit à développer des compétences en recherche\, évaluation et pensée critique dans un environnement d’apprentissage actif. Une étude de recherche à méthodes mixtes a évalué l’impact de la simulation\, combinant des données qualitatives issues de réflexions et d’observations avec une analyse quantitative basée sur les critères. Cette session présentera le design de la simulation\, les stratégies d’évaluation et les principales conclusions\, en démontrant comment l’apprentissage par le jeu peut améliorer de manière significative l’engagement et le développement des compétences des étudiants. Les participants auront un aperçu de l’application de ces méthodes dans d’autres contextes pédagogiques et de l’utilisation des données pour plaider en faveur d’une collaboration plus approfondie entre professeurs et bibliothécaires. \nAmy McLay Paterson (Université Thompson Rivers) \nEn 2023-2024\, les bibliothécaires de l’Université Thompson Rivers ont développé un programme pilote pour transformer un programme de littératie informationnelle principalement monocouche en un programme structuré et intégré. Le projet pilote d’enseignement en bibliothèque de l’anglais 1100 (ELIP) a été développé comme une collaboration entre la bibliothèque et le département d’anglais au printemps 2023 dans le but d’élargir l’enseignement en bibliothèque pour soutenir la réussite des étudiants et leur appartenance. Plutôt que de participer à la session unique habituelle\, les étudiants ELIP désignés participeront à une série de trois tutoriels hebdomadaires pour la bibliothèque. Le projet ELIP s’est déroulé tout au long de l’année académique 2023-24\, période durant laquelle nous avons collecté des données d’affectation des étudiants\, des retours des étudiants\, des retours du corps professoral et des entrées de journal réfléchies des participants bibliothécaires pour déterminer l’efficacité et la durabilité du programme. \nLes lacunes des sessions de littératie informationnelle ponctuelles sont répandues et bien documentées dans notre profession. Nicole Pagowsky déclare que « le one-shot—même s’il y en a plus d’un — rend difficile d’atteindre un apprentissage plus profond\, une pensée critique et une pédagogie inclusive » (2021\, 2). Cependant\, notre approche du projet pilote—ni un cours en une seule fois ni un cours à crédit — est unique dans la littérature établie. \n\nLe programme ELIP a-t-il aidé les étudiants à réussir leurs cours d’anglais associés ?\nUne instruction plus intégrée aide-t-elle à renforcer les relations entre la bibliothèque et la communauté de l’UTR ?\nComment pouvons-nous améliorer nos pratiques d’enseignement pour mieux répondre aux besoins des étudiants ?\n\nSelon chacun de ces indicateurs\, le programme ELIP a amélioré les résultats par rapport au one-shot habituel. Les résultats du sondage auprès des professeurs sont très positifs\, et les instructeurs bibliothécaires ont tous observé la profondeur de l’engagement des étudiants et la construction de relations positives. Cette relation plus étroite avec les étudiants a également abouti à des améliorations tangibles de nos pratiques pédagogiques et des objets d’apprentissage existants. Ma présentation présentera le programme ELIP\, y compris la justification de sa conception; présenter les différentes méthodes d’évaluation que nous avons utilisées ; et discuter de nos résultats et des prochaines étapes. Des supports de cours\, ainsi que des outils d’évaluation (tels que des sondages et des formulaires de consentement) seront mis à la disposition des participants intéressés. \nObjectifs d’apprentissage \nLes participants à cette session pourront : \n\nReconnaître les avantages et les limites d’une myriade de méthodes d’évaluation de la littératie informationnelle.\nConsidérez comment les objectifs de l’enseignement de la littératie informationnelle affectent la conception et l’évaluation des programmes.\nArticuler une variété de mesures du succès de la littératie informationnelle à utiliser dans les communications et discussions internes et externes.\n\nRong Luo\, Shuzhen Zhao\, et Karen Pillon (University of Windsor) \nÀ mesure que l’enseignement de la littératie informationnelle (LI) continue d’évoluer dans les bibliothèques universitaires\, les pratiques d’évaluation doivent suivre le rythme pour garantir des résultats significatifs. Cette session explore l’efficacité de la formation en LI en présentant une étude menée à l’Université de Windsor qui évalue les compétences en LI perçues et démontrées chez les étudiants diplômés de la Faculté des arts\, des sciences humaines et des sciences sociales (FAHSS). Fondée sur le cadre de l’ACRL pour la littératie informationnelle dans l’enseignement supérieur et utilisant une version modifiée du test Beile de littératie informationnelle pour l’éducation (B-TILED)\, l’étude souligne comment les outils d’analyse et d’évaluation structurée peuvent informer\, améliorer et valider les programmes d’instruction de la bibliothèque. \nLa formation à l’LI prend diverses formes\, des séances en classe aux activités d’orientation et aux consultations individuelles\, mais son efficacité passe souvent inaperçue. En comparant les étudiants qui ont reçu un enseignement formel de l’LI avec ceux qui ne l’ont pas reçu\, cette session révèle si la formation est corrélée avec des compétences de recherche plus solides et une confiance accrue dans la navigation des ressources académiques. \nLes participants découvriront une approche d’évaluation flexible et évolutive utilisant B-TILED\, qui combine des données démographiques\, l’auto-évaluation des capacités de recherche et des tests de connaissances objectifs. La session discute également des considérations pratiques pour la conception\, la mise en œuvre et l’analyse de l’enquête à l’aide de SPSS ou de plateformes similaires. \nObjectifs d’apprentissage : À la fin de cette session\, les participants seront en mesure de : \n\nDécrivez comment les outils d’évaluation de la littératie informationnelle peuvent être intégrés dans les programmes d’enseignement des bibliothèques universitaires.\nIdentifiez les composants clés du cadre B-TILED et comprenez comment l’adapter à différents contextes de bibliothèque.\nAnalyser et interpréter la relation entre l’aptitude à la recherche perçue de soi et les compétences en LI mesurées objectivement.\nAppliquer des stratégies d’analyse quantitative de base pour évaluer l’impact de la formation en bibliothèque à l’aide de plateformes analytiques.\nÉlaborer des stratégies fondées sur des données probantes pour améliorer et justifier les efforts d’enseignement de l’LI en réponse aux besoins d’apprentissage des étudiants et aux objectifs institutionnels.\n\nSarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill) \nDepuis plus de 20 ans\, les bibliothèques numérisent et fournissent un accès en ligne à leurs collections pour mieux servir la recherche\, l’enseignement et les objectifs créatifs des universitaires et des non-universitaires. La nature ouverte et en ligne de la plupart des collections numérisées par les bibliothèques a aidé à faciliter l’accès pour de nouveaux publics; cependant\, cette ouverture signifie également que les bibliothèques connaissent comparativement peu ceux qui utilisent ces ressources\, ce qui rend ces ressources difficiles à évaluer pour les bibliothèques. Si vous ne savez pas qui sont vos utilisateurs\, comment pouvez-vous les connaître ? \nLa recherche sur l’expérience utilisateur a gagné en popularité et est largement acceptée dans les bibliothèques comme un ensemble standard de techniques pour évaluer les services et les interfaces des bibliothèques\, et les plateformes de collections numériques ne font pas exception ici. Cependant\, une grande partie de la recherche sur l’expérience utilisateur menée dans le but d’évaluer les programmes et plateformes de collections numériques se limite aux affiliés institutionnels et ne concerne que la plateforme de collections numériques elle-même\, négligeant les questions sur la façon dont les utilisateurs trouvent ces collections en premier lieu ainsi que comment ils les utilisent dans leurs recherches. \nCette présentation rend compte d’une étude à méthodes mixtes menée dans le but d’élargir nos horizons sur qui sont les utilisateurs des collections numériques et comment ils utilisent les ressources numérisées des bibliothèques dans leurs recherches. Notre étude a utilisé des enquêtes anonymes et des entretiens qualitatifs pour atteindre un équilibre entre l’ampleur de la participation et la profondeur des réponses. Reconnaissant la nature ouverte de nos collections numériques\, nous avons inclus des chercheurs académiques indépendamment du lieu ou de l’affiliation institutionnelle\, ainsi que des chercheurs non académiques comme les journalistes\, les artistes\, les blogueurs et les historiens publics. Notre étude a posé trois questions de recherche principales : Qui utilise les collections numérisées des bibliothèques ? Comment les trouvent-ils ? Et enfin\, comment les utilisent-ils dans leurs recherches ? \nDans cette présentation\, nous nous concentrerons sur les méthodes que nous avons utilisées pour cette étude\, leurs résultats et ce que nous avons appris de ce processus. Nous discuterons de l’importance d’utiliser plusieurs types de techniques de recherche pour l’évaluation dans le contexte de la recherche sur l’expérience utilisateur\, et en particulier de ce que ce type de recherche à méthodes mixtes peut contribuer à la suite d’outils de recherche sur l’expérience utilisateur. Les participants apprendront les points forts de la recherche à méthodes mixtes\, comment les techniques de recherche exploratoire peuvent être utilisées pour compléter et améliorer d’autres données évaluatives\, comme les études d’utilisabilité et l’analyse web\, qui peuvent être collectées pour l’évaluation des bibliothèques\, et comment appliquer ces techniques pour répondre à de grandes questions en matière d’expérience utilisateur et d’évaluation des services de bibliothèque. \nJody Nelson & Alison Pitcher (Université MacEwan) \nNotre session présentera le programme d’évaluation de l’enseignement de la littératie informationnelle [LI] dirigé par des pairs que nous facilitons pour les bibliothécaires dans notre université de premier cycle\, y compris l’impulsion\, le développement\, la fondation théorique\, la structure et l’impact. Nous partagerons des observations sur la façon dont le programme contribue à notre compréhension de la pratique d’enseignement réflexif comme étant au cœur de l’évaluation pédagogique et du développement d’une communauté plus cohésive de pratiques pédagogiques parmi les bibliothécaires enseignants impliqués dans le programme. \nNotre programme de mentorat réfléchi entre pairs dans l’enseignement des triangles remplit le mandat de la bibliothèque pour développer des pratiques durables d’évaluation de l’enseignement de l’LI en harmonie avec le plan stratégique de notre université\, Teaching Greatness. Adoptant une approche d’évaluation centrée sur l’étudiant et fondée sur le cadre d’évaluation critique de l’enseignement en bibliothèque développé par McCartin & Dineen (2018)\, notre programme d’évaluation critique de l’LI promeut l’évaluation intentionnelle et continue de l’enseignement cultivée à travers la pratique réflexive. En nous attribuant le travail d’évaluation et d’amélioration en tant qu’enseignants\, nous transférons la charge de l’évaluation (c’est-à-dire remplir des formulaires de retour ou des instruments de mesure) sur les étudiants. \nEn construisant la participation de longue date de notre bibliothèque dans l’enseignement des triangles d’observation et du mentorat pédagogique LI\, notre programme offre des opportunités d’évaluation continue de l’enseignement en combinaison avec un mentorat ciblé par les pairs. Les participants au programme forment des triangles de mentorat par les pairs qui se rencontrent plusieurs fois au cours d’un trimestre académique. Les participants individuels identifient les éléments d’enseignement prioritaires (c.-à-d. le contenu\, l’accessibilité\, les interactions avec les étudiants) au sujet desquels ils aimeraient recevoir des commentaires constructifs; les observateurs pairs adoptent une approche basée sur les points forts\, partageant des retours positifs ainsi que toute suggestion utile pour l’amélioration dans les domaines pré-identifiés. En tant que membres d’une triade de co-mentorat\, les participants visent à favoriser l’excellence dans l’enseignement tout en apprenant les uns des autres\, en collectant des idées pour améliorer les expériences d’apprentissage des étudiants lorsqu’ils s’observent mutuellement. Pour les bibliothécaires en début de carrière en particulier\, l’aspect co-mentorat crée un environnement sûr pour développer la compétence d’enseignement et la confiance. Ce programme permet non seulement une évaluation significative de l’enseignement\, mais offre également aux participants la possibilité de favoriser une pratique réflexive individuelle de manière continue\, soutenue et relationnelle (Lewitzky\, 2020). \nSuite à notre session\, les participants repartiront avec une compréhension de :● La valeur de l’observation relationnelle par les pairs pour l’évaluation de l’enseignement● Le rôle de la pratique pédagogique réflexive pour une amélioration soutenue et continue● Comment notre programme est géré afin qu’il puisse être adapté pour les institutions participantes \nRéférences :Lewitzky\, R.A. (2020). Éduquer\, apprendre et grandir : Une revue du rôle d’enseignement dans la bibliothéconomie académique. Bibliothèques universitaires et de premier cycle\, 27(1)\, 32-40. \nMcCartin\, L. F.\, & Dineen\, R. (2018). Vers une pratique d’évaluation critique et inclusive pour l’enseignement en bibliothèque. Litwin Books. \nErin Calhoun (Université de Toronto) \nLes développements dans l’édition en libre accès\, les modèles d’affaires et les politiques de financement ont amené les communications savantes au sein du travail de développement des collections. De plus en plus\, les fonds pour le développement des collections des bibliothèques sont réaffectés pour couvrir les frais d’édition grâce à des accords transitoires de lecture et de publication. Ce changement s’accompagne d’un besoin pressant de nouveaux cadres d’évaluation – ceux qui vont au-delà des statistiques traditionnelles sur l’utilisation des ressources électroniques pour mesurer la production de publications et l’investissement financier. Les bibliothèques doivent développer des capacités pour recueillir et analyser les données de publication institutionnelle afin d’éclairer les décisions relatives au développement des collections. \nCependant\, évaluer la publication en libre accès n’est pas simple. Les données de publication en libre accès sont souvent présentées dans des formats incohérents et dispersées dans les rapports bibliométriques et ceux des éditeurs\, ce qui entrave l’analyse agrégée. Pour relever ce défi\, les bibliothèques de l’Université de Toronto ont lancé un projet pilote visant à rationaliser la collecte\, le nettoyage et la visualisation des données de publication en libre accès. \nLa courte session partagera des idées tirées du projet pilote\, qui comprend la collecte de rapports sur les données de publication provenant de plusieurs accords d’accès libre\, la normalisation des données dans un modèle unifié\, et construire un tableau de bord interactif pour visualiser l’activité éditoriale et les contributions financières de l’université dans l’édition en libre accès. Le projet a d’abord exploré des solutions basées sur la programmation pour le nettoyage des données\, mais a finalement adopté KNIME – une plateforme open source à faible code – pour gérer les tâches complexes de nettoyage des données de manière évolutive et accessible. \nÀ partir de cette présentation\, les participants : \n\nAcquérir des connaissances sur la façon de suivre et de visualiser la publication en libre accès dans leur établissement\nComprendre les défis liés à la collecte de données sur les publications et les stratégies de collecte de grands ensembles de données non standardisés\nIdentifier des outils\, des outils et des solutions à faible code\, tels que Knime\, pour travailler avec de grands ensembles de données complexes\n\nCette présentation sera utile pour ceux qui s’intéressent aux nouvelles méthodes d’évaluation et sources de données\, aux outils d’analyse des données et à ceux qui cherchent à commencer à travailler avec des données de publication en accès libre. \nZe’ev Schneider (Bibliothèque du Parlement) \nLes riches collections de la Bibliothèque du Parlement (la Bibliothèque)\, développées au fil de nombreuses décennies\, sont essentielles à sa mission de contribuer à la démocratie parlementaire canadienne en « gérant et en fournissant des informations et des connaissances fiables\, pertinentes et faisant autorité ». Les collections sont réparties entre plusieurs sections de la Cité parlementaire ainsi qu’une installation d’entreposage hors site. \nDe plus\, une succursale libre-service destinée principalement aux chercheurs de la bibliothèque offre un accès sur place à une collection d’imprimés. Une récente évaluation complète de cette collection a permis de dégager suffisamment d’espace sur les étagères pour de nouvelles acquisitions. En réfléchissant à la façon de développer cette collection et de gérer l’espace\, nous avons réfléchi au rôle actuel et à la valeur de l’impression sur place pour les spécialistes du sujet dans leur travail et leurs recherches\, leur développement professionnel et leur lecture loisir. Ce processus a conduit à la création du sondage utilisateur couvert dans cette présentation. \nDans cette session\, je présenterai l’enquête de la conception aux résultats. \nLa présentation comprendra : \n\nUne introduction à la Bibliothèque du Parlement (le nouveau membre de l’ABRC!)\, y compris ses collections et ses utilisateurs\nÉtapes et itérations dans la conception de l’enquête\nObjectifs de l’enquête\, résultats et résultats prévus\n\nObjectifs d’apprentissage \nLes participants à la conférence apprendront sur \n\nConsidérations lors de la création d’une enquête ciblée pour un groupe d’utilisateurs local\nLes idées glanées à partir des résultats de l’enquête\, y compris l’expérience des répondants sur la collection d’imprimés et l’espace ; et les différences entre les chercheurs plus récents et plus chevronnés dans leur connaissance et leurs préférences pour l’impression sur site\nDéfis et leçons apprises\n\n\n\n2025 Canadian Library Assessment Workshop\nOctober 27 – October 28 at Regina\, Saskatchewan\n\n2023 Canadian Library Assessment Workshop\nOctober 23\, 2023 – October 25\, 2023 at London\, Ontario\n\n2019 Canadian Library Assessment Workshop\nOctober 22\, 2019 – October 24\, 2019 at Windsor\, Ontario\n\n2017 Canadian Library Assessment Workshop\nOctober 26\, 2017 – October 27\, 2017 at Victoria\, British Columbia\n\n2015 Canadian Library Assessment Workshop\nOctober 14\, 2015 – October 16\, 2015 at Toronto\, Ontario\n\n\n					\n									En savoir plus sur l’ABCE
URL:https://www.carl-abrc.ca/fr/evenement/atelier-des-bibliotheques-canadiennes-sur-levaluation-2025/
LOCATION:Regina\, Saskatchewan\, Regina\, Saskatchewan\, Canada
CATEGORIES:ABCE,Ateliers et instituts
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2024/09/NewsFeaturedImage-1.jpg
END:VEVENT
END:VCALENDAR