BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Association des bibliothèques de recherche du Canada - ECPv6.15.20//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-ORIGINAL-URL:https://www.carl-abrc.ca/fr/
X-WR-CALDESC:évènements pour Association des bibliothèques de recherche du Canada
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:America/Toronto
BEGIN:DAYLIGHT
TZOFFSETFROM:-0500
TZOFFSETTO:-0400
TZNAME:EDT
DTSTART:20240310T070000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0400
TZOFFSETTO:-0500
TZNAME:EST
DTSTART:20241103T060000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:-0500
TZOFFSETTO:-0400
TZNAME:EDT
DTSTART:20250309T070000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0400
TZOFFSETTO:-0500
TZNAME:EST
DTSTART:20251102T060000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:-0500
TZOFFSETTO:-0400
TZNAME:EDT
DTSTART:20260308T070000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0400
TZOFFSETTO:-0500
TZNAME:EST
DTSTART:20261101T060000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251003T120000
DTEND;TZID=America/Toronto:20251003T133000
DTSTAMP:20260501T182103
CREATED:20250912T230054Z
LAST-MODIFIED:20251007T191720Z
UID:37629-1759492800-1759498200@www.carl-abrc.ca
SUMMARY:Appel du mois d’octobre à la Communauté de pratique sur l’évaluation : Sonder ou ne pas sonder\, et autres récits
DESCRIPTION:Date : vendredi\, 3 octobre\, 2025\nHeure : 12h00 – 13h30 HE \nEnregistrement \nLes sondages peuvent être des moyens efficaces pour connaître l’opinion de nos utilisateurs\, mais seulement s’ils sont bien planifiés et ciblés. La communauté de pratique sur l’évaluation vous invite à une session pour explorer quand les sondages sont utiles (et quand ils ne le sont pas)\, comment les concevoir pour obtenir des réponses significatives et quoi faire avec les résultats une fois qu’on les a obtenus. \nIngrid Moisil a commencé sa carrière dans une bibliothèque spécialisée\, a travaillé pour un éditeur de bases de données et garde de bons souvenirs du temps passé dans une bibliothèque publique. Au cours des 16 dernières années\, elle a occupé plusieurs postes à la bibliothèque de l’Université d’Ottawa et est actuellement bibliothécaire chargée de la stratégie des collections. \nCette session sera enregistrée.
URL:https://www.carl-abrc.ca/fr/evenement/appel-du-mois-doctobre-a-la-communaute-de-pratique-sur-levaluation-sonder-ou-ne-pas-sonder-et-autres-recits/
LOCATION:Événement virtuel
CATEGORIES:Évaluation
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2025/04/CoP-Department-Image.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251006T140000
DTEND;TZID=America/Toronto:20251006T150000
DTSTAMP:20260501T182103
CREATED:20250923T184634Z
LAST-MODIFIED:20251008T134013Z
UID:38059-1759759200-1759762800@www.carl-abrc.ca
SUMMARY:Projet d’évaluation comparative DPC RAM au niveau national : webinaire de lancement [EN ANGLAIS]
DESCRIPTION:Date: 6 octobre 2025\nHeure: 14h00 – 15h00  \nEnregistrement \nJoignez-vous à nous pour une présentation du projet d’évaluation RAM animée par Amanda Tomé\, de l’Alliance de recherche numérique du Canada\, et Sarah Lake\, de l’Université Concordia et agente de programme invitée en préservation numérique à l’ABRC. L’évaluation comparative des capacités de préservation numérique est essentielle à l’amélioration continue des programmes de préservation numérique. Que votre établissement débute dans ce domaine ou qu’il y soit engagé depuis un certain temps\, l’évaluation comparative est une occasion de voir où vous en êtes et comment votre organisation peut progresser. \nCe webinaire marque le lancement de la phase pilote du projet\, durant laquelle les établissements membres de l’ABRC seront invités à compléter l’évaluation en tant que cohorte. Une deuxième phase aura lieu au printemps 2026\, élargissant l’initiative à l’ensemble de la communauté canadienne de la préservation numérique. Tout au long des deux phases du projet\, le sous-comité sur l’évaluation comparative du groupe de travail sur la préservation numérique (GPTN) offrira un soutien aux organisations participant à l’évaluation. \nCe webinaire de lancement offrira aux participant·e·s un aperçu du projet et du modèle d’évaluation rapide (RAM) de la Digital Preservation Coalition (DPC). Il présentera également les ressources créées par le GPTN\, un aperçu du processus des séances de soutien ainsi qu’une opportunité de poser des questions. \nCe webinaire se déroulera en anglais. français. Un webinaire en français aura lieu le 7 octobre. \nVeuillez noter que les présentations seront enregistrées\, mais pas la discussion.
URL:https://www.carl-abrc.ca/fr/evenement/projet-devaluation-comparative-dpc-ram-au-niveau-national-webinaire-de-lancement-en-anglais/
LOCATION:Événement virtuel
CATEGORIES:Préservation numérique
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2024/09/NewsFeaturedImage-1.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251007T130000
DTEND;TZID=America/Toronto:20251007T140000
DTSTAMP:20260501T182103
CREATED:20250923T185217Z
LAST-MODIFIED:20251008T141736Z
UID:38064-1759842000-1759845600@www.carl-abrc.ca
SUMMARY:Projet d’évaluation comparative DPC RAM au niveau nationale : webinaire de lancement
DESCRIPTION:Date: 7 octobre 2025\nHeure: 13h00 – 14h00  \nEnregistrement \nJoignez-vous à nous pour une présentation du projet d’évaluation RAM\, animé par Amanda Tomé\, de l’Alliance de recherche numérique du Canada\, et Sarah Lake\, de l’Université Concordia et agente de programme invitée en préservation numérique à l’ABRC. L’évaluation comparative des capacités de préservation numérique est essentielle à l’amélioration continue des programmes de préservation numérique. Que votre établissement débute dans ce domaine ou qu’il y soit engagé depuis un certain temps\, l’évaluation comparative est une occasion de voir où vous en êtes et comment votre organisation peut progresser. \nCe webinaire marque le lancement de la phase pilote du projet\, durant laquelle les établissements membres de l’ABRC seront invités à compléter l’évaluation en tant que cohorte. Une deuxième phase aura lieu au printemps 2026\, élargissant l’initiative à l’ensemble de la communauté canadienne de la préservation numérique. Tout au long des deux phases du projet\, le sous-comité sur l’évaluation comparative du groupe de travail sur la préservation numérique (GPTN) offrira un soutien aux organisations participant à l’évaluation. \nCe webinaire de lancement offrira aux participant·e·s un aperçu du projet et du modèle d’évaluation rapide (RAM) de la Digital Preservation Coalition (DPC). Il présentera également les ressources créées par le GPTN\, un aperçu du processus des séances de soutien\, ainsi qu’une opportunité de poser des questions. \nCe webinaire se déroulera en français. Un webinaire en anglais aura lieu le 6 octobre. \nVeuillez noter que les présentations seront enregistrées mais pas la discussion.
URL:https://www.carl-abrc.ca/fr/evenement/projet-devaluation-comparative-dpc-ram-au-niveau-nationale-webinaire-de-lancement/
LOCATION:Événement virtuel
CATEGORIES:Préservation numérique
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2024/09/NewsFeaturedImage-1.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251016T130000
DTEND;TZID=America/Toronto:20251016T140000
DTSTAMP:20260501T182103
CREATED:20250912T153602Z
LAST-MODIFIED:20250912T153602Z
UID:37603-1760619600-1760623200@www.carl-abrc.ca
SUMMARY:Appel du mois d’octobre à la Communauté de pratique des communications – Il y a une méthode dans cette folie : refonte d’un site web fondée sur des données probantes
DESCRIPTION:Date : 16 octobre 2025\nHeure : 13h00 – 14h00 HE \nInscription \nLa Communauté de pratique des communications vous invite à notre appel à la communauté du mois d’octobre\, qui portera sur la refonte de sites web fondée sur des données probantes. \nLes sites web des bibliothèques universitaires sont des environnements complexes qui s’adressent simultanément à de nombreux publics ayant des besoins variés. Par conséquent\, ils sombrent souvent dans le chaos au fil du temps. Il peut sembler intimidant de s’attaquer à ce chaos\, et de nombreux projets de refonte de sites web s’enlisent dans les détails. La récente refonte du site web des bibliothèques de l’UVic a permis de mettre de l’ordre dans cette folie grâce à une collaboration réfléchie\, une communication approfondie et une prise de décision fondée sur des données probantes. Cette présentation se concentrera sur l’aspect communicationnel de ce projet\, en montrant comment des messages ciblés et un engagement tout au long du processus de refonte peuvent contribuer à instaurer la confiance et à maintenir la dynamique. \nCaitlin Keenan est bibliothécaire chargée de l’intégration web à la bibliothèque de l’Université de Victoria. Elle est responsable de la supervision stratégique des plateformes web de la bibliothèque\, veillant à ce qu’elles fonctionnent de concert pour soutenir les divers publics d’apprenants et de chercheurs de l’établissement. Elle est passionnée par les pratiques de recherche fondées sur des données probantes\, la décolonisation des espaces en ligne et l’accessibilité. Caitlin est titulaire d’une maîtrise en linguistique de l’Université Harvard et d’une maîtrise en sciences de l’information de l’Université McGill. \nAvez-vous déjà rejoint la CommUNITÉ ? Abonnez-vous à COMMS-CARL-L\, la liste de discussion de la communauté de pratique\, pour rester informé des événements à venir et des activités en cours. \nCette session ne sera pas enregistrée.
URL:https://www.carl-abrc.ca/fr/evenement/appel-du-mois-doctobre-a-la-communaute-de-pratique-des-communications-il-y-a-une-methode-dans-cette-folie-refonte-dun-site-web-fondee-sur-des-donnees-probantes/
LOCATION:Événement virtuel
CATEGORIES:Communications
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2025/04/CoP-Department-Image.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251020T130000
DTEND;TZID=America/Toronto:20251020T140000
DTSTAMP:20260501T182103
CREATED:20251007T180139Z
LAST-MODIFIED:20251007T180139Z
UID:38087-1760965200-1760968800@www.carl-abrc.ca
SUMMARY:Projet d’évaluation comparative DPC RAM au niveau national : séances de soutien
DESCRIPTION:Date : 20 octobre 2025\nHeure : 13h00 – 14h00 HE \nInscription \nÊtes-vous membre de l’ABRC et prévoyez-vous compléter l’évaluation RAM de la Digital Preservation Coalition cet automne? Joignez-vous à nous pour des séances de soutien et commencez avec l’appui de vos pairs en préservation numérique! \nCes séances informelles offrent un espace convivial pour poser des questions\, obtenir des commentaires ou simplement consacrer du temps au travail sur l’évaluation. Bien que des membres du Groupe de travail sur la préservation numérique (GTPN) soient présents pour animer la conversation\, cet événement se veut avant tout un moment d’échange communautaire où les personnes participantes peuvent partager leurs connaissances et aborder ensemble les questions complexes. \nLa séance en anglais aura lieu le mardi\, 21 octobre\, 13h00 – 14h00 HE. Ces événements ne seront pas enregistrés. \nPour plus d’informations\, visitez la page web du projet.
URL:https://www.carl-abrc.ca/fr/evenement/projet-devaluation-comparative-dpc-ram-au-niveau-national-seances-de-soutien/
LOCATION:Événement virtuel
CATEGORIES:Préservation numérique
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2024/10/photos_bul_Pub_57361-1.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251021T130000
DTEND;TZID=America/Toronto:20251021T140000
DTSTAMP:20260501T182103
CREATED:20251007T175637Z
LAST-MODIFIED:20251007T175637Z
UID:38084-1761051600-1761055200@www.carl-abrc.ca
SUMMARY:Projet d’évaluation comparative DPC RAM au niveau national : séances de soutien (en anglais)
DESCRIPTION:Date : 21 octobre 2025\nHeure : 13h00 – 14h00 HE \nInscription \nÊtes-vous membre de l’ABRC et prévoyez-vous compléter l’évaluation RAM de la Digital Preservation Coalition cet automne? Joignez-vous à nous pour des séances de soutien et commencez avec l’appui de vos pairs en préservation numérique! \nCes séances informelles offrent un espace convivial pour poser des questions\, obtenir des commentaires ou simplement consacrer du temps au travail sur l’évaluation. Bien que des membres du Groupe de travail sur la préservation numérique (GTPN) soient présents pour animer la conversation\, cet événement se veut avant tout un moment d’échange communautaire où les personnes participantes peuvent partager leurs connaissances et aborder ensemble les questions complexes. \nLa séance en français aura lieu le lundi\, 20 octobre\, 13h00 – 14h00 HE. Ces événements ne seront pas enregistrés. \nPour plus d’informations\, visitez la page web du projet.
URL:https://www.carl-abrc.ca/fr/evenement/projet-devaluation-comparative-dpc-ram-au-niveau-national-seances-de-soutien-en-anglais/
LOCATION:Événement virtuel
CATEGORIES:Préservation numérique
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2024/10/photos_bul_Pub_57361-1.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251022T150000
DTEND;TZID=America/Toronto:20251022T160000
DTSTAMP:20260501T182103
CREATED:20251009T140807Z
LAST-MODIFIED:20251014T164150Z
UID:38091-1761145200-1761148800@www.carl-abrc.ca
SUMMARY:Appel du mois d’octobre de la Communauté de pratique sur l’éducation ouverte – L’éducation ouverte rencontre l’IA : le projet Open GenAI de BCcampus
DESCRIPTION:Date : 22 octobre 2025\nHeure : 15h00-16h00 HE \nInscription \nLa communauté de pratique sur l’éducation ouverte (CdP ÉO) est ravie d’accueillir Robynne Devine\, Elizabeth Childs et Harper Friedman pour une présentation sur le projet Open GenAI. Elles partageront les objectifs du projet\, présenteront le prototype de compagnon d’étude alimenté par l’IA actuellement en cours de développement et expliqueront comment il s’intégrera à la collection de manuels scolaires ouverts du BCcampus. \nTel que décrit dans le blogue du projet\, « L’objectif de ce projet sera d’explorer et d’expérimenter une variété d’outils et de technologies Gen AI open source qui s’alignent sur les valeurs de l’éducation ouverte\, notamment en mettant l’accent sur les questions d’équité\, d’accessibilité et d’inclusivité\, tout en offrant un accès hors ligne\, en réduisant l’impact environnemental et en garantissant la confidentialité des étudiants. BCcampus travaillera avec des partenaires au développement d’un prototype d’outil d’étude alimenté par l’IA et axé sur l’éthique\, afin de compléter la collection de manuels scolaires ouverts de BCcampus. » (Getting Started – The Open GenAI project) \nRobynne Devine\, Senior Project Manager\, Project Management Office\, BCcampus\nHarper Friedman\, Coordinator\, Open Textbook Publishing\, BCcampus\nElizabeth Childs\, Professor\, Program head\, Master of Arts in Learning and Technology\, Royal Roads University \nLa présentation sera suivie d’une période de discussion. Tous les membres et non-membres de l’ABRC qui travaillent dans le domaine de l’éducation ouverte ou s’y intéressent sont les bienvenus. \nSi vous souhaitez faire partie de la communauté de pratique sur l’éducation ouverte et rester informé des événements et activités à venir\, inscrivez-vous à OE-COP-CARL-L\, la liste de discussion de la communauté. Pour plus d’informations\, consultez la page web de la CdP ÉO.
URL:https://www.carl-abrc.ca/fr/evenement/appel-du-mois-doctobre-de-la-communaute-de-pratique-sur-leducation-ouverte-leducation-ouverte-rencontre-lia-le-projet-open-genai-de-bccampus/
LOCATION:Événement virtuel
CATEGORIES:Éducation ouverte,Intelligence artificielle
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2025/04/CoP-Department-Image.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251023T130000
DTEND;TZID=America/Toronto:20251023T140000
DTSTAMP:20260501T182103
CREATED:20250918T181611Z
LAST-MODIFIED:20250918T181743Z
UID:38044-1761224400-1761228000@www.carl-abrc.ca
SUMMARY:Appel du mois d’octobre à la Communauté de pratique sur la bibliométrie et l’impact de la recherche : Découvrir les perspectives institutionnelles grâce aux données sur les frais de traitement des articles d’OpenAlex
DESCRIPTION:Date : 23 octobre 2025\nHeure : 13h00 – 14h00 HE \nInscription \nDans cette session\, Jack Young (bibliothécaire chargé de l’impact de la recherche\, Université McMaster) et Kelvin Lee (développeur de logiciels de recherche\, Université McMaster) exploreront comment les institutions peuvent exploiter les données relatives aux frais de traitement des articles (APC) issues de la base de données OpenAlex afin de mieux comprendre et gérer les coûts liés à la publication en libre accès. Ils discuteront de la valeur des données APC pour les bibliothèques et les bureaux de recherche\, ainsi que des défis liés au suivi et à l’interprétation de ces informations. \nLes présentateurs montreront comment utiliser l’interface utilisateur OpenAlex pour analyser les données APC institutionnelles de base et identifier les lacunes ou les inexactitudes dans l’ensemble de données. Ils présenteront également un cahier de calcul à source ouverte développé pour accéder à l’interface de programmation d’OpenAlex\, permettant des calculs APC automatisés adaptés à votre institution. \nQue vous soyez novice en matière d’OpenAlex\, de cahiers de calcul ou que vous cherchiez simplement à améliorer vos flux de données\, cette session vous fournira une introduction utile aux approches qui peuvent soutenir votre stratégie de libre accès. \nJack Young (MLIS) est bibliothécaire chargé de l’impact de la recherche et de la bibliométrie à l’Université McMaster. Il soutient l’utilisation des données bibliométriques afin d’améliorer les pratiques de rapports et de planification stratégique de l’université\, de ses chercheurs et de ses unités de recherche. À ce titre\, Jack offre de la formation et des consultations sur les outils et les techniques permettant de suivre l’impact des activités de recherche et de mobilisation des connaissances. Il copréside actuellement la communauté de pratique sur la bibliométrie et l’impact de la recherche de l’Association des bibliothèques de recherche du Canada (ABRC). \nKelvin Lee (BSc) est développeur de logiciels de recherche pour le service de développement et de soutien des logiciels de recherche de l’Université McMaster. Kelvin met à profit son diplôme en informatique et son expérience dans le domaine de la recherche industrielle et universitaire pour soutenir la recherche et les chercheurs par le biais du développement de logiciels et de la formation. \nCette session sera enregistrée.
URL:https://www.carl-abrc.ca/fr/evenement/appel-du-mois-doctobre-a-la-communaute-de-pratique-sur-la-bibliometrie-et-limpact-de-la-recherche-decouvrir-les-perspectives-institutionnelles-grace-aux-donnees-sur-les-frais-de-tr/
LOCATION:Événement virtuel
CATEGORIES:Bibliométrie
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2025/04/CoP-Department-Image.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251027T000000
DTEND;TZID=America/Toronto:20251028T235959
DTSTAMP:20260501T182103
CREATED:20251015T151211Z
LAST-MODIFIED:20251029T135717Z
UID:38166-1761523200-1761695999@www.carl-abrc.ca
SUMMARY:Atelier des bibliothèques canadiennes sur l’évaluation 2025
DESCRIPTION:« All Events\n \n\n	Atelier des bibliothèques canadiennes sur l’évaluation 2025\n\n			October 27\, 2025\n	  –\n	October 28\, 2025\n	 \nL’Association des bibliothèques de recherche du Canada et la bibliothèque et les archives Dr. John Archer de l’Université de Regina vous invitent à participer à l’atelier des bibliothèques canadiennes sur l’évaluation (ABCE) 2025 qui se tiendra en personne à Regina\, en Saskatchewan\, du 27 au 28 octobre 2025. \nL’atelier est conçu pour intéresser un éventail de bibliothécaires universitaires engagés dans l’évaluation à différents niveaux d’expérience. Le programme consistera en une série d’études de cas et d’ateliers pratiques offrant aux participants des méthodes\, des outils et des techniques efficaces à intégrer dans leur pratique quotidienne de l’évaluation. \nBien que les présentations soient faites en anglais\, les diapositives et les supports seront traduits en français et mis à disposition à l’avance. \n\n	Regina\, Saskatchewan\n\n	Regina\,\n	Saskatchewan\n	Canada\n\n\n	+ Google Map \n\n					\n						\n	 \n\n\n\n					\n				Comité de programme\n		\n				\n				Voyage & Hébergement\n		\n				\n				Coût & Inscription\n		\n				\n				Programme\n		\n				\n				Sessions\n		\n				\n				Ateliers précédents\n		 \nComité de programme\n\nChristine Brown (Présidente)\, Head\, Faculty Engagement (Social Sciences + Humanities)\, University of Alberta \nKatrina Fortner\, Administration and Communications Coordinator\, Ontario Council of University Libraries\nShahira Khair\, University of Victoria\nJuliene McLaughlin\, Assessment & UX Librarian\, University of Guelph\nConnie Winther\, Head\, Faculty Engagement (Health Sciences)\, University of Alberta\nKaren Wiome\, Library Administrator\, University of Regina\nJulie Morin\, Agente principale de programme\, ABRC\n\nVoyage et hébergement\nUn bloc de chambres avec le Atlas Hotel a été réservé au tarif de 149\,95 $ par nuit. Vous pouvez réserver en appelant le 1-306-586-3443 ou en envoyant un courriel à guestambassador@atlashotel.com avec le code : 102625CLA. \nPlan du campus de l’Université de ReginaLa bibliothèque Archer est désignée par le code du bâtiment = LY \nRestauration à ReginaDes dîners-rencontres seront organisés avant l’atelier. \nCoût et inscription\nVeuillez vous inscrire avant le 26 septembre en remplissant ce formulaire et voir les détails de paiement ci-dessous. \nFrais : 430\,00 $ CA [Veuillez noter que ces frais sont supprimés pour les conférenciers\, qui sont uniquement tenus de remplir le formulaire d’inscription lié ci-dessus.] \nLes frais d’inscription comprennent le petit-déjeuner\, les collations et le repas du midi\, et une réception la soirée du 27 octobre. Veuillez nous informer de toute restriction alimentaire lors de votre inscription. \nLes participants qui préfèrent payer par virement électronique peuvent adresser leurs fonds à finance@carl-abrc.ca \nLes participants qui préfèrent payer par carte de crédit ou PayPal peuvent le faire en utilisant le lien ci-dessous. \n					\n				Lundi 27 octobre\n		\n				\n				Mardi 28 octobre\n		 \n\nEdit\n\n\nHeure\nSession                                                                                 \nConférenciers.ères\n\n\n\n\n 8h00 – 8h45   \n Petit-déjeuner et inscription                                                                        \n                                                                                                             \n\n\n 8h45 – 9h00   \n Bienvenue                                                                                              \n Dr David Gregory (Université de Regina) et comité de programme                                              \n\n\n 9h00 – 9h20   \n Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary                                   \n Justine Wheeler & Mary-Jo Romaniuk (Université de Calgary)                                                  \n\n\n 9h25 – 9h45   \n Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires                                          \n Sabina Pagotto (Scholars Portal) et Katrina Fortner (Conseil des bibliothèques universitaires de l’Ontario) \n\n\n 9h50 – 10h10  \n Planification stratégique efficace : étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa               \n Katrine Mallan (Université d’Ottawa)                                                                        \n\n\n 10h15 – 10h35 \n De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques                     \n Sam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western)                                                \n\n\n 10h35 – 11h00 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 11h00 – 11h20 \n Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque                                                   \n Sarah Coysh & Sheril Hook (Université York)                                                                 \n\n\n 11h25 – 11h45 \n Évaluer le succès d’un projet dans les bibliothèques académiques                                                                  \n Jessica Lange & Nailisa Tanner (Université McGill)                                                          \n\n\n 11h45 – 13h00 \nDîner                                                                                                    \n                                                                                                             \n\n\n 13h00 – 13h20 \n Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation                                   \n Juliene McLaughlin & Robin Bergart (Université de Guelph)                                                   \n\n\n 13h25 – 13h45 \n Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques \n Ali Foster\, Abigail Graham\, et David Pearson (Université MacEwan)                                           \n\n\n 13h45 – 14h10 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 14h10 – 16h10 \n Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques                                              \n Julie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser)                          \n\n\n 16h30         \n Réception                                                                                                                         \n                                                                                                             \n\n\n\n\nEdit\n\n\nHeure\nSession\nConférenciers.ères\n\n\n\n\n 8h00 – 8h50   \n Petit-déjeuner                                                                                                                                     \n                                                                                     \n\n\n 8h50 – 9h00   \n Bienvenue / Annonces                                                                                                                               \n                                                                                     \n\n\n 9h00 – 10h30  \n Dix projets d’évaluation récents que nous aimons                                                                                                   \n Justine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \n\n\n 10h30 – 11h00 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 11h00 – 11h30 \n Conférences éclair                                                                                                                                 \n Divers intervenants : Université de Regina\, Université de Toronto                   \n\n\n 11h30 – 13h00 \nDîner\n                                                                                     \n\n\n 13h00 – 13h20 \n Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs                                   \n Michelle Goodridge (Université Wilfrid Laurier)                                     \n\n\n 13h25 – 13h45 \n Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information            \n Amy McLay Paterson (Université Thompson Rivers)                                     \n\n\n 13h50 – 14h10 \n Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques     \n Rong Luo\, Shuzhen Zhao\, et Karen Pillon (Université de Windsor)                     \n\n\n 14h10 – 14h30 \n Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail    \n Sarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill)       \n\n\n 14h30 – 14h45 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 14h45 – 15h05 \n Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs \n Jody Nelson & Alison Pitcher (Université MacEwan)                                   \n\n\n 15h10 – 15h40 \n Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections                                        \n Erin Calhoun (Université de Toronto)                                                \n\n\n 15h45 – 16h05 \n « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée                   \n Ze’ev Schneider (Bibliothèque du Parlement)                                         \n\n\n\n					\n				Lundi 27 octobre\n		\n				\n				Mardi 28 octobre\n		 \n\n\n					 9h00 – 9h20 – Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary\n									\nJustine Wheeler & Mary-Jo Romaniuk (Université de Calgary) \nLes présentateurs décriront l’étude d’impact sur les bibliothèques et les ressources culturelles  à l’Université de Calgary. Cette étude se concentre sur l’expérience de deux groupes d’utilisateurs distincts : les professeurs et les étudiants. Il a été réalisé en étroite collaboration avec Implement Consulting Group. \nLe but de cette étude est de mieux comprendre le rôle et l’impact de les bibliothèques et les ressources culturelles dans la vie académique des étudiants et du corps professoral en capturant et en mesurant ce qui se passe lorsque ces utilisateurs s’engagent avec les bibliothèques et les ressources culturelles. De plus\, l’étude vise à inspirer et informer les décisions stratégiques futures et les plans pour les bibliothèques et les ressources culturelles. \nL’étude est basée sur un cadre Impact Compass\, qui est une approche de méthodes mixtes conçue pour explorer comment les expériences culturelles impactent les individus. La boussole sert d’outil pour communiquer de manière quantitative comment un individu expérimente un produit ou service culturel particulier\, tout en utilisant également l’analyse qualitative des données pour obtenir une compréhension plus approfondie des résultats. \nBien que le cadre Impact Compass ait déjà été utilisé pour les bibliothèques publiques\, il n’avait jamais été utilisé dans un contexte de recherche en bibliothèque. Pour s’assurer que la boussole d’impact a résonné dans le contexte du personnel de les bibliothèques et les ressources culturelles\, les étudiants et les professeurs ont été consultés\, et des adaptations significatives ont été apportées à la boussole. \nPlus précisément\, ce processus collaboratif a permis de déterminer quatre piliers de l’expérience des bibliothèques : l’espace\, les collections et les ressources numériques\, le soutien à l’enseignement et à l’apprentissage et le soutien à la recherche.  Chaque pilier s’est vu attribuer une boussole d’impact.  Chaque boussole a été divisée en quatre dimensions d’impact : émotionnelle\, intellectuelle\, sociale et créative.  Chaque dimension se composait de trois paramètres qui ont été testés et affinés pour refléter les besoins et le contexte d’une bibliothèque de recherche. Les données qualitatives ont ensuite été utilisées pour apporter des nuances et une compréhension de la boussole. À partir de cela\, des profils d’impact ont été développés. \nLes présentateurs discuteront des résultats de l’étude\, y compris les profils d’impact pour les étudiants et le corps professoral. Enfin\, les présentateurs discuteront de la façon dont les résultats de l’étude ont été utilisés et des plans pour une utilisation future. \nObjectifs d’apprentissage : \n\nCompréhension de base de la méthode utilisée pour cette étude.\nPotentiellement\, obtenir un aperçu des résultats de l’étude qui pourrait être généralisable à leur propre contexte\n\n\n\n\n					 9h25 – 9h45 – Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires\n									\nSabina Pagotto (Scholars Portal) and Katrina Fortner (Ontario Council of University Libraries) \nÀ la fin de 2024\, les directeurs de bibliothèques qui composent le Conseil des bibliothèques universitaires de l’Ontario (CBUO) ont demandé de l’aide pour expliquer la valeur des services qu’ils reçoivent du CBUO et de son service Scholars Portal aux cadres supérieurs d’universités en dehors de la bibliothèque. Étant donné que plus de 20 établissements varient considérablement en taille\, intensité de recherche et priorités institutionnelles\, il n’y avait pas de consensus sur les types d’information qui seraient utiles pour communiquer aux cadres supérieurs. Certaines institutions\, par exemple\, préféraient les chiffres réels et demandaient spécifiquement le retour sur investissement ou les économies de coûts ; d’autres ont estimé que les déclarations sur les avantages qualitatifs seraient des arguments plus convaincants auprès de leurs administrateurs. \nEn réponse à cette demande\, le groupe de communication CBUO-Scholars Portal s’est mis en action. Nous avons étudié diverses façons de calculer la valeur et les économies de coûts dans différents services ou domaines d’opérations\, jusqu’à ce que nous ayons identifié une gamme de points de données que nous pensions pouvoir calculer en toute confiance pour chaque institution. Nous avons également rédigé des énoncés de valeur qui énoncent les avantages ou les résultats des services consortiaux et que nous nous attendions à voir résonner chez les administrateurs autres que ceux des bibliothèques. Une fois que nous avons eu un ensemble solide de déclarations\, nous avons demandé aux directeurs de bibliothèque de classer les déclarations qui\, selon eux\, seraient les plus utiles pour leur établissement. À l’aide d’un modèle conçu par notre équipe de services web\, nous avons ensuite généré des rapports personnalisés pour chaque institution qui a répondu. Ces rapports ont été distribués avec la documentation à l’appui qui fournissait plus de contexte pour permettre aux directeurs de bibliothèque de discuter en toute confiance de ces rapports avec les administrateurs de leur établissement\, reliant les points entre le coût de la bibliothèque ou les économies de ressources et les impacts positifs sur la communauté du campus. \nCette session discutera des défis\, des opportunités et des leçons apprises tout au long du projet. \nLes participants apprendront comment : \n\nDiscuter des méthodologies pour calculer les économies de coûts dans les services consortiaux\nAdoptez une optique de communication pour l’évaluation et considérez le rôle du public lors de la communication de la valeur\nPensez de manière critique aux statistiques et aux valeurs calculées et comprenez l’importance de savoir d’où viennent les chiffres\n\n\n\n\n					 9h50 – 10h10 – Planification stratégique efficace: étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa\n									\nKatrine Mallan (Université d’Ottawa) \nCette séance présentera comment la bibliothèque de l’Université d’Ottawa utilise le Cadre d’impact des bibliothèques de l’ABRC pour apporter plus de clarté\, de cohérence et d’évaluabilité à la mise en œuvre de notre nouveau plan stratégique. \nEn utilisant une orientation stratégique comme étude de cas\, j’expliquerai aux participants comment notre groupe de gestion des bibliothèques a élaboré en collaboration un modèle logique pour cartographier les activités clés\, les extrants\, les auditoires\, les résultats et les hypothèses sous-jacentes. Ce processus nous a aidés à aller au-delà des aspirations générales pour définir des actions tangibles\, tester la plausibilité du parcours d’impact et jeter les bases d’une évaluation significative. \nEn ancrant notre planification dans le cadre de l’ABRC\, nous avons établi une compréhension commune de la façon dont notre travail crée un impact et établi une ligne de mire plus claire entre la stratégie et la mise en œuvre. \nLa session mettra en évidence comment l’utilisation des modèles logiques : \n\nNous a aidés à rendre notre stratégie plus réalisable ;\nFait apparaître des hypothèses et clarifié les résultats escomptés ;\nCréé une base plus solide pour les futurs travaux d’évaluation.\n\nCette étude de cas est particulièrement pertinente pour les bibliothèques qui cherchent à combler le fossé entre la planification stratégique et l’exécution opérationnelle\, et pour celles qui visent à intégrer la pensée évaluative sans surcharger le personnel ou les ressources. \nObjectifs d’apprentissage : À la fin de la session\, les participants seront en mesure de : \n\nComprendre comment le cadre d’impact des bibliothèques de l’ABRC peut soutenir la mise en œuvre du plan stratégique.\nIdentifier les éléments clés d’un modèle logique simple qui clarifient l’intention et soutiennent l’évaluation future.\nRéfléchir à la façon dont une réflexion évaluative précoce peut améliorer la cohérence et la faisabilité des efforts de planification stratégique.\n\nCette session est conçue pour être pratique et transférable\, en particulier pour les bibliothèques qui naviguent entre le milieu désordonné de la conception et de l’exécution de la stratégie. Notre étude de cas vise à susciter des idées pour les bibliothèques cherchant à intégrer l’évaluation dans leurs pratiques de planification et à rendre l’intention stratégique plus actionnable et visible. \n\n\n\n					 10h15 – 10h35 – De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques\n									\nSam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western ) \nLes bibliothèques académiques collectent un large éventail de données via diverses plateformes\, outils et procédures. Cependant\, le personnel et la direction ont souvent du mal à accéder à ces données ou à les interpréter. À Western Libraries\, nous avions un défi commun. Les données étaient difficiles à trouver\, hébergées sur différentes plateformes\, suivies de manière incohérente parmi nos équipes et difficiles à connecter pour une prise de décision fondée sur des preuves à tous les niveaux. \nPour aider à cela\, nous développons un tableau de bord en temps réel qui favoriserait la transparence et l’accessibilité à nos données. Ce tableau de bord vise à soutenir la prise de décision fondée sur des preuves dans l’ensemble de l’organisation pour aider à la planification stratégique\, à l’allocation des ressources et aux opérations. \nLe projet a commencé par des consultations avec les dirigeants pour déterminer la portée du projet et définir les objectifs clés. Cela a été suivi d’une série de réunions internes sur l’inventaire des données avec les principaux intervenants de nos services aux utilisateurs et de nos équipes de la haute direction pour comprendre quelles données étaient recueillies\, comment et par qui. Ces réunions ont révélé des lacunes dans la collecte de données\, ainsi que des différences clés dans la façon dont toutes les équipes visualisent et utilisent leurs données. En parallèle\, nous avons également travaillé avec des membres de notre équipe LITS (Library Information Technology Services) pour évaluer les exigences techniques\, explorer les options de visualisation et identifier quelles seraient les options les plus durables à long terme. \nDans cette session\, nous partagerons notre processus de planification\, les leçons apprises et les étapes pratiques que nous avons utilisées pour cartographier et consolider nos données à travers un grand système de bibliothèque. Nous discuterons également de la façon dont nous avons encadré notre processus en utilisant ADKAR (Sensibilisation\, Désir\, Connaissance\, Capacité\, Renforcement) pour soutenir un changement durable et contribuer à une culture d’évaluation dans les bibliothèques occidentales. \nObjectifs d’apprentissage/ Principaux points à retenir \n\nLes participants seront en mesure d’identifier et de consolider les données existantes et de déterminer les lacunes et les solutions dans la collecte de données actuelle.\nLes participants seront en mesure de comprendre le processus précoce de conception d’une « plateforme » pour accroître l’accès aux données institutionnelles.\nLes participants auront des idées pour appliquer des stratégies de gestion du changement afin de promouvoir l’adoption et soutenir les initiatives d’évaluation.\n\n\n\n\n					 11h00 – 11h20 – Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque\n									\nSarah Coysh & Sheril Hook (Université York) \nQui passe du temps et combien de temps passent-ils dans nos bibliothèques ? C’est la question qui nous a poussés à tenir un Jour du recensement dans toutes nos bibliothèques. Nous avons capturé le trafic de bibliothèque de 19232 entrées/sorties à travers la journée.  Nous avons sélectionné dix-sept points de données à enregistrer\, y compris le code postal actuel\, le niveau du diplôme\, le pendulaire ou en résidence\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96 % de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes chacun. \nComme Dillalogue & Koehn (2020)\, nous voulions aller plus loin que le comptage des portes seul\, alors nous avons créé un outil de tap-in/tap-out pour permettre aux utilisateurs d’utiliser volontairement leur identifiant de campus lorsqu’ils entrent et sortent de nos six bibliothèques en une seule journée en 2025. Nous avons calqué ce projet d’évaluation sur celui des bibliothèques de McGill qui ont déjà organisé un événement semblable.  Notre objectif était de capturer 80% du trafic en une seule journée pendant nos heures d’ouverture.  Nous avons également utilisé le jour du recensement comme catalyseur pour notre enquête LibQUAL+ pour laquelle nous avons reçu plus d’enquêtes complétées que les années précédentes. \nDeux approches ont été essentielles au succès du jour du recensement : la participation de tout le personnel de la bibliothèque et l’établissement d’un partenariat avec le Bureau de la planification et de l’analyse institutionnelle (OIPA).  Le personnel a été impliqué dans l’établissement du système de numérisation des cartes d’identité ; la logistique du jour pour chaque bibliothèque ; attribution des rôles le jour du recensement; développer et diffuser des ressources de communication ; célébrant le succès de la journée ; aider à l’analyse préliminaire des résultats).  Le partenariat avec OIPA nous a permis de sélectionner parmi plus de 200 points de données ; maintenir l’anonymat des données ; et nous a fourni le langage pour décrire l’analyse dans les contraintes de protection des données des clients. \nNous avons sélectionné dix-sept points de données\, y compris le code postal actuel\, le niveau du diplôme\, la personne qui fait la navette ou qui réside\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96% de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes. \nDans cette session\, nous partagerons des détails sur ce que nous avons appris sur les utilisateurs des bibliothèques et combien de temps ils restent\, y compris les données qui nous ont surpris et le suivi des idées d’évaluation. \nLes participants découvriront la variété des points de données collectés par les institutions académiques et comment ceux-ci peuvent être utiles pour éclairer les décisions concernant les heures\, le personnel\, la conception de l’espace\, la circulation\, etc. \nLes participants découvriront un système de tableau de bord open-source (Metabase) qui permet d’interroger les données pour la visualisation des données. \nLes participants recevront également un lien vers une pochette contenant des conseils sur la façon de mener leur propre journée de recensement. \nRéférence : \nDillalogue\, E.\, & Koehn\, M. (2020). Assessment on a Dime : Collecte de données utilisateur à faible coût pour l’évaluation. Bibliothèque basée sur des preuves et pratique d’information\, 15(3)\, 2–20. https://doi.org/10.18438/eblip29582 \n\n\n\n					 11h25 – 11h45 – Évaluer le succès d’un projet dans les bibliothèques académiques\n									\nJessica Lange & Nailisa Tanner (Université McGill) \nAu début de tout projet\, les parties prenantes définissent ce qui constitue le succès. Cette définition est ensuite utilisée à la fin du projet pour évaluer si ces objectifs ont été atteints et finalement déterminer si le projet a été « réussi » ou non. Les mesures typiques utilisées dans la gestion de projet\, telles que les indicateurs clés de performance (KPI) et l’utilisation des ressources\, bien qu’elles soient potentiellement utiles\, s’adressent aux entreprises ou aux lieux de travail à but lucratif et peuvent ne pas être les plus pertinentes ni transférables aux environnements académiques où le profit n’est pas un facteur pertinent. \nAprès avoir terminé plusieurs projets dans l’unité de technologie des bibliothèques de McGill et en utilisant des mesures typiques pour évaluer les projets\, il est devenu clair que bien que ces mesures répondaient au « quoi » d’un projet\, elles ne répondaient pas au « comment ». Les projets pourraient être achevés à temps et atteindre leurs objectifs\, mais ils peuvent avoir rencontré des problèmes importants au cours de leur déroulement\, tels qu’une mauvaise planification\, des conflits d’effectifs et des délais serrés. Définir le succès en termes aussi étroits a laissé le personnel insatisfait\, en particulier si le projet a rencontré des défis importants. Faire une rétrospective sur le projet est un modèle pour capturer des retours qualitatifs\, permettant aux membres de l’équipe d’apprendre et de grandir à partir (parfois) d’expériences négatives. Cela peut fournir un contexte supplémentaire en dehors des mesures de succès typiques. \nLes objectifs d’apprentissage de cette présentation incluent : \n\nDécrire brièvement les outils de base de la documentation de gestion de projet (par exemple\, charte\, rétrospective).\nÉnoncez les métriques communes utilisées pour évaluer le succès du projet\nDiscuter d’un modèle\, y compris des rétrospectives\, qui capture les commentaires qualitatifs des participants sur le succès du projet dans un environnement académique\n\n\n\n\n					 13h00 – 13h20 – Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation\n									\nJuliene McLaughlin & Robin Bergart (Université de Guelph) \nComme le dit le proverbe\, « si ce n’est pas cassé\, ne le réparez pas. » Mais parfois\, ce n’est pas aussi clair quand un service de bibliothèque est bien tel qu’il est et devrait être laissé seul\, ou s’il commence à se casser\, ou s’il est déjà cassé.  Pendant de nombreuses années\, notre bibliothèque a maintenu une page Web publique répertoriant les bases de données\, et en 2016\, nous avons mis en œuvre la liste A-Z de bases de données de Springshare. Au cours de cette période\, notre équipe UX a mené des études d’utilisabilité\, recueilli des analyses web et surveillé la documentation de la bibliothèque. Nous avons recommandé des changements progressifs pour s’assurer que cette page est aussi utilisable et utile que possible. Cependant\, plus récemment\, nous avons commencé à nous demander si cette page est toujours pertinente et si elle fait plus de mal que de bien. Après une enquête approfondie sur l’UX\, nous n’avons pas pu parvenir à une conclusion définitive\, mais notre intuition selon laquelle il y a un problème n’a pas disparu.  Que faites-vous lorsque votre instinct vous dit qu’il y a un problème\, mais que les preuves ne sont pas concluantes ? Quand devriez-vous abandonner les améliorations progressives et apporter un changement radical ? Qui décide ? \nObjectifs d’apprentissage : \n\nDiscutez du rôle de l’intuition professionnelle dans le travail sur l’expérience utilisateur\, y compris comment équilibrer les sentiments instinctifs avec des preuves empiriques.\nReconnaître les signes indiquant qu’un service de bibliothèque peut ne plus répondre aux besoins des utilisateurs\, même lorsque les indicateurs d’utilisabilité traditionnels sont peu concluants.\nÉvaluer la tension entre l’amélioration progressive et la refonte radicale et identifier des stratégies pour prendre des décisions éclairées sur le moment de changer d’approche.\n\n\n\n\n					 13h25 – 13h45 – Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques\n									\nAli Foster\, Abigail Graham\, et David Pearson (Université MacEwan) \nCette brève présentation met en évidence les expériences et les leçons tirées d’une refonte complète d’un site Web de bibliothèque de premier cycle axé sur l’amélioration de l’expérience utilisateur pour les étudiants de premier cycle. L’équipe du projet était composée de quatre employés : un graphiste\, un informaticien et deux bibliothécaires. Le principal défi auquel l’équipe a été confrontée était de développer un protocole d’expérience utilisateur (UX) qui privilégiait les perspectives des étudiants tout en obtenant le soutien du personnel de la bibliothèque pour les changements proposés à nos pratiques d’évaluation existantes. \nAvant le lancement du projet à l’automne 2023\, les efforts de refonte du site web précédents tenaient principalement compte des opinions du personnel et du corps professoral de la bibliothèque. Par conséquent\, l’architecture de l’information du site et le ton de la voix ont été signalés comme des domaines d’amélioration potentiels lors du processus de refonte. Cette préoccupation a été validée lorsque l’équipe a collaboré avec des étudiants de troisième année en anthropologie menant des études ethnographiques du site web de la bibliothèque. Dans les deux discussions avec les étudiants et dans leurs rapports formels\, il est devenu clair qu’ils ont trouvé le site web inaccessible\, déroutant et peu accueillant pour les étudiants. À cette fin\, l’équipe du projet a développé un protocole UX qui visait à prioriser les perspectives des étudiants ainsi que les meilleures pratiques en matière de conception web accessible et inclusive. \nCette présentation fournira un bref aperçu du projet\, des exemples clés d’outils d’expérience utilisateur axés sur les étudiants que nous avons appliqués\, ainsi que nos observations et leçons apprises alors que nous continuons à évaluer et à affiner le site web de la bibliothèque. \nRésultats d’apprentissage – Les participants : \n\nComprendre comment mettre en œuvre des pratiques d’expérience utilisateur axées sur les étudiants dans un projet de conception web\nEnvisager des méthodes pour encourager l’adhésion du personnel de la bibliothèque à la conception de sites web axés sur les étudiants\nIdentifier des moyens de collecter et de mettre en œuvre durablement les retours des étudiants sur une base continue\n\n\n\n\n					 14h10 – 16h10 – Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques\n									\nJulie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser) \nLes praticiens de l’évaluation en bibliothèque peuvent intégrer les outils et techniques de dialogue pour faciliter des évaluations communautaires significatives et inclusives—avec les utilisateurs de la bibliothèque ainsi que les collègues de la bibliothèque. Cet atelier présentera la théorie\, les connaissances et les compétences pour faciliter le dialogue dans le travail d’évaluation des bibliothèques. \nLe dialogue peut être défini de nombreuses manières. C’est une méthode pour articuler les besoins\, les désirs et les hypothèses sous-jacentes dans des groupes qui rejette les dynamiques de pouvoir hiérarchiques et qui est axée sur la transformation. Il utilise des pratiques participatives pour organiser des conversations génératives\, être plus inclusif\, favoriser l’apprentissage mutuel\, centrer l’expertise vécue et exploiter la sagesse collective. Il « peut aider les groupes et les communautés à explorer respectueusement des questions polarisantes\, à aborder les conflits\, à délibérer sur le potentiel de problèmes complexes et bien plus encore » (Morris J. Wosk Centre for Dialogue\, Université Simon Fraser\, n.d.). Dans son livre de 1999\, Dialogue and the Art of Thinking Together\, William Issacs a succinctement et plutôt magnifiquement défini le dialogue comme « une conversation avec un centre\, pas des côtés » (p. 19). Williams a ensuite déclaré : « C’est une façon de prendre l’énergie de nos différences et de la canaliser vers quelque chose qui n’a jamais été créé auparavant. » Il nous élève hors de la polarisation et vers un sens commun plus grand\, et est ainsi un moyen d’accéder à l’intelligence et au pouvoir coordonné de groupes de personnes » (p. 19). \nLes participants à cet atelier apprendront comment le sous-groupe du plan d’instruction du Groupe de travail pour la formation et l’éducation en matière d’information (WGILI) de la bibliothèque SFU utilise des méthodes en dialogue pour évaluer les besoins de leurs collègues instructeurs et intégrer l’expertise vécue de leurs collègues dans le nouveau plan d’instruction de la Bibliothèque\, que le sous-groupe est en train de créer. Après une introduction à la théorie et au contexte SFU\, les participants seront invités à assumer le rôle de participants dans un dialogue structuré créé par le sous-groupe pour évaluer les besoins des instructeurs de bibliothèque à la bibliothèque SFU. Ce dialogue facilitera la connaissance co-construite\, le leadership distribué\, la pollinisation croisée des idées et la création de sens partagée et visible. \nAprès avoir expérimenté le dialogue structuré en tant que participants\, les participants seront invités à assumer le rôle de facilitateurs pendant que nous « tirons le rideau » et examinons et réfléchissons aux composantes\, à la conception et aux résultats du dialogue. Nous partagerons la théorie derrière les décisions prises et les actions entreprises et discuterons de la transférabilité des méthodes de facilitation utilisées\, en mettant l’accent sur l’application pratique des concepts et principes théoriques dans d’autres contextes d’évaluation de bibliothèques. Des modèles et des ressources de facilitation que les participants peuvent apporter dans leur pratique d’évaluation seront partagés. Nous discuterons également des avantages d’apporter des méthodes de dialogue et de facilitation dans le travail d’évaluation des bibliothèques. \nObjectifs d’apprentissage  \nÀ la fin de cet atelier\, les participants pourront : \n\nComprendre le dialogue comme une méthodologie.\nAppliquer des techniques de facilitation qui permettent le dialogue et favorisent des conversations significatives dans un cadre d’évaluation en bibliothèque.\nDévelopper des perspectives d’évaluation en utilisant des méthodes de facilitation et de dialogue.\n\nRéférences  \nIsaacs\, W. (1999). Le dialogue et l’art de penser ensemble : une approche pionnière pour communiquer dans les affaires et dans la vie (1ère éd). Monnaie. \nMorris J. Wosk Centre for Dialogue\, Université Simon Fraser (n.d.). Qu’est-ce que Dialogue ? Récupéré le 1 juin 2025\, de https://www.sfu.ca/dialogue/learn/what-is-dialogue.html \n\n\n\n					 9h00 – 10h30 – Dix projets d’évaluation récents que nous aimons\n									\nJustine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \nLe paysage de l’évaluation est en train de changer.  Il y a un changement continu vers une focalisation sur la valeur et l’impact\, une augmentation de l’évaluation qualitative et des méthodes mixtes\, ainsi que des explorations naissantes dans le rôle de l’intelligence artificielle générative dans l’évaluation. Dans notre environnement actuel\, il peut être difficile de suivre les nouvelles initiatives et développements – surtout avec un temps\, des ressources et/ou une technologie limités. \nDans cette session amusante et rythmée\, les présentateurs partageront leurs récents projets d’évaluation et pratiques\, ainsi que des pratiques innovantes dans d’autres bibliothèques. Bien que bon nombre des projets abordés dans la présentation proviennent de bibliothèques universitaires\, tous les projets peuvent être appliqués dans des milieux universitaires\, publics\, gouvernementaux et autres. De plus\, les exemples vont des projets et pratiques qui peuvent être réalisés avec des ressources limitées (temps\, argent\, technologie)\, aux exemples plus intensifs en ressources. \nLes projets et les pratiques présentés varieront en ce qui concerne l’objectif (collections\, espace\, instruction\, etc.)\, la méthodologie (point d’utilisation\, collections prédictives\, photo voice\, etc.)\, la période de temps (transversale\, longitudinale) et la portée de l’impact (individuel\, institutionnel\, sociétal). \nRésultats d’apprentissage : \nCette session s’adresse aux bibliothécaires qui souhaitent découvrir de nouvelles perspectives ou méthodologies dans le domaine de l’expérience utilisateur des bibliothèques\, de l’évaluation ou de la pratique de l’impact. L’objectif de la session est que les participants repartent avec une nouvelle approche de l’évaluation qu’ils peuvent appliquer dans leur bibliothèque. \nDu temps sera également accordé aux membres de l’auditoire pour partager leur propre initiative d’évaluation récente et passionnante. \n\n\n\n					 11h00 – 11h30 – Conférences éclair\n									\nAu-delà des bugs : Utiliser une fonctionnalité ‘Signaler un problème’ pour comprendre les attentes des utilisateurs (Université de Regina) \nEn février 2023\, l’Université de Regina a mis en place une fonctionnalité de signalement d’un problème dans son système de découverte. Depuis lors\, plus de 600 rapports ont été soumis\, et cela est devenu un canal de rétroaction essentiel. Grâce à ces rapports\, nous avons acquis un aperçu des aspects de l’expérience de recherche et de découverte que les clients trouvent déroutants\, contre-intuitifs ou frustrants. Ces rapports de problèmes soumis par les utilisateurs mettent fréquemment en évidence des incohérences entre la fonctionnalité du système et les besoins et hypothèses des utilisateurs. En analysant ces rapports\, nous avons pu mieux comprendre le comportement et les attentes des utilisateurs à l’égard du système de la bibliothèque et de la bibliothèque en général. Cette présentation éclair décrira comment ces rapports ont été analysés\, et les idées acquises grâce à ce processus. \nTests d’utilisabilité et d’accessibilité : Utilisation d’un protocole de réflexion à voix haute comme outil d’évaluation pour les systèmes de revues ouvertes – Caitlin Bakker & Christopher Read (Université de Regina) \nDans cette conférence éclair\, les présentateurs partageront leur expérience en matière de tests d’utilisabilité et d’accessibilité dans le cadre du lancement par l’Université de Regina des Proceedings of the Canadian Nuclear Society in Open Journal Systems (OJS). Cette présentation éclair se concentrera sur les meilleures pratiques et les points à retenir de l’utilisation d’un protocole de réflexion à voix haute pour évaluer la collection et sa fonctionnalité de recherche. L’objectif principal de ces tests était de permettre à diverses communautés d’utilisateurs de s’engager dans une recherche efficace d’informations\, qu’ils accèdent au système via des ordinateurs de bureau ou des appareils mobiles. La session couvrira les aspects pratiques de la méthodologie de test\, tels que le travail avec un stage en bibliothèque à distance. Les participants peuvent s’attendre à en apprendre davantage sur des techniques spécifiques de test d’utilisabilité\, y compris les invites\, les lecteurs d’écran\, l’enregistrement et d’autres aspects du test think aloud\, et comment ils peuvent fournir un aperçu critique pour améliorer la conception du système et la satisfaction des utilisateurs. \nDemander à Chat à propos de LibrarySearch – Susan Bond (Université de Toronto) \nÀ l’Université de Toronto\, nous avons ajouté ces dernières années notre outil d’aide par chat intégré à notre couche de découverte – Ex Libris Primo VE\, que nous avons étiqueté localement comme LibrarySearch. Parce que LibrarySearch est un outil en libre-service\, chaque discussion lancée représente un point de repère potentiel – c’est une façon pour les utilisateurs de nous faire savoir qu’ils ne sont pas capables de se servir. Début 2025\, nous avons entrepris une évaluation exploratoire en examinant les transcriptions de chat d’un mois\, pour voir ce que nous pouvions découvrir sur les défis dans notre interface\, les lacunes dans notre documentation et les problèmes avec nos ressources. Nos conclusions comprenaient des preuves en faveur des changements sur lesquels nous travaillions déjà\, certaines victoires rapides et certaines choses auxquelles nous devrons réfléchir davantage avant de pouvoir les aborder. Dans cette présentation éclair\, nous examinerons nos conclusions spécifiques sur notre interface utilisateur\, notre document de support et la dotation en personnel de notre support de chat\, et aborderons ce que nous avons appris sur notre codage/évaluation et comment nous allons le changer à l’avenir. \n\n\n\n					 13h00 – 13h20– Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs\n									\nMichelle Goodridge (Université Wilfrid Laurier) \nEn 2017\, un partenariat bibliothécaire-faculté a conduit à la création d’une simulation en classe pour un cours de première année de premier cycle sur les droits humains mondiaux. Les étudiants ont assumé des rôles représentant des acteurs mondiaux (par exemple\, des États-nations et des ONG) pour répondre à une crise simulée dans le meilleur intérêt de leur propre rôle\, ce qui a conduit à développer des compétences en recherche\, évaluation et pensée critique dans un environnement d’apprentissage actif. Une étude de recherche à méthodes mixtes a évalué l’impact de la simulation\, combinant des données qualitatives issues de réflexions et d’observations avec une analyse quantitative basée sur les critères. Cette session présentera le design de la simulation\, les stratégies d’évaluation et les principales conclusions\, en démontrant comment l’apprentissage par le jeu peut améliorer de manière significative l’engagement et le développement des compétences des étudiants. Les participants auront un aperçu de l’application de ces méthodes dans d’autres contextes pédagogiques et de l’utilisation des données pour plaider en faveur d’une collaboration plus approfondie entre professeurs et bibliothécaires. \n\n\n\n					 13h25 – 13h45 – Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information.\n									\nAmy McLay Paterson (Université Thompson Rivers) \nEn 2023-2024\, les bibliothécaires de l’Université Thompson Rivers ont développé un programme pilote pour transformer un programme de littératie informationnelle principalement monocouche en un programme structuré et intégré. Le projet pilote d’enseignement en bibliothèque de l’anglais 1100 (ELIP) a été développé comme une collaboration entre la bibliothèque et le département d’anglais au printemps 2023 dans le but d’élargir l’enseignement en bibliothèque pour soutenir la réussite des étudiants et leur appartenance. Plutôt que de participer à la session unique habituelle\, les étudiants ELIP désignés participeront à une série de trois tutoriels hebdomadaires pour la bibliothèque. Le projet ELIP s’est déroulé tout au long de l’année académique 2023-24\, période durant laquelle nous avons collecté des données d’affectation des étudiants\, des retours des étudiants\, des retours du corps professoral et des entrées de journal réfléchies des participants bibliothécaires pour déterminer l’efficacité et la durabilité du programme. \nLes lacunes des sessions de littératie informationnelle ponctuelles sont répandues et bien documentées dans notre profession. Nicole Pagowsky déclare que « le one-shot—même s’il y en a plus d’un — rend difficile d’atteindre un apprentissage plus profond\, une pensée critique et une pédagogie inclusive » (2021\, 2). Cependant\, notre approche du projet pilote—ni un cours en une seule fois ni un cours à crédit — est unique dans la littérature établie. \n\nLe programme ELIP a-t-il aidé les étudiants à réussir leurs cours d’anglais associés ?\nUne instruction plus intégrée aide-t-elle à renforcer les relations entre la bibliothèque et la communauté de l’UTR ?\nComment pouvons-nous améliorer nos pratiques d’enseignement pour mieux répondre aux besoins des étudiants ?\n\nSelon chacun de ces indicateurs\, le programme ELIP a amélioré les résultats par rapport au one-shot habituel. Les résultats du sondage auprès des professeurs sont très positifs\, et les instructeurs bibliothécaires ont tous observé la profondeur de l’engagement des étudiants et la construction de relations positives. Cette relation plus étroite avec les étudiants a également abouti à des améliorations tangibles de nos pratiques pédagogiques et des objets d’apprentissage existants. Ma présentation présentera le programme ELIP\, y compris la justification de sa conception; présenter les différentes méthodes d’évaluation que nous avons utilisées ; et discuter de nos résultats et des prochaines étapes. Des supports de cours\, ainsi que des outils d’évaluation (tels que des sondages et des formulaires de consentement) seront mis à la disposition des participants intéressés. \nObjectifs d’apprentissage \nLes participants à cette session pourront : \n\nReconnaître les avantages et les limites d’une myriade de méthodes d’évaluation de la littératie informationnelle.\nConsidérez comment les objectifs de l’enseignement de la littératie informationnelle affectent la conception et l’évaluation des programmes.\nArticuler une variété de mesures du succès de la littératie informationnelle à utiliser dans les communications et discussions internes et externes.\n\n\n\n\n					 13h50 – 14h10 – Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques\n									\nRong Luo\, Shuzhen Zhao\, et Karen Pillon (University of Windsor) \nÀ mesure que l’enseignement de la littératie informationnelle (LI) continue d’évoluer dans les bibliothèques universitaires\, les pratiques d’évaluation doivent suivre le rythme pour garantir des résultats significatifs. Cette session explore l’efficacité de la formation en LI en présentant une étude menée à l’Université de Windsor qui évalue les compétences en LI perçues et démontrées chez les étudiants diplômés de la Faculté des arts\, des sciences humaines et des sciences sociales (FAHSS). Fondée sur le cadre de l’ACRL pour la littératie informationnelle dans l’enseignement supérieur et utilisant une version modifiée du test Beile de littératie informationnelle pour l’éducation (B-TILED)\, l’étude souligne comment les outils d’analyse et d’évaluation structurée peuvent informer\, améliorer et valider les programmes d’instruction de la bibliothèque. \nLa formation à l’LI prend diverses formes\, des séances en classe aux activités d’orientation et aux consultations individuelles\, mais son efficacité passe souvent inaperçue. En comparant les étudiants qui ont reçu un enseignement formel de l’LI avec ceux qui ne l’ont pas reçu\, cette session révèle si la formation est corrélée avec des compétences de recherche plus solides et une confiance accrue dans la navigation des ressources académiques. \nLes participants découvriront une approche d’évaluation flexible et évolutive utilisant B-TILED\, qui combine des données démographiques\, l’auto-évaluation des capacités de recherche et des tests de connaissances objectifs. La session discute également des considérations pratiques pour la conception\, la mise en œuvre et l’analyse de l’enquête à l’aide de SPSS ou de plateformes similaires. \nObjectifs d’apprentissage : À la fin de cette session\, les participants seront en mesure de : \n\nDécrivez comment les outils d’évaluation de la littératie informationnelle peuvent être intégrés dans les programmes d’enseignement des bibliothèques universitaires.\nIdentifiez les composants clés du cadre B-TILED et comprenez comment l’adapter à différents contextes de bibliothèque.\nAnalyser et interpréter la relation entre l’aptitude à la recherche perçue de soi et les compétences en LI mesurées objectivement.\nAppliquer des stratégies d’analyse quantitative de base pour évaluer l’impact de la formation en bibliothèque à l’aide de plateformes analytiques.\nÉlaborer des stratégies fondées sur des données probantes pour améliorer et justifier les efforts d’enseignement de l’LI en réponse aux besoins d’apprentissage des étudiants et aux objectifs institutionnels.\n\n\n\n\n					 14h10 – 14h30 – Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail\n									\nSarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill) \nDepuis plus de 20 ans\, les bibliothèques numérisent et fournissent un accès en ligne à leurs collections pour mieux servir la recherche\, l’enseignement et les objectifs créatifs des universitaires et des non-universitaires. La nature ouverte et en ligne de la plupart des collections numérisées par les bibliothèques a aidé à faciliter l’accès pour de nouveaux publics; cependant\, cette ouverture signifie également que les bibliothèques connaissent comparativement peu ceux qui utilisent ces ressources\, ce qui rend ces ressources difficiles à évaluer pour les bibliothèques. Si vous ne savez pas qui sont vos utilisateurs\, comment pouvez-vous les connaître ? \nLa recherche sur l’expérience utilisateur a gagné en popularité et est largement acceptée dans les bibliothèques comme un ensemble standard de techniques pour évaluer les services et les interfaces des bibliothèques\, et les plateformes de collections numériques ne font pas exception ici. Cependant\, une grande partie de la recherche sur l’expérience utilisateur menée dans le but d’évaluer les programmes et plateformes de collections numériques se limite aux affiliés institutionnels et ne concerne que la plateforme de collections numériques elle-même\, négligeant les questions sur la façon dont les utilisateurs trouvent ces collections en premier lieu ainsi que comment ils les utilisent dans leurs recherches. \nCette présentation rend compte d’une étude à méthodes mixtes menée dans le but d’élargir nos horizons sur qui sont les utilisateurs des collections numériques et comment ils utilisent les ressources numérisées des bibliothèques dans leurs recherches. Notre étude a utilisé des enquêtes anonymes et des entretiens qualitatifs pour atteindre un équilibre entre l’ampleur de la participation et la profondeur des réponses. Reconnaissant la nature ouverte de nos collections numériques\, nous avons inclus des chercheurs académiques indépendamment du lieu ou de l’affiliation institutionnelle\, ainsi que des chercheurs non académiques comme les journalistes\, les artistes\, les blogueurs et les historiens publics. Notre étude a posé trois questions de recherche principales : Qui utilise les collections numérisées des bibliothèques ? Comment les trouvent-ils ? Et enfin\, comment les utilisent-ils dans leurs recherches ? \nDans cette présentation\, nous nous concentrerons sur les méthodes que nous avons utilisées pour cette étude\, leurs résultats et ce que nous avons appris de ce processus. Nous discuterons de l’importance d’utiliser plusieurs types de techniques de recherche pour l’évaluation dans le contexte de la recherche sur l’expérience utilisateur\, et en particulier de ce que ce type de recherche à méthodes mixtes peut contribuer à la suite d’outils de recherche sur l’expérience utilisateur. Les participants apprendront les points forts de la recherche à méthodes mixtes\, comment les techniques de recherche exploratoire peuvent être utilisées pour compléter et améliorer d’autres données évaluatives\, comme les études d’utilisabilité et l’analyse web\, qui peuvent être collectées pour l’évaluation des bibliothèques\, et comment appliquer ces techniques pour répondre à de grandes questions en matière d’expérience utilisateur et d’évaluation des services de bibliothèque. \n\n\n\n					 14h45 – 15h05 – Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs\n									\nJody Nelson & Alison Pitcher (Université MacEwan) \nNotre session présentera le programme d’évaluation de l’enseignement de la littératie informationnelle [LI] dirigé par des pairs que nous facilitons pour les bibliothécaires dans notre université de premier cycle\, y compris l’impulsion\, le développement\, la fondation théorique\, la structure et l’impact. Nous partagerons des observations sur la façon dont le programme contribue à notre compréhension de la pratique d’enseignement réflexif comme étant au cœur de l’évaluation pédagogique et du développement d’une communauté plus cohésive de pratiques pédagogiques parmi les bibliothécaires enseignants impliqués dans le programme. \nNotre programme de mentorat réfléchi entre pairs dans l’enseignement des triangles remplit le mandat de la bibliothèque pour développer des pratiques durables d’évaluation de l’enseignement de l’LI en harmonie avec le plan stratégique de notre université\, Teaching Greatness. Adoptant une approche d’évaluation centrée sur l’étudiant et fondée sur le cadre d’évaluation critique de l’enseignement en bibliothèque développé par McCartin & Dineen (2018)\, notre programme d’évaluation critique de l’LI promeut l’évaluation intentionnelle et continue de l’enseignement cultivée à travers la pratique réflexive. En nous attribuant le travail d’évaluation et d’amélioration en tant qu’enseignants\, nous transférons la charge de l’évaluation (c’est-à-dire remplir des formulaires de retour ou des instruments de mesure) sur les étudiants. \nEn construisant la participation de longue date de notre bibliothèque dans l’enseignement des triangles d’observation et du mentorat pédagogique LI\, notre programme offre des opportunités d’évaluation continue de l’enseignement en combinaison avec un mentorat ciblé par les pairs. Les participants au programme forment des triangles de mentorat par les pairs qui se rencontrent plusieurs fois au cours d’un trimestre académique. Les participants individuels identifient les éléments d’enseignement prioritaires (c.-à-d. le contenu\, l’accessibilité\, les interactions avec les étudiants) au sujet desquels ils aimeraient recevoir des commentaires constructifs; les observateurs pairs adoptent une approche basée sur les points forts\, partageant des retours positifs ainsi que toute suggestion utile pour l’amélioration dans les domaines pré-identifiés. En tant que membres d’une triade de co-mentorat\, les participants visent à favoriser l’excellence dans l’enseignement tout en apprenant les uns des autres\, en collectant des idées pour améliorer les expériences d’apprentissage des étudiants lorsqu’ils s’observent mutuellement. Pour les bibliothécaires en début de carrière en particulier\, l’aspect co-mentorat crée un environnement sûr pour développer la compétence d’enseignement et la confiance. Ce programme permet non seulement une évaluation significative de l’enseignement\, mais offre également aux participants la possibilité de favoriser une pratique réflexive individuelle de manière continue\, soutenue et relationnelle (Lewitzky\, 2020). \nSuite à notre session\, les participants repartiront avec une compréhension de :● La valeur de l’observation relationnelle par les pairs pour l’évaluation de l’enseignement● Le rôle de la pratique pédagogique réflexive pour une amélioration soutenue et continue● Comment notre programme est géré afin qu’il puisse être adapté pour les institutions participantes \nRéférences :Lewitzky\, R.A. (2020). Éduquer\, apprendre et grandir : Une revue du rôle d’enseignement dans la bibliothéconomie académique. Bibliothèques universitaires et de premier cycle\, 27(1)\, 32-40. \nMcCartin\, L. F.\, & Dineen\, R. (2018). Vers une pratique d’évaluation critique et inclusive pour l’enseignement en bibliothèque. Litwin Books. \n\n\n\n					 15h10 – 15h40 – Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections\n									\nErin Calhoun (Université de Toronto) \nLes développements dans l’édition en libre accès\, les modèles d’affaires et les politiques de financement ont amené les communications savantes au sein du travail de développement des collections. De plus en plus\, les fonds pour le développement des collections des bibliothèques sont réaffectés pour couvrir les frais d’édition grâce à des accords transitoires de lecture et de publication. Ce changement s’accompagne d’un besoin pressant de nouveaux cadres d’évaluation – ceux qui vont au-delà des statistiques traditionnelles sur l’utilisation des ressources électroniques pour mesurer la production de publications et l’investissement financier. Les bibliothèques doivent développer des capacités pour recueillir et analyser les données de publication institutionnelle afin d’éclairer les décisions relatives au développement des collections. \nCependant\, évaluer la publication en libre accès n’est pas simple. Les données de publication en libre accès sont souvent présentées dans des formats incohérents et dispersées dans les rapports bibliométriques et ceux des éditeurs\, ce qui entrave l’analyse agrégée. Pour relever ce défi\, les bibliothèques de l’Université de Toronto ont lancé un projet pilote visant à rationaliser la collecte\, le nettoyage et la visualisation des données de publication en libre accès. \nLa courte session partagera des idées tirées du projet pilote\, qui comprend la collecte de rapports sur les données de publication provenant de plusieurs accords d’accès libre\, la normalisation des données dans un modèle unifié\, et construire un tableau de bord interactif pour visualiser l’activité éditoriale et les contributions financières de l’université dans l’édition en libre accès. Le projet a d’abord exploré des solutions basées sur la programmation pour le nettoyage des données\, mais a finalement adopté KNIME – une plateforme open source à faible code – pour gérer les tâches complexes de nettoyage des données de manière évolutive et accessible. \nÀ partir de cette présentation\, les participants : \n\nAcquérir des connaissances sur la façon de suivre et de visualiser la publication en libre accès dans leur établissement\nComprendre les défis liés à la collecte de données sur les publications et les stratégies de collecte de grands ensembles de données non standardisés\nIdentifier des outils\, des outils et des solutions à faible code\, tels que Knime\, pour travailler avec de grands ensembles de données complexes\n\nCette présentation sera utile pour ceux qui s’intéressent aux nouvelles méthodes d’évaluation et sources de données\, aux outils d’analyse des données et à ceux qui cherchent à commencer à travailler avec des données de publication en accès libre. \n\n\n\n					 15h45 – 16h05– « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée\n									\nZe’ev Schneider (Bibliothèque du Parlement) \nLes riches collections de la Bibliothèque du Parlement (la Bibliothèque)\, développées au fil de nombreuses décennies\, sont essentielles à sa mission de contribuer à la démocratie parlementaire canadienne en « gérant et en fournissant des informations et des connaissances fiables\, pertinentes et faisant autorité ». Les collections sont réparties entre plusieurs sections de la Cité parlementaire ainsi qu’une installation d’entreposage hors site. \nDe plus\, une succursale libre-service destinée principalement aux chercheurs de la bibliothèque offre un accès sur place à une collection d’imprimés. Une récente évaluation complète de cette collection a permis de dégager suffisamment d’espace sur les étagères pour de nouvelles acquisitions. En réfléchissant à la façon de développer cette collection et de gérer l’espace\, nous avons réfléchi au rôle actuel et à la valeur de l’impression sur place pour les spécialistes du sujet dans leur travail et leurs recherches\, leur développement professionnel et leur lecture loisir. Ce processus a conduit à la création du sondage utilisateur couvert dans cette présentation. \nDans cette session\, je présenterai l’enquête de la conception aux résultats. \nLa présentation comprendra : \n\nUne introduction à la Bibliothèque du Parlement (le nouveau membre de l’ABRC!)\, y compris ses collections et ses utilisateurs\nÉtapes et itérations dans la conception de l’enquête\nObjectifs de l’enquête\, résultats et résultats prévus\n\nObjectifs d’apprentissage \nLes participants à la conférence apprendront sur \n\nConsidérations lors de la création d’une enquête ciblée pour un groupe d’utilisateurs local\nLes idées glanées à partir des résultats de l’enquête\, y compris l’expérience des répondants sur la collection d’imprimés et l’espace ; et les différences entre les chercheurs plus récents et plus chevronnés dans leur connaissance et leurs préférences pour l’impression sur site\nDéfis et leçons apprises\n\n\n\n\n2025 Canadian Library Assessment Workshop\nOctober 27 – October 28 at Regina\, Saskatchewan\n\n2023 Canadian Library Assessment Workshop\nOctober 23\, 2023 – October 25\, 2023 at London\, Ontario\n\n2019 Canadian Library Assessment Workshop\nOctober 22\, 2019 – October 24\, 2019 at Windsor\, Ontario\n\n2017 Canadian Library Assessment Workshop\nOctober 26\, 2017 – October 27\, 2017 at Victoria\, British Columbia\n\n2015 Canadian Library Assessment Workshop\nOctober 14\, 2015 – October 16\, 2015 at Toronto\, Ontario\n\n\n					\n									En savoir plus sur l’ABCE\n					 \nComité de programme\n\nChristine Brown (Présidente)\, Head\, Faculty Engagement (Social Sciences + Humanities)\, University of Alberta \nKatrina Fortner\, Administration and Communications Coordinator\, Ontario Council of University Libraries\nShahira Khair\, University of Victoria\nJuliene McLaughlin\, Assessment & UX Librarian\, University of Guelph\nConnie Winther\, Head\, Faculty Engagement (Health Sciences)\, University of Alberta\nKaren Wiome\, Library Administrator\, University of Regina\nJulie Morin\, Agente principale de programme\, ABRC\n\nVoyage et hébergement\nUn bloc de chambres avec le Atlas Hotel a été réservé au tarif de 149\,95 $ par nuit. Vous pouvez réserver en appelant le 1-306-586-3443 ou en envoyant un courriel à guestambassador@atlashotel.com avec le code : 102625CLA. \nPlan du campus de l’Université de ReginaLa bibliothèque Archer est désignée par le code du bâtiment = LY \nRestauration à ReginaDes dîners-rencontres seront organisés avant l’atelier. \nCoût et inscription\nVeuillez vous inscrire avant le 26 septembre en remplissant ce formulaire et voir les détails de paiement ci-dessous. \nFrais : 430\,00 $ CA [Veuillez noter que ces frais sont supprimés pour les conférenciers\, qui sont uniquement tenus de remplir le formulaire d’inscription lié ci-dessus.] \nLes frais d’inscription comprennent le petit-déjeuner\, les collations et le repas du midi\, et une réception la soirée du 27 octobre. Veuillez nous informer de toute restriction alimentaire lors de votre inscription. \nLes participants qui préfèrent payer par virement électronique peuvent adresser leurs fonds à finance@carl-abrc.ca \nLes participants qui préfèrent payer par carte de crédit ou PayPal peuvent le faire en utilisant le lien ci-dessous. \n					\n				Lundi 27 octobre\n		\n				\n				Mardi 28 octobre\n		 \n\nEdit\n\n\nHeure\nSession                                                                                 \nConférenciers.ères\n\n\n\n\n 8h00 – 8h45   \n Petit-déjeuner et inscription                                                                        \n                                                                                                             \n\n\n 8h45 – 9h00   \n Bienvenue                                                                                              \n Dr David Gregory (Université de Regina) et comité de programme                                              \n\n\n 9h00 – 9h20   \n Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary                                   \n Justine Wheeler & Mary-Jo Romaniuk (Université de Calgary)                                                  \n\n\n 9h25 – 9h45   \n Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires                                          \n Sabina Pagotto (Scholars Portal) et Katrina Fortner (Conseil des bibliothèques universitaires de l’Ontario) \n\n\n 9h50 – 10h10  \n Planification stratégique efficace : étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa               \n Katrine Mallan (Université d’Ottawa)                                                                        \n\n\n 10h15 – 10h35 \n De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques                     \n Sam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western)                                                \n\n\n 10h35 – 11h00 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 11h00 – 11h20 \n Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque                                                   \n Sarah Coysh & Sheril Hook (Université York)                                                                 \n\n\n 11h25 – 11h45 \n Évaluer le succès d’un projet dans les bibliothèques académiques                                                                  \n Jessica Lange & Nailisa Tanner (Université McGill)                                                          \n\n\n 11h45 – 13h00 \nDîner                                                                                                    \n                                                                                                             \n\n\n 13h00 – 13h20 \n Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation                                   \n Juliene McLaughlin & Robin Bergart (Université de Guelph)                                                   \n\n\n 13h25 – 13h45 \n Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques \n Ali Foster\, Abigail Graham\, et David Pearson (Université MacEwan)                                           \n\n\n 13h45 – 14h10 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 14h10 – 16h10 \n Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques                                              \n Julie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser)                          \n\n\n 16h30         \n Réception                                                                                                                         \n                                                                                                             \n\n\n\n\nEdit\n\n\nHeure\nSession\nConférenciers.ères\n\n\n\n\n 8h00 – 8h50   \n Petit-déjeuner                                                                                                                                     \n                                                                                     \n\n\n 8h50 – 9h00   \n Bienvenue / Annonces                                                                                                                               \n                                                                                     \n\n\n 9h00 – 10h30  \n Dix projets d’évaluation récents que nous aimons                                                                                                   \n Justine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \n\n\n 10h30 – 11h00 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 11h00 – 11h30 \n Conférences éclair                                                                                                                                 \n Divers intervenants : Université de Regina\, Université de Toronto                   \n\n\n 11h30 – 13h00 \nDîner\n                                                                                     \n\n\n 13h00 – 13h20 \n Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs                                   \n Michelle Goodridge (Université Wilfrid Laurier)                                     \n\n\n 13h25 – 13h45 \n Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information            \n Amy McLay Paterson (Université Thompson Rivers)                                     \n\n\n 13h50 – 14h10 \n Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques     \n Rong Luo\, Shuzhen Zhao\, et Karen Pillon (Université de Windsor)                     \n\n\n 14h10 – 14h30 \n Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail    \n Sarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill)       \n\n\n 14h30 – 14h45 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 14h45 – 15h05 \n Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs \n Jody Nelson & Alison Pitcher (Université MacEwan)                                   \n\n\n 15h10 – 15h40 \n Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections                                        \n Erin Calhoun (Université de Toronto)                                                \n\n\n 15h45 – 16h05 \n « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée                   \n Ze’ev Schneider (Bibliothèque du Parlement)                                         \n\n\n\n\nEdit\n\n\nHeure\nSession                                                                                 \nConférenciers.ères\n\n\n\n\n 8h00 – 8h45   \n Petit-déjeuner et inscription                                                                        \n                                                                                                             \n\n\n 8h45 – 9h00   \n Bienvenue                                                                                              \n Dr David Gregory (Université de Regina) et comité de programme                                              \n\n\n 9h00 – 9h20   \n Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary                                   \n Justine Wheeler & Mary-Jo Romaniuk (Université de Calgary)                                                  \n\n\n 9h25 – 9h45   \n Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires                                          \n Sabina Pagotto (Scholars Portal) et Katrina Fortner (Conseil des bibliothèques universitaires de l’Ontario) \n\n\n 9h50 – 10h10  \n Planification stratégique efficace : étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa               \n Katrine Mallan (Université d’Ottawa)                                                                        \n\n\n 10h15 – 10h35 \n De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques                     \n Sam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western)                                                \n\n\n 10h35 – 11h00 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 11h00 – 11h20 \n Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque                                                   \n Sarah Coysh & Sheril Hook (Université York)                                                                 \n\n\n 11h25 – 11h45 \n Évaluer le succès d’un projet dans les bibliothèques académiques                                                                  \n Jessica Lange & Nailisa Tanner (Université McGill)                                                          \n\n\n 11h45 – 13h00 \nDîner                                                                                                    \n                                                                                                             \n\n\n 13h00 – 13h20 \n Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation                                   \n Juliene McLaughlin & Robin Bergart (Université de Guelph)                                                   \n\n\n 13h25 – 13h45 \n Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques \n Ali Foster\, Abigail Graham\, et David Pearson (Université MacEwan)                                           \n\n\n 13h45 – 14h10 \n Pause                                                                                                                             \n                                                                                                             \n\n\n 14h10 – 16h10 \n Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques                                              \n Julie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser)                          \n\n\n 16h30         \n Réception                                                                                                                         \n                                                                                                             \n\n\n\n\nEdit\n\n\nHeure\nSession\nConférenciers.ères\n\n\n\n\n 8h00 – 8h50   \n Petit-déjeuner                                                                                                                                     \n                                                                                     \n\n\n 8h50 – 9h00   \n Bienvenue / Annonces                                                                                                                               \n                                                                                     \n\n\n 9h00 – 10h30  \n Dix projets d’évaluation récents que nous aimons                                                                                                   \n Justine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \n\n\n 10h30 – 11h00 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 11h00 – 11h30 \n Conférences éclair                                                                                                                                 \n Divers intervenants : Université de Regina\, Université de Toronto                   \n\n\n 11h30 – 13h00 \nDîner\n                                                                                     \n\n\n 13h00 – 13h20 \n Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs                                   \n Michelle Goodridge (Université Wilfrid Laurier)                                     \n\n\n 13h25 – 13h45 \n Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information            \n Amy McLay Paterson (Université Thompson Rivers)                                     \n\n\n 13h50 – 14h10 \n Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques     \n Rong Luo\, Shuzhen Zhao\, et Karen Pillon (Université de Windsor)                     \n\n\n 14h10 – 14h30 \n Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail    \n Sarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill)       \n\n\n 14h30 – 14h45 \n Pause                                                                                                                                              \n                                                                                     \n\n\n 14h45 – 15h05 \n Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs \n Jody Nelson & Alison Pitcher (Université MacEwan)                                   \n\n\n 15h10 – 15h40 \n Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections                                        \n Erin Calhoun (Université de Toronto)                                                \n\n\n 15h45 – 16h05 \n « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée                   \n Ze’ev Schneider (Bibliothèque du Parlement)                                         \n\n\n\n					\n				Lundi 27 octobre\n		\n				\n				Mardi 28 octobre\n		 \n\n\n					 9h00 – 9h20 – Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary\n									\nJustine Wheeler & Mary-Jo Romaniuk (Université de Calgary) \nLes présentateurs décriront l’étude d’impact sur les bibliothèques et les ressources culturelles  à l’Université de Calgary. Cette étude se concentre sur l’expérience de deux groupes d’utilisateurs distincts : les professeurs et les étudiants. Il a été réalisé en étroite collaboration avec Implement Consulting Group. \nLe but de cette étude est de mieux comprendre le rôle et l’impact de les bibliothèques et les ressources culturelles dans la vie académique des étudiants et du corps professoral en capturant et en mesurant ce qui se passe lorsque ces utilisateurs s’engagent avec les bibliothèques et les ressources culturelles. De plus\, l’étude vise à inspirer et informer les décisions stratégiques futures et les plans pour les bibliothèques et les ressources culturelles. \nL’étude est basée sur un cadre Impact Compass\, qui est une approche de méthodes mixtes conçue pour explorer comment les expériences culturelles impactent les individus. La boussole sert d’outil pour communiquer de manière quantitative comment un individu expérimente un produit ou service culturel particulier\, tout en utilisant également l’analyse qualitative des données pour obtenir une compréhension plus approfondie des résultats. \nBien que le cadre Impact Compass ait déjà été utilisé pour les bibliothèques publiques\, il n’avait jamais été utilisé dans un contexte de recherche en bibliothèque. Pour s’assurer que la boussole d’impact a résonné dans le contexte du personnel de les bibliothèques et les ressources culturelles\, les étudiants et les professeurs ont été consultés\, et des adaptations significatives ont été apportées à la boussole. \nPlus précisément\, ce processus collaboratif a permis de déterminer quatre piliers de l’expérience des bibliothèques : l’espace\, les collections et les ressources numériques\, le soutien à l’enseignement et à l’apprentissage et le soutien à la recherche.  Chaque pilier s’est vu attribuer une boussole d’impact.  Chaque boussole a été divisée en quatre dimensions d’impact : émotionnelle\, intellectuelle\, sociale et créative.  Chaque dimension se composait de trois paramètres qui ont été testés et affinés pour refléter les besoins et le contexte d’une bibliothèque de recherche. Les données qualitatives ont ensuite été utilisées pour apporter des nuances et une compréhension de la boussole. À partir de cela\, des profils d’impact ont été développés. \nLes présentateurs discuteront des résultats de l’étude\, y compris les profils d’impact pour les étudiants et le corps professoral. Enfin\, les présentateurs discuteront de la façon dont les résultats de l’étude ont été utilisés et des plans pour une utilisation future. \nObjectifs d’apprentissage : \n\nCompréhension de base de la méthode utilisée pour cette étude.\nPotentiellement\, obtenir un aperçu des résultats de l’étude qui pourrait être généralisable à leur propre contexte\n\n\n\n\n					 9h25 – 9h45 – Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires\n									\nSabina Pagotto (Scholars Portal) and Katrina Fortner (Ontario Council of University Libraries) \nÀ la fin de 2024\, les directeurs de bibliothèques qui composent le Conseil des bibliothèques universitaires de l’Ontario (CBUO) ont demandé de l’aide pour expliquer la valeur des services qu’ils reçoivent du CBUO et de son service Scholars Portal aux cadres supérieurs d’universités en dehors de la bibliothèque. Étant donné que plus de 20 établissements varient considérablement en taille\, intensité de recherche et priorités institutionnelles\, il n’y avait pas de consensus sur les types d’information qui seraient utiles pour communiquer aux cadres supérieurs. Certaines institutions\, par exemple\, préféraient les chiffres réels et demandaient spécifiquement le retour sur investissement ou les économies de coûts ; d’autres ont estimé que les déclarations sur les avantages qualitatifs seraient des arguments plus convaincants auprès de leurs administrateurs. \nEn réponse à cette demande\, le groupe de communication CBUO-Scholars Portal s’est mis en action. Nous avons étudié diverses façons de calculer la valeur et les économies de coûts dans différents services ou domaines d’opérations\, jusqu’à ce que nous ayons identifié une gamme de points de données que nous pensions pouvoir calculer en toute confiance pour chaque institution. Nous avons également rédigé des énoncés de valeur qui énoncent les avantages ou les résultats des services consortiaux et que nous nous attendions à voir résonner chez les administrateurs autres que ceux des bibliothèques. Une fois que nous avons eu un ensemble solide de déclarations\, nous avons demandé aux directeurs de bibliothèque de classer les déclarations qui\, selon eux\, seraient les plus utiles pour leur établissement. À l’aide d’un modèle conçu par notre équipe de services web\, nous avons ensuite généré des rapports personnalisés pour chaque institution qui a répondu. Ces rapports ont été distribués avec la documentation à l’appui qui fournissait plus de contexte pour permettre aux directeurs de bibliothèque de discuter en toute confiance de ces rapports avec les administrateurs de leur établissement\, reliant les points entre le coût de la bibliothèque ou les économies de ressources et les impacts positifs sur la communauté du campus. \nCette session discutera des défis\, des opportunités et des leçons apprises tout au long du projet. \nLes participants apprendront comment : \n\nDiscuter des méthodologies pour calculer les économies de coûts dans les services consortiaux\nAdoptez une optique de communication pour l’évaluation et considérez le rôle du public lors de la communication de la valeur\nPensez de manière critique aux statistiques et aux valeurs calculées et comprenez l’importance de savoir d’où viennent les chiffres\n\n\n\n\n					 9h50 – 10h10 – Planification stratégique efficace: étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa\n									\nKatrine Mallan (Université d’Ottawa) \nCette séance présentera comment la bibliothèque de l’Université d’Ottawa utilise le Cadre d’impact des bibliothèques de l’ABRC pour apporter plus de clarté\, de cohérence et d’évaluabilité à la mise en œuvre de notre nouveau plan stratégique. \nEn utilisant une orientation stratégique comme étude de cas\, j’expliquerai aux participants comment notre groupe de gestion des bibliothèques a élaboré en collaboration un modèle logique pour cartographier les activités clés\, les extrants\, les auditoires\, les résultats et les hypothèses sous-jacentes. Ce processus nous a aidés à aller au-delà des aspirations générales pour définir des actions tangibles\, tester la plausibilité du parcours d’impact et jeter les bases d’une évaluation significative. \nEn ancrant notre planification dans le cadre de l’ABRC\, nous avons établi une compréhension commune de la façon dont notre travail crée un impact et établi une ligne de mire plus claire entre la stratégie et la mise en œuvre. \nLa session mettra en évidence comment l’utilisation des modèles logiques : \n\nNous a aidés à rendre notre stratégie plus réalisable ;\nFait apparaître des hypothèses et clarifié les résultats escomptés ;\nCréé une base plus solide pour les futurs travaux d’évaluation.\n\nCette étude de cas est particulièrement pertinente pour les bibliothèques qui cherchent à combler le fossé entre la planification stratégique et l’exécution opérationnelle\, et pour celles qui visent à intégrer la pensée évaluative sans surcharger le personnel ou les ressources. \nObjectifs d’apprentissage : À la fin de la session\, les participants seront en mesure de : \n\nComprendre comment le cadre d’impact des bibliothèques de l’ABRC peut soutenir la mise en œuvre du plan stratégique.\nIdentifier les éléments clés d’un modèle logique simple qui clarifient l’intention et soutiennent l’évaluation future.\nRéfléchir à la façon dont une réflexion évaluative précoce peut améliorer la cohérence et la faisabilité des efforts de planification stratégique.\n\nCette session est conçue pour être pratique et transférable\, en particulier pour les bibliothèques qui naviguent entre le milieu désordonné de la conception et de l’exécution de la stratégie. Notre étude de cas vise à susciter des idées pour les bibliothèques cherchant à intégrer l’évaluation dans leurs pratiques de planification et à rendre l’intention stratégique plus actionnable et visible. \n\n\n\n					 10h15 – 10h35 – De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques\n									\nSam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western ) \nLes bibliothèques académiques collectent un large éventail de données via diverses plateformes\, outils et procédures. Cependant\, le personnel et la direction ont souvent du mal à accéder à ces données ou à les interpréter. À Western Libraries\, nous avions un défi commun. Les données étaient difficiles à trouver\, hébergées sur différentes plateformes\, suivies de manière incohérente parmi nos équipes et difficiles à connecter pour une prise de décision fondée sur des preuves à tous les niveaux. \nPour aider à cela\, nous développons un tableau de bord en temps réel qui favoriserait la transparence et l’accessibilité à nos données. Ce tableau de bord vise à soutenir la prise de décision fondée sur des preuves dans l’ensemble de l’organisation pour aider à la planification stratégique\, à l’allocation des ressources et aux opérations. \nLe projet a commencé par des consultations avec les dirigeants pour déterminer la portée du projet et définir les objectifs clés. Cela a été suivi d’une série de réunions internes sur l’inventaire des données avec les principaux intervenants de nos services aux utilisateurs et de nos équipes de la haute direction pour comprendre quelles données étaient recueillies\, comment et par qui. Ces réunions ont révélé des lacunes dans la collecte de données\, ainsi que des différences clés dans la façon dont toutes les équipes visualisent et utilisent leurs données. En parallèle\, nous avons également travaillé avec des membres de notre équipe LITS (Library Information Technology Services) pour évaluer les exigences techniques\, explorer les options de visualisation et identifier quelles seraient les options les plus durables à long terme. \nDans cette session\, nous partagerons notre processus de planification\, les leçons apprises et les étapes pratiques que nous avons utilisées pour cartographier et consolider nos données à travers un grand système de bibliothèque. Nous discuterons également de la façon dont nous avons encadré notre processus en utilisant ADKAR (Sensibilisation\, Désir\, Connaissance\, Capacité\, Renforcement) pour soutenir un changement durable et contribuer à une culture d’évaluation dans les bibliothèques occidentales. \nObjectifs d’apprentissage/ Principaux points à retenir \n\nLes participants seront en mesure d’identifier et de consolider les données existantes et de déterminer les lacunes et les solutions dans la collecte de données actuelle.\nLes participants seront en mesure de comprendre le processus précoce de conception d’une « plateforme » pour accroître l’accès aux données institutionnelles.\nLes participants auront des idées pour appliquer des stratégies de gestion du changement afin de promouvoir l’adoption et soutenir les initiatives d’évaluation.\n\n\n\n\n					 11h00 – 11h20 – Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque\n									\nSarah Coysh & Sheril Hook (Université York) \nQui passe du temps et combien de temps passent-ils dans nos bibliothèques ? C’est la question qui nous a poussés à tenir un Jour du recensement dans toutes nos bibliothèques. Nous avons capturé le trafic de bibliothèque de 19232 entrées/sorties à travers la journée.  Nous avons sélectionné dix-sept points de données à enregistrer\, y compris le code postal actuel\, le niveau du diplôme\, le pendulaire ou en résidence\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96 % de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes chacun. \nComme Dillalogue & Koehn (2020)\, nous voulions aller plus loin que le comptage des portes seul\, alors nous avons créé un outil de tap-in/tap-out pour permettre aux utilisateurs d’utiliser volontairement leur identifiant de campus lorsqu’ils entrent et sortent de nos six bibliothèques en une seule journée en 2025. Nous avons calqué ce projet d’évaluation sur celui des bibliothèques de McGill qui ont déjà organisé un événement semblable.  Notre objectif était de capturer 80% du trafic en une seule journée pendant nos heures d’ouverture.  Nous avons également utilisé le jour du recensement comme catalyseur pour notre enquête LibQUAL+ pour laquelle nous avons reçu plus d’enquêtes complétées que les années précédentes. \nDeux approches ont été essentielles au succès du jour du recensement : la participation de tout le personnel de la bibliothèque et l’établissement d’un partenariat avec le Bureau de la planification et de l’analyse institutionnelle (OIPA).  Le personnel a été impliqué dans l’établissement du système de numérisation des cartes d’identité ; la logistique du jour pour chaque bibliothèque ; attribution des rôles le jour du recensement; développer et diffuser des ressources de communication ; célébrant le succès de la journée ; aider à l’analyse préliminaire des résultats).  Le partenariat avec OIPA nous a permis de sélectionner parmi plus de 200 points de données ; maintenir l’anonymat des données ; et nous a fourni le langage pour décrire l’analyse dans les contraintes de protection des données des clients. \nNous avons sélectionné dix-sept points de données\, y compris le code postal actuel\, le niveau du diplôme\, la personne qui fait la navette ou qui réside\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96% de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes. \nDans cette session\, nous partagerons des détails sur ce que nous avons appris sur les utilisateurs des bibliothèques et combien de temps ils restent\, y compris les données qui nous ont surpris et le suivi des idées d’évaluation. \nLes participants découvriront la variété des points de données collectés par les institutions académiques et comment ceux-ci peuvent être utiles pour éclairer les décisions concernant les heures\, le personnel\, la conception de l’espace\, la circulation\, etc. \nLes participants découvriront un système de tableau de bord open-source (Metabase) qui permet d’interroger les données pour la visualisation des données. \nLes participants recevront également un lien vers une pochette contenant des conseils sur la façon de mener leur propre journée de recensement. \nRéférence : \nDillalogue\, E.\, & Koehn\, M. (2020). Assessment on a Dime : Collecte de données utilisateur à faible coût pour l’évaluation. Bibliothèque basée sur des preuves et pratique d’information\, 15(3)\, 2–20. https://doi.org/10.18438/eblip29582 \n\n\n\n					 11h25 – 11h45 – Évaluer le succès d’un projet dans les bibliothèques académiques\n									\nJessica Lange & Nailisa Tanner (Université McGill) \nAu début de tout projet\, les parties prenantes définissent ce qui constitue le succès. Cette définition est ensuite utilisée à la fin du projet pour évaluer si ces objectifs ont été atteints et finalement déterminer si le projet a été « réussi » ou non. Les mesures typiques utilisées dans la gestion de projet\, telles que les indicateurs clés de performance (KPI) et l’utilisation des ressources\, bien qu’elles soient potentiellement utiles\, s’adressent aux entreprises ou aux lieux de travail à but lucratif et peuvent ne pas être les plus pertinentes ni transférables aux environnements académiques où le profit n’est pas un facteur pertinent. \nAprès avoir terminé plusieurs projets dans l’unité de technologie des bibliothèques de McGill et en utilisant des mesures typiques pour évaluer les projets\, il est devenu clair que bien que ces mesures répondaient au « quoi » d’un projet\, elles ne répondaient pas au « comment ». Les projets pourraient être achevés à temps et atteindre leurs objectifs\, mais ils peuvent avoir rencontré des problèmes importants au cours de leur déroulement\, tels qu’une mauvaise planification\, des conflits d’effectifs et des délais serrés. Définir le succès en termes aussi étroits a laissé le personnel insatisfait\, en particulier si le projet a rencontré des défis importants. Faire une rétrospective sur le projet est un modèle pour capturer des retours qualitatifs\, permettant aux membres de l’équipe d’apprendre et de grandir à partir (parfois) d’expériences négatives. Cela peut fournir un contexte supplémentaire en dehors des mesures de succès typiques. \nLes objectifs d’apprentissage de cette présentation incluent : \n\nDécrire brièvement les outils de base de la documentation de gestion de projet (par exemple\, charte\, rétrospective).\nÉnoncez les métriques communes utilisées pour évaluer le succès du projet\nDiscuter d’un modèle\, y compris des rétrospectives\, qui capture les commentaires qualitatifs des participants sur le succès du projet dans un environnement académique\n\n\n\n\n					 13h00 – 13h20 – Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation\n									\nJuliene McLaughlin & Robin Bergart (Université de Guelph) \nComme le dit le proverbe\, « si ce n’est pas cassé\, ne le réparez pas. » Mais parfois\, ce n’est pas aussi clair quand un service de bibliothèque est bien tel qu’il est et devrait être laissé seul\, ou s’il commence à se casser\, ou s’il est déjà cassé.  Pendant de nombreuses années\, notre bibliothèque a maintenu une page Web publique répertoriant les bases de données\, et en 2016\, nous avons mis en œuvre la liste A-Z de bases de données de Springshare. Au cours de cette période\, notre équipe UX a mené des études d’utilisabilité\, recueilli des analyses web et surveillé la documentation de la bibliothèque. Nous avons recommandé des changements progressifs pour s’assurer que cette page est aussi utilisable et utile que possible. Cependant\, plus récemment\, nous avons commencé à nous demander si cette page est toujours pertinente et si elle fait plus de mal que de bien. Après une enquête approfondie sur l’UX\, nous n’avons pas pu parvenir à une conclusion définitive\, mais notre intuition selon laquelle il y a un problème n’a pas disparu.  Que faites-vous lorsque votre instinct vous dit qu’il y a un problème\, mais que les preuves ne sont pas concluantes ? Quand devriez-vous abandonner les améliorations progressives et apporter un changement radical ? Qui décide ? \nObjectifs d’apprentissage : \n\nDiscutez du rôle de l’intuition professionnelle dans le travail sur l’expérience utilisateur\, y compris comment équilibrer les sentiments instinctifs avec des preuves empiriques.\nReconnaître les signes indiquant qu’un service de bibliothèque peut ne plus répondre aux besoins des utilisateurs\, même lorsque les indicateurs d’utilisabilité traditionnels sont peu concluants.\nÉvaluer la tension entre l’amélioration progressive et la refonte radicale et identifier des stratégies pour prendre des décisions éclairées sur le moment de changer d’approche.\n\n\n\n\n					 13h25 – 13h45 – Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques\n									\nAli Foster\, Abigail Graham\, et David Pearson (Université MacEwan) \nCette brève présentation met en évidence les expériences et les leçons tirées d’une refonte complète d’un site Web de bibliothèque de premier cycle axé sur l’amélioration de l’expérience utilisateur pour les étudiants de premier cycle. L’équipe du projet était composée de quatre employés : un graphiste\, un informaticien et deux bibliothécaires. Le principal défi auquel l’équipe a été confrontée était de développer un protocole d’expérience utilisateur (UX) qui privilégiait les perspectives des étudiants tout en obtenant le soutien du personnel de la bibliothèque pour les changements proposés à nos pratiques d’évaluation existantes. \nAvant le lancement du projet à l’automne 2023\, les efforts de refonte du site web précédents tenaient principalement compte des opinions du personnel et du corps professoral de la bibliothèque. Par conséquent\, l’architecture de l’information du site et le ton de la voix ont été signalés comme des domaines d’amélioration potentiels lors du processus de refonte. Cette préoccupation a été validée lorsque l’équipe a collaboré avec des étudiants de troisième année en anthropologie menant des études ethnographiques du site web de la bibliothèque. Dans les deux discussions avec les étudiants et dans leurs rapports formels\, il est devenu clair qu’ils ont trouvé le site web inaccessible\, déroutant et peu accueillant pour les étudiants. À cette fin\, l’équipe du projet a développé un protocole UX qui visait à prioriser les perspectives des étudiants ainsi que les meilleures pratiques en matière de conception web accessible et inclusive. \nCette présentation fournira un bref aperçu du projet\, des exemples clés d’outils d’expérience utilisateur axés sur les étudiants que nous avons appliqués\, ainsi que nos observations et leçons apprises alors que nous continuons à évaluer et à affiner le site web de la bibliothèque. \nRésultats d’apprentissage – Les participants : \n\nComprendre comment mettre en œuvre des pratiques d’expérience utilisateur axées sur les étudiants dans un projet de conception web\nEnvisager des méthodes pour encourager l’adhésion du personnel de la bibliothèque à la conception de sites web axés sur les étudiants\nIdentifier des moyens de collecter et de mettre en œuvre durablement les retours des étudiants sur une base continue\n\n\n\n\n					 14h10 – 16h10 – Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques\n									\nJulie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser) \nLes praticiens de l’évaluation en bibliothèque peuvent intégrer les outils et techniques de dialogue pour faciliter des évaluations communautaires significatives et inclusives—avec les utilisateurs de la bibliothèque ainsi que les collègues de la bibliothèque. Cet atelier présentera la théorie\, les connaissances et les compétences pour faciliter le dialogue dans le travail d’évaluation des bibliothèques. \nLe dialogue peut être défini de nombreuses manières. C’est une méthode pour articuler les besoins\, les désirs et les hypothèses sous-jacentes dans des groupes qui rejette les dynamiques de pouvoir hiérarchiques et qui est axée sur la transformation. Il utilise des pratiques participatives pour organiser des conversations génératives\, être plus inclusif\, favoriser l’apprentissage mutuel\, centrer l’expertise vécue et exploiter la sagesse collective. Il « peut aider les groupes et les communautés à explorer respectueusement des questions polarisantes\, à aborder les conflits\, à délibérer sur le potentiel de problèmes complexes et bien plus encore » (Morris J. Wosk Centre for Dialogue\, Université Simon Fraser\, n.d.). Dans son livre de 1999\, Dialogue and the Art of Thinking Together\, William Issacs a succinctement et plutôt magnifiquement défini le dialogue comme « une conversation avec un centre\, pas des côtés » (p. 19). Williams a ensuite déclaré : « C’est une façon de prendre l’énergie de nos différences et de la canaliser vers quelque chose qui n’a jamais été créé auparavant. » Il nous élève hors de la polarisation et vers un sens commun plus grand\, et est ainsi un moyen d’accéder à l’intelligence et au pouvoir coordonné de groupes de personnes » (p. 19). \nLes participants à cet atelier apprendront comment le sous-groupe du plan d’instruction du Groupe de travail pour la formation et l’éducation en matière d’information (WGILI) de la bibliothèque SFU utilise des méthodes en dialogue pour évaluer les besoins de leurs collègues instructeurs et intégrer l’expertise vécue de leurs collègues dans le nouveau plan d’instruction de la Bibliothèque\, que le sous-groupe est en train de créer. Après une introduction à la théorie et au contexte SFU\, les participants seront invités à assumer le rôle de participants dans un dialogue structuré créé par le sous-groupe pour évaluer les besoins des instructeurs de bibliothèque à la bibliothèque SFU. Ce dialogue facilitera la connaissance co-construite\, le leadership distribué\, la pollinisation croisée des idées et la création de sens partagée et visible. \nAprès avoir expérimenté le dialogue structuré en tant que participants\, les participants seront invités à assumer le rôle de facilitateurs pendant que nous « tirons le rideau » et examinons et réfléchissons aux composantes\, à la conception et aux résultats du dialogue. Nous partagerons la théorie derrière les décisions prises et les actions entreprises et discuterons de la transférabilité des méthodes de facilitation utilisées\, en mettant l’accent sur l’application pratique des concepts et principes théoriques dans d’autres contextes d’évaluation de bibliothèques. Des modèles et des ressources de facilitation que les participants peuvent apporter dans leur pratique d’évaluation seront partagés. Nous discuterons également des avantages d’apporter des méthodes de dialogue et de facilitation dans le travail d’évaluation des bibliothèques. \nObjectifs d’apprentissage  \nÀ la fin de cet atelier\, les participants pourront : \n\nComprendre le dialogue comme une méthodologie.\nAppliquer des techniques de facilitation qui permettent le dialogue et favorisent des conversations significatives dans un cadre d’évaluation en bibliothèque.\nDévelopper des perspectives d’évaluation en utilisant des méthodes de facilitation et de dialogue.\n\nRéférences  \nIsaacs\, W. (1999). Le dialogue et l’art de penser ensemble : une approche pionnière pour communiquer dans les affaires et dans la vie (1ère éd). Monnaie. \nMorris J. Wosk Centre for Dialogue\, Université Simon Fraser (n.d.). Qu’est-ce que Dialogue ? Récupéré le 1 juin 2025\, de https://www.sfu.ca/dialogue/learn/what-is-dialogue.html \n\n\n\n					 9h00 – 10h30 – Dix projets d’évaluation récents que nous aimons\n									\nJustine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \nLe paysage de l’évaluation est en train de changer.  Il y a un changement continu vers une focalisation sur la valeur et l’impact\, une augmentation de l’évaluation qualitative et des méthodes mixtes\, ainsi que des explorations naissantes dans le rôle de l’intelligence artificielle générative dans l’évaluation. Dans notre environnement actuel\, il peut être difficile de suivre les nouvelles initiatives et développements – surtout avec un temps\, des ressources et/ou une technologie limités. \nDans cette session amusante et rythmée\, les présentateurs partageront leurs récents projets d’évaluation et pratiques\, ainsi que des pratiques innovantes dans d’autres bibliothèques. Bien que bon nombre des projets abordés dans la présentation proviennent de bibliothèques universitaires\, tous les projets peuvent être appliqués dans des milieux universitaires\, publics\, gouvernementaux et autres. De plus\, les exemples vont des projets et pratiques qui peuvent être réalisés avec des ressources limitées (temps\, argent\, technologie)\, aux exemples plus intensifs en ressources. \nLes projets et les pratiques présentés varieront en ce qui concerne l’objectif (collections\, espace\, instruction\, etc.)\, la méthodologie (point d’utilisation\, collections prédictives\, photo voice\, etc.)\, la période de temps (transversale\, longitudinale) et la portée de l’impact (individuel\, institutionnel\, sociétal). \nRésultats d’apprentissage : \nCette session s’adresse aux bibliothécaires qui souhaitent découvrir de nouvelles perspectives ou méthodologies dans le domaine de l’expérience utilisateur des bibliothèques\, de l’évaluation ou de la pratique de l’impact. L’objectif de la session est que les participants repartent avec une nouvelle approche de l’évaluation qu’ils peuvent appliquer dans leur bibliothèque. \nDu temps sera également accordé aux membres de l’auditoire pour partager leur propre initiative d’évaluation récente et passionnante. \n\n\n\n					 11h00 – 11h30 – Conférences éclair\n									\nAu-delà des bugs : Utiliser une fonctionnalité ‘Signaler un problème’ pour comprendre les attentes des utilisateurs (Université de Regina) \nEn février 2023\, l’Université de Regina a mis en place une fonctionnalité de signalement d’un problème dans son système de découverte. Depuis lors\, plus de 600 rapports ont été soumis\, et cela est devenu un canal de rétroaction essentiel. Grâce à ces rapports\, nous avons acquis un aperçu des aspects de l’expérience de recherche et de découverte que les clients trouvent déroutants\, contre-intuitifs ou frustrants. Ces rapports de problèmes soumis par les utilisateurs mettent fréquemment en évidence des incohérences entre la fonctionnalité du système et les besoins et hypothèses des utilisateurs. En analysant ces rapports\, nous avons pu mieux comprendre le comportement et les attentes des utilisateurs à l’égard du système de la bibliothèque et de la bibliothèque en général. Cette présentation éclair décrira comment ces rapports ont été analysés\, et les idées acquises grâce à ce processus. \nTests d’utilisabilité et d’accessibilité : Utilisation d’un protocole de réflexion à voix haute comme outil d’évaluation pour les systèmes de revues ouvertes – Caitlin Bakker & Christopher Read (Université de Regina) \nDans cette conférence éclair\, les présentateurs partageront leur expérience en matière de tests d’utilisabilité et d’accessibilité dans le cadre du lancement par l’Université de Regina des Proceedings of the Canadian Nuclear Society in Open Journal Systems (OJS). Cette présentation éclair se concentrera sur les meilleures pratiques et les points à retenir de l’utilisation d’un protocole de réflexion à voix haute pour évaluer la collection et sa fonctionnalité de recherche. L’objectif principal de ces tests était de permettre à diverses communautés d’utilisateurs de s’engager dans une recherche efficace d’informations\, qu’ils accèdent au système via des ordinateurs de bureau ou des appareils mobiles. La session couvrira les aspects pratiques de la méthodologie de test\, tels que le travail avec un stage en bibliothèque à distance. Les participants peuvent s’attendre à en apprendre davantage sur des techniques spécifiques de test d’utilisabilité\, y compris les invites\, les lecteurs d’écran\, l’enregistrement et d’autres aspects du test think aloud\, et comment ils peuvent fournir un aperçu critique pour améliorer la conception du système et la satisfaction des utilisateurs. \nDemander à Chat à propos de LibrarySearch – Susan Bond (Université de Toronto) \nÀ l’Université de Toronto\, nous avons ajouté ces dernières années notre outil d’aide par chat intégré à notre couche de découverte – Ex Libris Primo VE\, que nous avons étiqueté localement comme LibrarySearch. Parce que LibrarySearch est un outil en libre-service\, chaque discussion lancée représente un point de repère potentiel – c’est une façon pour les utilisateurs de nous faire savoir qu’ils ne sont pas capables de se servir. Début 2025\, nous avons entrepris une évaluation exploratoire en examinant les transcriptions de chat d’un mois\, pour voir ce que nous pouvions découvrir sur les défis dans notre interface\, les lacunes dans notre documentation et les problèmes avec nos ressources. Nos conclusions comprenaient des preuves en faveur des changements sur lesquels nous travaillions déjà\, certaines victoires rapides et certaines choses auxquelles nous devrons réfléchir davantage avant de pouvoir les aborder. Dans cette présentation éclair\, nous examinerons nos conclusions spécifiques sur notre interface utilisateur\, notre document de support et la dotation en personnel de notre support de chat\, et aborderons ce que nous avons appris sur notre codage/évaluation et comment nous allons le changer à l’avenir. \n\n\n\n					 13h00 – 13h20– Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs\n									\nMichelle Goodridge (Université Wilfrid Laurier) \nEn 2017\, un partenariat bibliothécaire-faculté a conduit à la création d’une simulation en classe pour un cours de première année de premier cycle sur les droits humains mondiaux. Les étudiants ont assumé des rôles représentant des acteurs mondiaux (par exemple\, des États-nations et des ONG) pour répondre à une crise simulée dans le meilleur intérêt de leur propre rôle\, ce qui a conduit à développer des compétences en recherche\, évaluation et pensée critique dans un environnement d’apprentissage actif. Une étude de recherche à méthodes mixtes a évalué l’impact de la simulation\, combinant des données qualitatives issues de réflexions et d’observations avec une analyse quantitative basée sur les critères. Cette session présentera le design de la simulation\, les stratégies d’évaluation et les principales conclusions\, en démontrant comment l’apprentissage par le jeu peut améliorer de manière significative l’engagement et le développement des compétences des étudiants. Les participants auront un aperçu de l’application de ces méthodes dans d’autres contextes pédagogiques et de l’utilisation des données pour plaider en faveur d’une collaboration plus approfondie entre professeurs et bibliothécaires. \n\n\n\n					 13h25 – 13h45 – Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information.\n									\nAmy McLay Paterson (Université Thompson Rivers) \nEn 2023-2024\, les bibliothécaires de l’Université Thompson Rivers ont développé un programme pilote pour transformer un programme de littératie informationnelle principalement monocouche en un programme structuré et intégré. Le projet pilote d’enseignement en bibliothèque de l’anglais 1100 (ELIP) a été développé comme une collaboration entre la bibliothèque et le département d’anglais au printemps 2023 dans le but d’élargir l’enseignement en bibliothèque pour soutenir la réussite des étudiants et leur appartenance. Plutôt que de participer à la session unique habituelle\, les étudiants ELIP désignés participeront à une série de trois tutoriels hebdomadaires pour la bibliothèque. Le projet ELIP s’est déroulé tout au long de l’année académique 2023-24\, période durant laquelle nous avons collecté des données d’affectation des étudiants\, des retours des étudiants\, des retours du corps professoral et des entrées de journal réfléchies des participants bibliothécaires pour déterminer l’efficacité et la durabilité du programme. \nLes lacunes des sessions de littératie informationnelle ponctuelles sont répandues et bien documentées dans notre profession. Nicole Pagowsky déclare que « le one-shot—même s’il y en a plus d’un — rend difficile d’atteindre un apprentissage plus profond\, une pensée critique et une pédagogie inclusive » (2021\, 2). Cependant\, notre approche du projet pilote—ni un cours en une seule fois ni un cours à crédit — est unique dans la littérature établie. \n\nLe programme ELIP a-t-il aidé les étudiants à réussir leurs cours d’anglais associés ?\nUne instruction plus intégrée aide-t-elle à renforcer les relations entre la bibliothèque et la communauté de l’UTR ?\nComment pouvons-nous améliorer nos pratiques d’enseignement pour mieux répondre aux besoins des étudiants ?\n\nSelon chacun de ces indicateurs\, le programme ELIP a amélioré les résultats par rapport au one-shot habituel. Les résultats du sondage auprès des professeurs sont très positifs\, et les instructeurs bibliothécaires ont tous observé la profondeur de l’engagement des étudiants et la construction de relations positives. Cette relation plus étroite avec les étudiants a également abouti à des améliorations tangibles de nos pratiques pédagogiques et des objets d’apprentissage existants. Ma présentation présentera le programme ELIP\, y compris la justification de sa conception; présenter les différentes méthodes d’évaluation que nous avons utilisées ; et discuter de nos résultats et des prochaines étapes. Des supports de cours\, ainsi que des outils d’évaluation (tels que des sondages et des formulaires de consentement) seront mis à la disposition des participants intéressés. \nObjectifs d’apprentissage \nLes participants à cette session pourront : \n\nReconnaître les avantages et les limites d’une myriade de méthodes d’évaluation de la littératie informationnelle.\nConsidérez comment les objectifs de l’enseignement de la littératie informationnelle affectent la conception et l’évaluation des programmes.\nArticuler une variété de mesures du succès de la littératie informationnelle à utiliser dans les communications et discussions internes et externes.\n\n\n\n\n					 13h50 – 14h10 – Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques\n									\nRong Luo\, Shuzhen Zhao\, et Karen Pillon (University of Windsor) \nÀ mesure que l’enseignement de la littératie informationnelle (LI) continue d’évoluer dans les bibliothèques universitaires\, les pratiques d’évaluation doivent suivre le rythme pour garantir des résultats significatifs. Cette session explore l’efficacité de la formation en LI en présentant une étude menée à l’Université de Windsor qui évalue les compétences en LI perçues et démontrées chez les étudiants diplômés de la Faculté des arts\, des sciences humaines et des sciences sociales (FAHSS). Fondée sur le cadre de l’ACRL pour la littératie informationnelle dans l’enseignement supérieur et utilisant une version modifiée du test Beile de littératie informationnelle pour l’éducation (B-TILED)\, l’étude souligne comment les outils d’analyse et d’évaluation structurée peuvent informer\, améliorer et valider les programmes d’instruction de la bibliothèque. \nLa formation à l’LI prend diverses formes\, des séances en classe aux activités d’orientation et aux consultations individuelles\, mais son efficacité passe souvent inaperçue. En comparant les étudiants qui ont reçu un enseignement formel de l’LI avec ceux qui ne l’ont pas reçu\, cette session révèle si la formation est corrélée avec des compétences de recherche plus solides et une confiance accrue dans la navigation des ressources académiques. \nLes participants découvriront une approche d’évaluation flexible et évolutive utilisant B-TILED\, qui combine des données démographiques\, l’auto-évaluation des capacités de recherche et des tests de connaissances objectifs. La session discute également des considérations pratiques pour la conception\, la mise en œuvre et l’analyse de l’enquête à l’aide de SPSS ou de plateformes similaires. \nObjectifs d’apprentissage : À la fin de cette session\, les participants seront en mesure de : \n\nDécrivez comment les outils d’évaluation de la littératie informationnelle peuvent être intégrés dans les programmes d’enseignement des bibliothèques universitaires.\nIdentifiez les composants clés du cadre B-TILED et comprenez comment l’adapter à différents contextes de bibliothèque.\nAnalyser et interpréter la relation entre l’aptitude à la recherche perçue de soi et les compétences en LI mesurées objectivement.\nAppliquer des stratégies d’analyse quantitative de base pour évaluer l’impact de la formation en bibliothèque à l’aide de plateformes analytiques.\nÉlaborer des stratégies fondées sur des données probantes pour améliorer et justifier les efforts d’enseignement de l’LI en réponse aux besoins d’apprentissage des étudiants et aux objectifs institutionnels.\n\n\n\n\n					 14h10 – 14h30 – Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail\n									\nSarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill) \nDepuis plus de 20 ans\, les bibliothèques numérisent et fournissent un accès en ligne à leurs collections pour mieux servir la recherche\, l’enseignement et les objectifs créatifs des universitaires et des non-universitaires. La nature ouverte et en ligne de la plupart des collections numérisées par les bibliothèques a aidé à faciliter l’accès pour de nouveaux publics; cependant\, cette ouverture signifie également que les bibliothèques connaissent comparativement peu ceux qui utilisent ces ressources\, ce qui rend ces ressources difficiles à évaluer pour les bibliothèques. Si vous ne savez pas qui sont vos utilisateurs\, comment pouvez-vous les connaître ? \nLa recherche sur l’expérience utilisateur a gagné en popularité et est largement acceptée dans les bibliothèques comme un ensemble standard de techniques pour évaluer les services et les interfaces des bibliothèques\, et les plateformes de collections numériques ne font pas exception ici. Cependant\, une grande partie de la recherche sur l’expérience utilisateur menée dans le but d’évaluer les programmes et plateformes de collections numériques se limite aux affiliés institutionnels et ne concerne que la plateforme de collections numériques elle-même\, négligeant les questions sur la façon dont les utilisateurs trouvent ces collections en premier lieu ainsi que comment ils les utilisent dans leurs recherches. \nCette présentation rend compte d’une étude à méthodes mixtes menée dans le but d’élargir nos horizons sur qui sont les utilisateurs des collections numériques et comment ils utilisent les ressources numérisées des bibliothèques dans leurs recherches. Notre étude a utilisé des enquêtes anonymes et des entretiens qualitatifs pour atteindre un équilibre entre l’ampleur de la participation et la profondeur des réponses. Reconnaissant la nature ouverte de nos collections numériques\, nous avons inclus des chercheurs académiques indépendamment du lieu ou de l’affiliation institutionnelle\, ainsi que des chercheurs non académiques comme les journalistes\, les artistes\, les blogueurs et les historiens publics. Notre étude a posé trois questions de recherche principales : Qui utilise les collections numérisées des bibliothèques ? Comment les trouvent-ils ? Et enfin\, comment les utilisent-ils dans leurs recherches ? \nDans cette présentation\, nous nous concentrerons sur les méthodes que nous avons utilisées pour cette étude\, leurs résultats et ce que nous avons appris de ce processus. Nous discuterons de l’importance d’utiliser plusieurs types de techniques de recherche pour l’évaluation dans le contexte de la recherche sur l’expérience utilisateur\, et en particulier de ce que ce type de recherche à méthodes mixtes peut contribuer à la suite d’outils de recherche sur l’expérience utilisateur. Les participants apprendront les points forts de la recherche à méthodes mixtes\, comment les techniques de recherche exploratoire peuvent être utilisées pour compléter et améliorer d’autres données évaluatives\, comme les études d’utilisabilité et l’analyse web\, qui peuvent être collectées pour l’évaluation des bibliothèques\, et comment appliquer ces techniques pour répondre à de grandes questions en matière d’expérience utilisateur et d’évaluation des services de bibliothèque. \n\n\n\n					 14h45 – 15h05 – Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs\n									\nJody Nelson & Alison Pitcher (Université MacEwan) \nNotre session présentera le programme d’évaluation de l’enseignement de la littératie informationnelle [LI] dirigé par des pairs que nous facilitons pour les bibliothécaires dans notre université de premier cycle\, y compris l’impulsion\, le développement\, la fondation théorique\, la structure et l’impact. Nous partagerons des observations sur la façon dont le programme contribue à notre compréhension de la pratique d’enseignement réflexif comme étant au cœur de l’évaluation pédagogique et du développement d’une communauté plus cohésive de pratiques pédagogiques parmi les bibliothécaires enseignants impliqués dans le programme. \nNotre programme de mentorat réfléchi entre pairs dans l’enseignement des triangles remplit le mandat de la bibliothèque pour développer des pratiques durables d’évaluation de l’enseignement de l’LI en harmonie avec le plan stratégique de notre université\, Teaching Greatness. Adoptant une approche d’évaluation centrée sur l’étudiant et fondée sur le cadre d’évaluation critique de l’enseignement en bibliothèque développé par McCartin & Dineen (2018)\, notre programme d’évaluation critique de l’LI promeut l’évaluation intentionnelle et continue de l’enseignement cultivée à travers la pratique réflexive. En nous attribuant le travail d’évaluation et d’amélioration en tant qu’enseignants\, nous transférons la charge de l’évaluation (c’est-à-dire remplir des formulaires de retour ou des instruments de mesure) sur les étudiants. \nEn construisant la participation de longue date de notre bibliothèque dans l’enseignement des triangles d’observation et du mentorat pédagogique LI\, notre programme offre des opportunités d’évaluation continue de l’enseignement en combinaison avec un mentorat ciblé par les pairs. Les participants au programme forment des triangles de mentorat par les pairs qui se rencontrent plusieurs fois au cours d’un trimestre académique. Les participants individuels identifient les éléments d’enseignement prioritaires (c.-à-d. le contenu\, l’accessibilité\, les interactions avec les étudiants) au sujet desquels ils aimeraient recevoir des commentaires constructifs; les observateurs pairs adoptent une approche basée sur les points forts\, partageant des retours positifs ainsi que toute suggestion utile pour l’amélioration dans les domaines pré-identifiés. En tant que membres d’une triade de co-mentorat\, les participants visent à favoriser l’excellence dans l’enseignement tout en apprenant les uns des autres\, en collectant des idées pour améliorer les expériences d’apprentissage des étudiants lorsqu’ils s’observent mutuellement. Pour les bibliothécaires en début de carrière en particulier\, l’aspect co-mentorat crée un environnement sûr pour développer la compétence d’enseignement et la confiance. Ce programme permet non seulement une évaluation significative de l’enseignement\, mais offre également aux participants la possibilité de favoriser une pratique réflexive individuelle de manière continue\, soutenue et relationnelle (Lewitzky\, 2020). \nSuite à notre session\, les participants repartiront avec une compréhension de :● La valeur de l’observation relationnelle par les pairs pour l’évaluation de l’enseignement● Le rôle de la pratique pédagogique réflexive pour une amélioration soutenue et continue● Comment notre programme est géré afin qu’il puisse être adapté pour les institutions participantes \nRéférences :Lewitzky\, R.A. (2020). Éduquer\, apprendre et grandir : Une revue du rôle d’enseignement dans la bibliothéconomie académique. Bibliothèques universitaires et de premier cycle\, 27(1)\, 32-40. \nMcCartin\, L. F.\, & Dineen\, R. (2018). Vers une pratique d’évaluation critique et inclusive pour l’enseignement en bibliothèque. Litwin Books. \n\n\n\n					 15h10 – 15h40 – Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections\n									\nErin Calhoun (Université de Toronto) \nLes développements dans l’édition en libre accès\, les modèles d’affaires et les politiques de financement ont amené les communications savantes au sein du travail de développement des collections. De plus en plus\, les fonds pour le développement des collections des bibliothèques sont réaffectés pour couvrir les frais d’édition grâce à des accords transitoires de lecture et de publication. Ce changement s’accompagne d’un besoin pressant de nouveaux cadres d’évaluation – ceux qui vont au-delà des statistiques traditionnelles sur l’utilisation des ressources électroniques pour mesurer la production de publications et l’investissement financier. Les bibliothèques doivent développer des capacités pour recueillir et analyser les données de publication institutionnelle afin d’éclairer les décisions relatives au développement des collections. \nCependant\, évaluer la publication en libre accès n’est pas simple. Les données de publication en libre accès sont souvent présentées dans des formats incohérents et dispersées dans les rapports bibliométriques et ceux des éditeurs\, ce qui entrave l’analyse agrégée. Pour relever ce défi\, les bibliothèques de l’Université de Toronto ont lancé un projet pilote visant à rationaliser la collecte\, le nettoyage et la visualisation des données de publication en libre accès. \nLa courte session partagera des idées tirées du projet pilote\, qui comprend la collecte de rapports sur les données de publication provenant de plusieurs accords d’accès libre\, la normalisation des données dans un modèle unifié\, et construire un tableau de bord interactif pour visualiser l’activité éditoriale et les contributions financières de l’université dans l’édition en libre accès. Le projet a d’abord exploré des solutions basées sur la programmation pour le nettoyage des données\, mais a finalement adopté KNIME – une plateforme open source à faible code – pour gérer les tâches complexes de nettoyage des données de manière évolutive et accessible. \nÀ partir de cette présentation\, les participants : \n\nAcquérir des connaissances sur la façon de suivre et de visualiser la publication en libre accès dans leur établissement\nComprendre les défis liés à la collecte de données sur les publications et les stratégies de collecte de grands ensembles de données non standardisés\nIdentifier des outils\, des outils et des solutions à faible code\, tels que Knime\, pour travailler avec de grands ensembles de données complexes\n\nCette présentation sera utile pour ceux qui s’intéressent aux nouvelles méthodes d’évaluation et sources de données\, aux outils d’analyse des données et à ceux qui cherchent à commencer à travailler avec des données de publication en accès libre. \n\n\n\n					 15h45 – 16h05– « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée\n									\nZe’ev Schneider (Bibliothèque du Parlement) \nLes riches collections de la Bibliothèque du Parlement (la Bibliothèque)\, développées au fil de nombreuses décennies\, sont essentielles à sa mission de contribuer à la démocratie parlementaire canadienne en « gérant et en fournissant des informations et des connaissances fiables\, pertinentes et faisant autorité ». Les collections sont réparties entre plusieurs sections de la Cité parlementaire ainsi qu’une installation d’entreposage hors site. \nDe plus\, une succursale libre-service destinée principalement aux chercheurs de la bibliothèque offre un accès sur place à une collection d’imprimés. Une récente évaluation complète de cette collection a permis de dégager suffisamment d’espace sur les étagères pour de nouvelles acquisitions. En réfléchissant à la façon de développer cette collection et de gérer l’espace\, nous avons réfléchi au rôle actuel et à la valeur de l’impression sur place pour les spécialistes du sujet dans leur travail et leurs recherches\, leur développement professionnel et leur lecture loisir. Ce processus a conduit à la création du sondage utilisateur couvert dans cette présentation. \nDans cette session\, je présenterai l’enquête de la conception aux résultats. \nLa présentation comprendra : \n\nUne introduction à la Bibliothèque du Parlement (le nouveau membre de l’ABRC!)\, y compris ses collections et ses utilisateurs\nÉtapes et itérations dans la conception de l’enquête\nObjectifs de l’enquête\, résultats et résultats prévus\n\nObjectifs d’apprentissage \nLes participants à la conférence apprendront sur \n\nConsidérations lors de la création d’une enquête ciblée pour un groupe d’utilisateurs local\nLes idées glanées à partir des résultats de l’enquête\, y compris l’expérience des répondants sur la collection d’imprimés et l’espace ; et les différences entre les chercheurs plus récents et plus chevronnés dans leur connaissance et leurs préférences pour l’impression sur site\nDéfis et leçons apprises\n\n\n\n\n					 9h00 – 9h20 – Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary\n									\nJustine Wheeler & Mary-Jo Romaniuk (Université de Calgary) \nLes présentateurs décriront l’étude d’impact sur les bibliothèques et les ressources culturelles  à l’Université de Calgary. Cette étude se concentre sur l’expérience de deux groupes d’utilisateurs distincts : les professeurs et les étudiants. Il a été réalisé en étroite collaboration avec Implement Consulting Group. \nLe but de cette étude est de mieux comprendre le rôle et l’impact de les bibliothèques et les ressources culturelles dans la vie académique des étudiants et du corps professoral en capturant et en mesurant ce qui se passe lorsque ces utilisateurs s’engagent avec les bibliothèques et les ressources culturelles. De plus\, l’étude vise à inspirer et informer les décisions stratégiques futures et les plans pour les bibliothèques et les ressources culturelles. \nL’étude est basée sur un cadre Impact Compass\, qui est une approche de méthodes mixtes conçue pour explorer comment les expériences culturelles impactent les individus. La boussole sert d’outil pour communiquer de manière quantitative comment un individu expérimente un produit ou service culturel particulier\, tout en utilisant également l’analyse qualitative des données pour obtenir une compréhension plus approfondie des résultats. \nBien que le cadre Impact Compass ait déjà été utilisé pour les bibliothèques publiques\, il n’avait jamais été utilisé dans un contexte de recherche en bibliothèque. Pour s’assurer que la boussole d’impact a résonné dans le contexte du personnel de les bibliothèques et les ressources culturelles\, les étudiants et les professeurs ont été consultés\, et des adaptations significatives ont été apportées à la boussole. \nPlus précisément\, ce processus collaboratif a permis de déterminer quatre piliers de l’expérience des bibliothèques : l’espace\, les collections et les ressources numériques\, le soutien à l’enseignement et à l’apprentissage et le soutien à la recherche.  Chaque pilier s’est vu attribuer une boussole d’impact.  Chaque boussole a été divisée en quatre dimensions d’impact : émotionnelle\, intellectuelle\, sociale et créative.  Chaque dimension se composait de trois paramètres qui ont été testés et affinés pour refléter les besoins et le contexte d’une bibliothèque de recherche. Les données qualitatives ont ensuite été utilisées pour apporter des nuances et une compréhension de la boussole. À partir de cela\, des profils d’impact ont été développés. \nLes présentateurs discuteront des résultats de l’étude\, y compris les profils d’impact pour les étudiants et le corps professoral. Enfin\, les présentateurs discuteront de la façon dont les résultats de l’étude ont été utilisés et des plans pour une utilisation future. \nObjectifs d’apprentissage : \n\nCompréhension de base de la méthode utilisée pour cette étude.\nPotentiellement\, obtenir un aperçu des résultats de l’étude qui pourrait être généralisable à leur propre contexte\n\n\n\n\n					 9h25 – 9h45 – Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires\n									\nSabina Pagotto (Scholars Portal) and Katrina Fortner (Ontario Council of University Libraries) \nÀ la fin de 2024\, les directeurs de bibliothèques qui composent le Conseil des bibliothèques universitaires de l’Ontario (CBUO) ont demandé de l’aide pour expliquer la valeur des services qu’ils reçoivent du CBUO et de son service Scholars Portal aux cadres supérieurs d’universités en dehors de la bibliothèque. Étant donné que plus de 20 établissements varient considérablement en taille\, intensité de recherche et priorités institutionnelles\, il n’y avait pas de consensus sur les types d’information qui seraient utiles pour communiquer aux cadres supérieurs. Certaines institutions\, par exemple\, préféraient les chiffres réels et demandaient spécifiquement le retour sur investissement ou les économies de coûts ; d’autres ont estimé que les déclarations sur les avantages qualitatifs seraient des arguments plus convaincants auprès de leurs administrateurs. \nEn réponse à cette demande\, le groupe de communication CBUO-Scholars Portal s’est mis en action. Nous avons étudié diverses façons de calculer la valeur et les économies de coûts dans différents services ou domaines d’opérations\, jusqu’à ce que nous ayons identifié une gamme de points de données que nous pensions pouvoir calculer en toute confiance pour chaque institution. Nous avons également rédigé des énoncés de valeur qui énoncent les avantages ou les résultats des services consortiaux et que nous nous attendions à voir résonner chez les administrateurs autres que ceux des bibliothèques. Une fois que nous avons eu un ensemble solide de déclarations\, nous avons demandé aux directeurs de bibliothèque de classer les déclarations qui\, selon eux\, seraient les plus utiles pour leur établissement. À l’aide d’un modèle conçu par notre équipe de services web\, nous avons ensuite généré des rapports personnalisés pour chaque institution qui a répondu. Ces rapports ont été distribués avec la documentation à l’appui qui fournissait plus de contexte pour permettre aux directeurs de bibliothèque de discuter en toute confiance de ces rapports avec les administrateurs de leur établissement\, reliant les points entre le coût de la bibliothèque ou les économies de ressources et les impacts positifs sur la communauté du campus. \nCette session discutera des défis\, des opportunités et des leçons apprises tout au long du projet. \nLes participants apprendront comment : \n\nDiscuter des méthodologies pour calculer les économies de coûts dans les services consortiaux\nAdoptez une optique de communication pour l’évaluation et considérez le rôle du public lors de la communication de la valeur\nPensez de manière critique aux statistiques et aux valeurs calculées et comprenez l’importance de savoir d’où viennent les chiffres\n\n\n\n\n					 9h50 – 10h10 – Planification stratégique efficace: étude de cas sur le modèle logique de la bibliothèque de l’Université d’Ottawa\n									\nKatrine Mallan (Université d’Ottawa) \nCette séance présentera comment la bibliothèque de l’Université d’Ottawa utilise le Cadre d’impact des bibliothèques de l’ABRC pour apporter plus de clarté\, de cohérence et d’évaluabilité à la mise en œuvre de notre nouveau plan stratégique. \nEn utilisant une orientation stratégique comme étude de cas\, j’expliquerai aux participants comment notre groupe de gestion des bibliothèques a élaboré en collaboration un modèle logique pour cartographier les activités clés\, les extrants\, les auditoires\, les résultats et les hypothèses sous-jacentes. Ce processus nous a aidés à aller au-delà des aspirations générales pour définir des actions tangibles\, tester la plausibilité du parcours d’impact et jeter les bases d’une évaluation significative. \nEn ancrant notre planification dans le cadre de l’ABRC\, nous avons établi une compréhension commune de la façon dont notre travail crée un impact et établi une ligne de mire plus claire entre la stratégie et la mise en œuvre. \nLa session mettra en évidence comment l’utilisation des modèles logiques : \n\nNous a aidés à rendre notre stratégie plus réalisable ;\nFait apparaître des hypothèses et clarifié les résultats escomptés ;\nCréé une base plus solide pour les futurs travaux d’évaluation.\n\nCette étude de cas est particulièrement pertinente pour les bibliothèques qui cherchent à combler le fossé entre la planification stratégique et l’exécution opérationnelle\, et pour celles qui visent à intégrer la pensée évaluative sans surcharger le personnel ou les ressources. \nObjectifs d’apprentissage : À la fin de la session\, les participants seront en mesure de : \n\nComprendre comment le cadre d’impact des bibliothèques de l’ABRC peut soutenir la mise en œuvre du plan stratégique.\nIdentifier les éléments clés d’un modèle logique simple qui clarifient l’intention et soutiennent l’évaluation future.\nRéfléchir à la façon dont une réflexion évaluative précoce peut améliorer la cohérence et la faisabilité des efforts de planification stratégique.\n\nCette session est conçue pour être pratique et transférable\, en particulier pour les bibliothèques qui naviguent entre le milieu désordonné de la conception et de l’exécution de la stratégie. Notre étude de cas vise à susciter des idées pour les bibliothèques cherchant à intégrer l’évaluation dans leurs pratiques de planification et à rendre l’intention stratégique plus actionnable et visible. \n\n\n\n					 10h15 – 10h35 – De dispersé à stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques\n									\nSam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western ) \nLes bibliothèques académiques collectent un large éventail de données via diverses plateformes\, outils et procédures. Cependant\, le personnel et la direction ont souvent du mal à accéder à ces données ou à les interpréter. À Western Libraries\, nous avions un défi commun. Les données étaient difficiles à trouver\, hébergées sur différentes plateformes\, suivies de manière incohérente parmi nos équipes et difficiles à connecter pour une prise de décision fondée sur des preuves à tous les niveaux. \nPour aider à cela\, nous développons un tableau de bord en temps réel qui favoriserait la transparence et l’accessibilité à nos données. Ce tableau de bord vise à soutenir la prise de décision fondée sur des preuves dans l’ensemble de l’organisation pour aider à la planification stratégique\, à l’allocation des ressources et aux opérations. \nLe projet a commencé par des consultations avec les dirigeants pour déterminer la portée du projet et définir les objectifs clés. Cela a été suivi d’une série de réunions internes sur l’inventaire des données avec les principaux intervenants de nos services aux utilisateurs et de nos équipes de la haute direction pour comprendre quelles données étaient recueillies\, comment et par qui. Ces réunions ont révélé des lacunes dans la collecte de données\, ainsi que des différences clés dans la façon dont toutes les équipes visualisent et utilisent leurs données. En parallèle\, nous avons également travaillé avec des membres de notre équipe LITS (Library Information Technology Services) pour évaluer les exigences techniques\, explorer les options de visualisation et identifier quelles seraient les options les plus durables à long terme. \nDans cette session\, nous partagerons notre processus de planification\, les leçons apprises et les étapes pratiques que nous avons utilisées pour cartographier et consolider nos données à travers un grand système de bibliothèque. Nous discuterons également de la façon dont nous avons encadré notre processus en utilisant ADKAR (Sensibilisation\, Désir\, Connaissance\, Capacité\, Renforcement) pour soutenir un changement durable et contribuer à une culture d’évaluation dans les bibliothèques occidentales. \nObjectifs d’apprentissage/ Principaux points à retenir \n\nLes participants seront en mesure d’identifier et de consolider les données existantes et de déterminer les lacunes et les solutions dans la collecte de données actuelle.\nLes participants seront en mesure de comprendre le processus précoce de conception d’une « plateforme » pour accroître l’accès aux données institutionnelles.\nLes participants auront des idées pour appliquer des stratégies de gestion du changement afin de promouvoir l’adoption et soutenir les initiatives d’évaluation.\n\n\n\n\n					 11h00 – 11h20 – Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque\n									\nSarah Coysh & Sheril Hook (Université York) \nQui passe du temps et combien de temps passent-ils dans nos bibliothèques ? C’est la question qui nous a poussés à tenir un Jour du recensement dans toutes nos bibliothèques. Nous avons capturé le trafic de bibliothèque de 19232 entrées/sorties à travers la journée.  Nous avons sélectionné dix-sept points de données à enregistrer\, y compris le code postal actuel\, le niveau du diplôme\, le pendulaire ou en résidence\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96 % de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes chacun. \nComme Dillalogue & Koehn (2020)\, nous voulions aller plus loin que le comptage des portes seul\, alors nous avons créé un outil de tap-in/tap-out pour permettre aux utilisateurs d’utiliser volontairement leur identifiant de campus lorsqu’ils entrent et sortent de nos six bibliothèques en une seule journée en 2025. Nous avons calqué ce projet d’évaluation sur celui des bibliothèques de McGill qui ont déjà organisé un événement semblable.  Notre objectif était de capturer 80% du trafic en une seule journée pendant nos heures d’ouverture.  Nous avons également utilisé le jour du recensement comme catalyseur pour notre enquête LibQUAL+ pour laquelle nous avons reçu plus d’enquêtes complétées que les années précédentes. \nDeux approches ont été essentielles au succès du jour du recensement : la participation de tout le personnel de la bibliothèque et l’établissement d’un partenariat avec le Bureau de la planification et de l’analyse institutionnelle (OIPA).  Le personnel a été impliqué dans l’établissement du système de numérisation des cartes d’identité ; la logistique du jour pour chaque bibliothèque ; attribution des rôles le jour du recensement; développer et diffuser des ressources de communication ; célébrant le succès de la journée ; aider à l’analyse préliminaire des résultats).  Le partenariat avec OIPA nous a permis de sélectionner parmi plus de 200 points de données ; maintenir l’anonymat des données ; et nous a fourni le langage pour décrire l’analyse dans les contraintes de protection des données des clients. \nNous avons sélectionné dix-sept points de données\, y compris le code postal actuel\, le niveau du diplôme\, la personne qui fait la navette ou qui réside\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96% de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes. \nDans cette session\, nous partagerons des détails sur ce que nous avons appris sur les utilisateurs des bibliothèques et combien de temps ils restent\, y compris les données qui nous ont surpris et le suivi des idées d’évaluation. \nLes participants découvriront la variété des points de données collectés par les institutions académiques et comment ceux-ci peuvent être utiles pour éclairer les décisions concernant les heures\, le personnel\, la conception de l’espace\, la circulation\, etc. \nLes participants découvriront un système de tableau de bord open-source (Metabase) qui permet d’interroger les données pour la visualisation des données. \nLes participants recevront également un lien vers une pochette contenant des conseils sur la façon de mener leur propre journée de recensement. \nRéférence : \nDillalogue\, E.\, & Koehn\, M. (2020). Assessment on a Dime : Collecte de données utilisateur à faible coût pour l’évaluation. Bibliothèque basée sur des preuves et pratique d’information\, 15(3)\, 2–20. https://doi.org/10.18438/eblip29582 \n\n\n\n					 11h25 – 11h45 – Évaluer le succès d’un projet dans les bibliothèques académiques\n									\nJessica Lange & Nailisa Tanner (Université McGill) \nAu début de tout projet\, les parties prenantes définissent ce qui constitue le succès. Cette définition est ensuite utilisée à la fin du projet pour évaluer si ces objectifs ont été atteints et finalement déterminer si le projet a été « réussi » ou non. Les mesures typiques utilisées dans la gestion de projet\, telles que les indicateurs clés de performance (KPI) et l’utilisation des ressources\, bien qu’elles soient potentiellement utiles\, s’adressent aux entreprises ou aux lieux de travail à but lucratif et peuvent ne pas être les plus pertinentes ni transférables aux environnements académiques où le profit n’est pas un facteur pertinent. \nAprès avoir terminé plusieurs projets dans l’unité de technologie des bibliothèques de McGill et en utilisant des mesures typiques pour évaluer les projets\, il est devenu clair que bien que ces mesures répondaient au « quoi » d’un projet\, elles ne répondaient pas au « comment ». Les projets pourraient être achevés à temps et atteindre leurs objectifs\, mais ils peuvent avoir rencontré des problèmes importants au cours de leur déroulement\, tels qu’une mauvaise planification\, des conflits d’effectifs et des délais serrés. Définir le succès en termes aussi étroits a laissé le personnel insatisfait\, en particulier si le projet a rencontré des défis importants. Faire une rétrospective sur le projet est un modèle pour capturer des retours qualitatifs\, permettant aux membres de l’équipe d’apprendre et de grandir à partir (parfois) d’expériences négatives. Cela peut fournir un contexte supplémentaire en dehors des mesures de succès typiques. \nLes objectifs d’apprentissage de cette présentation incluent : \n\nDécrire brièvement les outils de base de la documentation de gestion de projet (par exemple\, charte\, rétrospective).\nÉnoncez les métriques communes utilisées pour évaluer le succès du projet\nDiscuter d’un modèle\, y compris des rétrospectives\, qui capture les commentaires qualitatifs des participants sur le succès du projet dans un environnement académique\n\n\n\n\n					 13h00 – 13h20 – Ce n’est pas cassé… Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation\n									\nJuliene McLaughlin & Robin Bergart (Université de Guelph) \nComme le dit le proverbe\, « si ce n’est pas cassé\, ne le réparez pas. » Mais parfois\, ce n’est pas aussi clair quand un service de bibliothèque est bien tel qu’il est et devrait être laissé seul\, ou s’il commence à se casser\, ou s’il est déjà cassé.  Pendant de nombreuses années\, notre bibliothèque a maintenu une page Web publique répertoriant les bases de données\, et en 2016\, nous avons mis en œuvre la liste A-Z de bases de données de Springshare. Au cours de cette période\, notre équipe UX a mené des études d’utilisabilité\, recueilli des analyses web et surveillé la documentation de la bibliothèque. Nous avons recommandé des changements progressifs pour s’assurer que cette page est aussi utilisable et utile que possible. Cependant\, plus récemment\, nous avons commencé à nous demander si cette page est toujours pertinente et si elle fait plus de mal que de bien. Après une enquête approfondie sur l’UX\, nous n’avons pas pu parvenir à une conclusion définitive\, mais notre intuition selon laquelle il y a un problème n’a pas disparu.  Que faites-vous lorsque votre instinct vous dit qu’il y a un problème\, mais que les preuves ne sont pas concluantes ? Quand devriez-vous abandonner les améliorations progressives et apporter un changement radical ? Qui décide ? \nObjectifs d’apprentissage : \n\nDiscutez du rôle de l’intuition professionnelle dans le travail sur l’expérience utilisateur\, y compris comment équilibrer les sentiments instinctifs avec des preuves empiriques.\nReconnaître les signes indiquant qu’un service de bibliothèque peut ne plus répondre aux besoins des utilisateurs\, même lorsque les indicateurs d’utilisabilité traditionnels sont peu concluants.\nÉvaluer la tension entre l’amélioration progressive et la refonte radicale et identifier des stratégies pour prendre des décisions éclairées sur le moment de changer d’approche.\n\n\n\n\n					 13h25 – 13h45 – Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques\n									\nAli Foster\, Abigail Graham\, et David Pearson (Université MacEwan) \nCette brève présentation met en évidence les expériences et les leçons tirées d’une refonte complète d’un site Web de bibliothèque de premier cycle axé sur l’amélioration de l’expérience utilisateur pour les étudiants de premier cycle. L’équipe du projet était composée de quatre employés : un graphiste\, un informaticien et deux bibliothécaires. Le principal défi auquel l’équipe a été confrontée était de développer un protocole d’expérience utilisateur (UX) qui privilégiait les perspectives des étudiants tout en obtenant le soutien du personnel de la bibliothèque pour les changements proposés à nos pratiques d’évaluation existantes. \nAvant le lancement du projet à l’automne 2023\, les efforts de refonte du site web précédents tenaient principalement compte des opinions du personnel et du corps professoral de la bibliothèque. Par conséquent\, l’architecture de l’information du site et le ton de la voix ont été signalés comme des domaines d’amélioration potentiels lors du processus de refonte. Cette préoccupation a été validée lorsque l’équipe a collaboré avec des étudiants de troisième année en anthropologie menant des études ethnographiques du site web de la bibliothèque. Dans les deux discussions avec les étudiants et dans leurs rapports formels\, il est devenu clair qu’ils ont trouvé le site web inaccessible\, déroutant et peu accueillant pour les étudiants. À cette fin\, l’équipe du projet a développé un protocole UX qui visait à prioriser les perspectives des étudiants ainsi que les meilleures pratiques en matière de conception web accessible et inclusive. \nCette présentation fournira un bref aperçu du projet\, des exemples clés d’outils d’expérience utilisateur axés sur les étudiants que nous avons appliqués\, ainsi que nos observations et leçons apprises alors que nous continuons à évaluer et à affiner le site web de la bibliothèque. \nRésultats d’apprentissage – Les participants : \n\nComprendre comment mettre en œuvre des pratiques d’expérience utilisateur axées sur les étudiants dans un projet de conception web\nEnvisager des méthodes pour encourager l’adhésion du personnel de la bibliothèque à la conception de sites web axés sur les étudiants\nIdentifier des moyens de collecter et de mettre en œuvre durablement les retours des étudiants sur une base continue\n\n\n\n\n					 14h10 – 16h10 – Dialogue dans l’évaluation des bibliothèques : facilitation\, approches et techniques\n									\nJulie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser) \nLes praticiens de l’évaluation en bibliothèque peuvent intégrer les outils et techniques de dialogue pour faciliter des évaluations communautaires significatives et inclusives—avec les utilisateurs de la bibliothèque ainsi que les collègues de la bibliothèque. Cet atelier présentera la théorie\, les connaissances et les compétences pour faciliter le dialogue dans le travail d’évaluation des bibliothèques. \nLe dialogue peut être défini de nombreuses manières. C’est une méthode pour articuler les besoins\, les désirs et les hypothèses sous-jacentes dans des groupes qui rejette les dynamiques de pouvoir hiérarchiques et qui est axée sur la transformation. Il utilise des pratiques participatives pour organiser des conversations génératives\, être plus inclusif\, favoriser l’apprentissage mutuel\, centrer l’expertise vécue et exploiter la sagesse collective. Il « peut aider les groupes et les communautés à explorer respectueusement des questions polarisantes\, à aborder les conflits\, à délibérer sur le potentiel de problèmes complexes et bien plus encore » (Morris J. Wosk Centre for Dialogue\, Université Simon Fraser\, n.d.). Dans son livre de 1999\, Dialogue and the Art of Thinking Together\, William Issacs a succinctement et plutôt magnifiquement défini le dialogue comme « une conversation avec un centre\, pas des côtés » (p. 19). Williams a ensuite déclaré : « C’est une façon de prendre l’énergie de nos différences et de la canaliser vers quelque chose qui n’a jamais été créé auparavant. » Il nous élève hors de la polarisation et vers un sens commun plus grand\, et est ainsi un moyen d’accéder à l’intelligence et au pouvoir coordonné de groupes de personnes » (p. 19). \nLes participants à cet atelier apprendront comment le sous-groupe du plan d’instruction du Groupe de travail pour la formation et l’éducation en matière d’information (WGILI) de la bibliothèque SFU utilise des méthodes en dialogue pour évaluer les besoins de leurs collègues instructeurs et intégrer l’expertise vécue de leurs collègues dans le nouveau plan d’instruction de la Bibliothèque\, que le sous-groupe est en train de créer. Après une introduction à la théorie et au contexte SFU\, les participants seront invités à assumer le rôle de participants dans un dialogue structuré créé par le sous-groupe pour évaluer les besoins des instructeurs de bibliothèque à la bibliothèque SFU. Ce dialogue facilitera la connaissance co-construite\, le leadership distribué\, la pollinisation croisée des idées et la création de sens partagée et visible. \nAprès avoir expérimenté le dialogue structuré en tant que participants\, les participants seront invités à assumer le rôle de facilitateurs pendant que nous « tirons le rideau » et examinons et réfléchissons aux composantes\, à la conception et aux résultats du dialogue. Nous partagerons la théorie derrière les décisions prises et les actions entreprises et discuterons de la transférabilité des méthodes de facilitation utilisées\, en mettant l’accent sur l’application pratique des concepts et principes théoriques dans d’autres contextes d’évaluation de bibliothèques. Des modèles et des ressources de facilitation que les participants peuvent apporter dans leur pratique d’évaluation seront partagés. Nous discuterons également des avantages d’apporter des méthodes de dialogue et de facilitation dans le travail d’évaluation des bibliothèques. \nObjectifs d’apprentissage  \nÀ la fin de cet atelier\, les participants pourront : \n\nComprendre le dialogue comme une méthodologie.\nAppliquer des techniques de facilitation qui permettent le dialogue et favorisent des conversations significatives dans un cadre d’évaluation en bibliothèque.\nDévelopper des perspectives d’évaluation en utilisant des méthodes de facilitation et de dialogue.\n\nRéférences  \nIsaacs\, W. (1999). Le dialogue et l’art de penser ensemble : une approche pionnière pour communiquer dans les affaires et dans la vie (1ère éd). Monnaie. \nMorris J. Wosk Centre for Dialogue\, Université Simon Fraser (n.d.). Qu’est-ce que Dialogue ? Récupéré le 1 juin 2025\, de https://www.sfu.ca/dialogue/learn/what-is-dialogue.html \n\nJustine Wheeler & Mary-Jo Romaniuk (Université de Calgary) \nLes présentateurs décriront l’étude d’impact sur les bibliothèques et les ressources culturelles  à l’Université de Calgary. Cette étude se concentre sur l’expérience de deux groupes d’utilisateurs distincts : les professeurs et les étudiants. Il a été réalisé en étroite collaboration avec Implement Consulting Group. \nLe but de cette étude est de mieux comprendre le rôle et l’impact de les bibliothèques et les ressources culturelles dans la vie académique des étudiants et du corps professoral en capturant et en mesurant ce qui se passe lorsque ces utilisateurs s’engagent avec les bibliothèques et les ressources culturelles. De plus\, l’étude vise à inspirer et informer les décisions stratégiques futures et les plans pour les bibliothèques et les ressources culturelles. \nL’étude est basée sur un cadre Impact Compass\, qui est une approche de méthodes mixtes conçue pour explorer comment les expériences culturelles impactent les individus. La boussole sert d’outil pour communiquer de manière quantitative comment un individu expérimente un produit ou service culturel particulier\, tout en utilisant également l’analyse qualitative des données pour obtenir une compréhension plus approfondie des résultats. \nBien que le cadre Impact Compass ait déjà été utilisé pour les bibliothèques publiques\, il n’avait jamais été utilisé dans un contexte de recherche en bibliothèque. Pour s’assurer que la boussole d’impact a résonné dans le contexte du personnel de les bibliothèques et les ressources culturelles\, les étudiants et les professeurs ont été consultés\, et des adaptations significatives ont été apportées à la boussole. \nPlus précisément\, ce processus collaboratif a permis de déterminer quatre piliers de l’expérience des bibliothèques : l’espace\, les collections et les ressources numériques\, le soutien à l’enseignement et à l’apprentissage et le soutien à la recherche.  Chaque pilier s’est vu attribuer une boussole d’impact.  Chaque boussole a été divisée en quatre dimensions d’impact : émotionnelle\, intellectuelle\, sociale et créative.  Chaque dimension se composait de trois paramètres qui ont été testés et affinés pour refléter les besoins et le contexte d’une bibliothèque de recherche. Les données qualitatives ont ensuite été utilisées pour apporter des nuances et une compréhension de la boussole. À partir de cela\, des profils d’impact ont été développés. \nLes présentateurs discuteront des résultats de l’étude\, y compris les profils d’impact pour les étudiants et le corps professoral. Enfin\, les présentateurs discuteront de la façon dont les résultats de l’étude ont été utilisés et des plans pour une utilisation future. \nObjectifs d’apprentissage : \n\nCompréhension de base de la méthode utilisée pour cette étude.\nPotentiellement\, obtenir un aperçu des résultats de l’étude qui pourrait être généralisable à leur propre contexte\n\nSabina Pagotto (Scholars Portal) and Katrina Fortner (Ontario Council of University Libraries) \nÀ la fin de 2024\, les directeurs de bibliothèques qui composent le Conseil des bibliothèques universitaires de l’Ontario (CBUO) ont demandé de l’aide pour expliquer la valeur des services qu’ils reçoivent du CBUO et de son service Scholars Portal aux cadres supérieurs d’universités en dehors de la bibliothèque. Étant donné que plus de 20 établissements varient considérablement en taille\, intensité de recherche et priorités institutionnelles\, il n’y avait pas de consensus sur les types d’information qui seraient utiles pour communiquer aux cadres supérieurs. Certaines institutions\, par exemple\, préféraient les chiffres réels et demandaient spécifiquement le retour sur investissement ou les économies de coûts ; d’autres ont estimé que les déclarations sur les avantages qualitatifs seraient des arguments plus convaincants auprès de leurs administrateurs. \nEn réponse à cette demande\, le groupe de communication CBUO-Scholars Portal s’est mis en action. Nous avons étudié diverses façons de calculer la valeur et les économies de coûts dans différents services ou domaines d’opérations\, jusqu’à ce que nous ayons identifié une gamme de points de données que nous pensions pouvoir calculer en toute confiance pour chaque institution. Nous avons également rédigé des énoncés de valeur qui énoncent les avantages ou les résultats des services consortiaux et que nous nous attendions à voir résonner chez les administrateurs autres que ceux des bibliothèques. Une fois que nous avons eu un ensemble solide de déclarations\, nous avons demandé aux directeurs de bibliothèque de classer les déclarations qui\, selon eux\, seraient les plus utiles pour leur établissement. À l’aide d’un modèle conçu par notre équipe de services web\, nous avons ensuite généré des rapports personnalisés pour chaque institution qui a répondu. Ces rapports ont été distribués avec la documentation à l’appui qui fournissait plus de contexte pour permettre aux directeurs de bibliothèque de discuter en toute confiance de ces rapports avec les administrateurs de leur établissement\, reliant les points entre le coût de la bibliothèque ou les économies de ressources et les impacts positifs sur la communauté du campus. \nCette session discutera des défis\, des opportunités et des leçons apprises tout au long du projet. \nLes participants apprendront comment : \n\nDiscuter des méthodologies pour calculer les économies de coûts dans les services consortiaux\nAdoptez une optique de communication pour l’évaluation et considérez le rôle du public lors de la communication de la valeur\nPensez de manière critique aux statistiques et aux valeurs calculées et comprenez l’importance de savoir d’où viennent les chiffres\n\nKatrine Mallan (Université d’Ottawa) \nCette séance présentera comment la bibliothèque de l’Université d’Ottawa utilise le Cadre d’impact des bibliothèques de l’ABRC pour apporter plus de clarté\, de cohérence et d’évaluabilité à la mise en œuvre de notre nouveau plan stratégique. \nEn utilisant une orientation stratégique comme étude de cas\, j’expliquerai aux participants comment notre groupe de gestion des bibliothèques a élaboré en collaboration un modèle logique pour cartographier les activités clés\, les extrants\, les auditoires\, les résultats et les hypothèses sous-jacentes. Ce processus nous a aidés à aller au-delà des aspirations générales pour définir des actions tangibles\, tester la plausibilité du parcours d’impact et jeter les bases d’une évaluation significative. \nEn ancrant notre planification dans le cadre de l’ABRC\, nous avons établi une compréhension commune de la façon dont notre travail crée un impact et établi une ligne de mire plus claire entre la stratégie et la mise en œuvre. \nLa session mettra en évidence comment l’utilisation des modèles logiques : \n\nNous a aidés à rendre notre stratégie plus réalisable ;\nFait apparaître des hypothèses et clarifié les résultats escomptés ;\nCréé une base plus solide pour les futurs travaux d’évaluation.\n\nCette étude de cas est particulièrement pertinente pour les bibliothèques qui cherchent à combler le fossé entre la planification stratégique et l’exécution opérationnelle\, et pour celles qui visent à intégrer la pensée évaluative sans surcharger le personnel ou les ressources. \nObjectifs d’apprentissage : À la fin de la session\, les participants seront en mesure de : \n\nComprendre comment le cadre d’impact des bibliothèques de l’ABRC peut soutenir la mise en œuvre du plan stratégique.\nIdentifier les éléments clés d’un modèle logique simple qui clarifient l’intention et soutiennent l’évaluation future.\nRéfléchir à la façon dont une réflexion évaluative précoce peut améliorer la cohérence et la faisabilité des efforts de planification stratégique.\n\nCette session est conçue pour être pratique et transférable\, en particulier pour les bibliothèques qui naviguent entre le milieu désordonné de la conception et de l’exécution de la stratégie. Notre étude de cas vise à susciter des idées pour les bibliothèques cherchant à intégrer l’évaluation dans leurs pratiques de planification et à rendre l’intention stratégique plus actionnable et visible. \nSam Vettraino\, Suzy Lee\, et Sarah Mantz (Université Western ) \nLes bibliothèques académiques collectent un large éventail de données via diverses plateformes\, outils et procédures. Cependant\, le personnel et la direction ont souvent du mal à accéder à ces données ou à les interpréter. À Western Libraries\, nous avions un défi commun. Les données étaient difficiles à trouver\, hébergées sur différentes plateformes\, suivies de manière incohérente parmi nos équipes et difficiles à connecter pour une prise de décision fondée sur des preuves à tous les niveaux. \nPour aider à cela\, nous développons un tableau de bord en temps réel qui favoriserait la transparence et l’accessibilité à nos données. Ce tableau de bord vise à soutenir la prise de décision fondée sur des preuves dans l’ensemble de l’organisation pour aider à la planification stratégique\, à l’allocation des ressources et aux opérations. \nLe projet a commencé par des consultations avec les dirigeants pour déterminer la portée du projet et définir les objectifs clés. Cela a été suivi d’une série de réunions internes sur l’inventaire des données avec les principaux intervenants de nos services aux utilisateurs et de nos équipes de la haute direction pour comprendre quelles données étaient recueillies\, comment et par qui. Ces réunions ont révélé des lacunes dans la collecte de données\, ainsi que des différences clés dans la façon dont toutes les équipes visualisent et utilisent leurs données. En parallèle\, nous avons également travaillé avec des membres de notre équipe LITS (Library Information Technology Services) pour évaluer les exigences techniques\, explorer les options de visualisation et identifier quelles seraient les options les plus durables à long terme. \nDans cette session\, nous partagerons notre processus de planification\, les leçons apprises et les étapes pratiques que nous avons utilisées pour cartographier et consolider nos données à travers un grand système de bibliothèque. Nous discuterons également de la façon dont nous avons encadré notre processus en utilisant ADKAR (Sensibilisation\, Désir\, Connaissance\, Capacité\, Renforcement) pour soutenir un changement durable et contribuer à une culture d’évaluation dans les bibliothèques occidentales. \nObjectifs d’apprentissage/ Principaux points à retenir \n\nLes participants seront en mesure d’identifier et de consolider les données existantes et de déterminer les lacunes et les solutions dans la collecte de données actuelle.\nLes participants seront en mesure de comprendre le processus précoce de conception d’une « plateforme » pour accroître l’accès aux données institutionnelles.\nLes participants auront des idées pour appliquer des stratégies de gestion du changement afin de promouvoir l’adoption et soutenir les initiatives d’évaluation.\n\nSarah Coysh & Sheril Hook (Université York) \nQui passe du temps et combien de temps passent-ils dans nos bibliothèques ? C’est la question qui nous a poussés à tenir un Jour du recensement dans toutes nos bibliothèques. Nous avons capturé le trafic de bibliothèque de 19232 entrées/sorties à travers la journée.  Nous avons sélectionné dix-sept points de données à enregistrer\, y compris le code postal actuel\, le niveau du diplôme\, le pendulaire ou en résidence\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96 % de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes chacun. \nComme Dillalogue & Koehn (2020)\, nous voulions aller plus loin que le comptage des portes seul\, alors nous avons créé un outil de tap-in/tap-out pour permettre aux utilisateurs d’utiliser volontairement leur identifiant de campus lorsqu’ils entrent et sortent de nos six bibliothèques en une seule journée en 2025. Nous avons calqué ce projet d’évaluation sur celui des bibliothèques de McGill qui ont déjà organisé un événement semblable.  Notre objectif était de capturer 80% du trafic en une seule journée pendant nos heures d’ouverture.  Nous avons également utilisé le jour du recensement comme catalyseur pour notre enquête LibQUAL+ pour laquelle nous avons reçu plus d’enquêtes complétées que les années précédentes. \nDeux approches ont été essentielles au succès du jour du recensement : la participation de tout le personnel de la bibliothèque et l’établissement d’un partenariat avec le Bureau de la planification et de l’analyse institutionnelle (OIPA).  Le personnel a été impliqué dans l’établissement du système de numérisation des cartes d’identité ; la logistique du jour pour chaque bibliothèque ; attribution des rôles le jour du recensement; développer et diffuser des ressources de communication ; célébrant le succès de la journée ; aider à l’analyse préliminaire des résultats).  Le partenariat avec OIPA nous a permis de sélectionner parmi plus de 200 points de données ; maintenir l’anonymat des données ; et nous a fourni le langage pour décrire l’analyse dans les contraintes de protection des données des clients. \nNous avons sélectionné dix-sept points de données\, y compris le code postal actuel\, le niveau du diplôme\, la personne qui fait la navette ou qui réside\, la langue maternelle et le groupe d’âge\, entre autres.  Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques.  Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96% de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes. \nDans cette session\, nous partagerons des détails sur ce que nous avons appris sur les utilisateurs des bibliothèques et combien de temps ils restent\, y compris les données qui nous ont surpris et le suivi des idées d’évaluation. \nLes participants découvriront la variété des points de données collectés par les institutions académiques et comment ceux-ci peuvent être utiles pour éclairer les décisions concernant les heures\, le personnel\, la conception de l’espace\, la circulation\, etc. \nLes participants découvriront un système de tableau de bord open-source (Metabase) qui permet d’interroger les données pour la visualisation des données. \nLes participants recevront également un lien vers une pochette contenant des conseils sur la façon de mener leur propre journée de recensement. \nRéférence : \nDillalogue\, E.\, & Koehn\, M. (2020). Assessment on a Dime : Collecte de données utilisateur à faible coût pour l’évaluation. Bibliothèque basée sur des preuves et pratique d’information\, 15(3)\, 2–20. https://doi.org/10.18438/eblip29582 \nJessica Lange & Nailisa Tanner (Université McGill) \nAu début de tout projet\, les parties prenantes définissent ce qui constitue le succès. Cette définition est ensuite utilisée à la fin du projet pour évaluer si ces objectifs ont été atteints et finalement déterminer si le projet a été « réussi » ou non. Les mesures typiques utilisées dans la gestion de projet\, telles que les indicateurs clés de performance (KPI) et l’utilisation des ressources\, bien qu’elles soient potentiellement utiles\, s’adressent aux entreprises ou aux lieux de travail à but lucratif et peuvent ne pas être les plus pertinentes ni transférables aux environnements académiques où le profit n’est pas un facteur pertinent. \nAprès avoir terminé plusieurs projets dans l’unité de technologie des bibliothèques de McGill et en utilisant des mesures typiques pour évaluer les projets\, il est devenu clair que bien que ces mesures répondaient au « quoi » d’un projet\, elles ne répondaient pas au « comment ». Les projets pourraient être achevés à temps et atteindre leurs objectifs\, mais ils peuvent avoir rencontré des problèmes importants au cours de leur déroulement\, tels qu’une mauvaise planification\, des conflits d’effectifs et des délais serrés. Définir le succès en termes aussi étroits a laissé le personnel insatisfait\, en particulier si le projet a rencontré des défis importants. Faire une rétrospective sur le projet est un modèle pour capturer des retours qualitatifs\, permettant aux membres de l’équipe d’apprendre et de grandir à partir (parfois) d’expériences négatives. Cela peut fournir un contexte supplémentaire en dehors des mesures de succès typiques. \nLes objectifs d’apprentissage de cette présentation incluent : \n\nDécrire brièvement les outils de base de la documentation de gestion de projet (par exemple\, charte\, rétrospective).\nÉnoncez les métriques communes utilisées pour évaluer le succès du projet\nDiscuter d’un modèle\, y compris des rétrospectives\, qui capture les commentaires qualitatifs des participants sur le succès du projet dans un environnement académique\n\nJuliene McLaughlin & Robin Bergart (Université de Guelph) \nComme le dit le proverbe\, « si ce n’est pas cassé\, ne le réparez pas. » Mais parfois\, ce n’est pas aussi clair quand un service de bibliothèque est bien tel qu’il est et devrait être laissé seul\, ou s’il commence à se casser\, ou s’il est déjà cassé.  Pendant de nombreuses années\, notre bibliothèque a maintenu une page Web publique répertoriant les bases de données\, et en 2016\, nous avons mis en œuvre la liste A-Z de bases de données de Springshare. Au cours de cette période\, notre équipe UX a mené des études d’utilisabilité\, recueilli des analyses web et surveillé la documentation de la bibliothèque. Nous avons recommandé des changements progressifs pour s’assurer que cette page est aussi utilisable et utile que possible. Cependant\, plus récemment\, nous avons commencé à nous demander si cette page est toujours pertinente et si elle fait plus de mal que de bien. Après une enquête approfondie sur l’UX\, nous n’avons pas pu parvenir à une conclusion définitive\, mais notre intuition selon laquelle il y a un problème n’a pas disparu.  Que faites-vous lorsque votre instinct vous dit qu’il y a un problème\, mais que les preuves ne sont pas concluantes ? Quand devriez-vous abandonner les améliorations progressives et apporter un changement radical ? Qui décide ? \nObjectifs d’apprentissage : \n\nDiscutez du rôle de l’intuition professionnelle dans le travail sur l’expérience utilisateur\, y compris comment équilibrer les sentiments instinctifs avec des preuves empiriques.\nReconnaître les signes indiquant qu’un service de bibliothèque peut ne plus répondre aux besoins des utilisateurs\, même lorsque les indicateurs d’utilisabilité traditionnels sont peu concluants.\nÉvaluer la tension entre l’amélioration progressive et la refonte radicale et identifier des stratégies pour prendre des décisions éclairées sur le moment de changer d’approche.\n\nAli Foster\, Abigail Graham\, et David Pearson (Université MacEwan) \nCette brève présentation met en évidence les expériences et les leçons tirées d’une refonte complète d’un site Web de bibliothèque de premier cycle axé sur l’amélioration de l’expérience utilisateur pour les étudiants de premier cycle. L’équipe du projet était composée de quatre employés : un graphiste\, un informaticien et deux bibliothécaires. Le principal défi auquel l’équipe a été confrontée était de développer un protocole d’expérience utilisateur (UX) qui privilégiait les perspectives des étudiants tout en obtenant le soutien du personnel de la bibliothèque pour les changements proposés à nos pratiques d’évaluation existantes. \nAvant le lancement du projet à l’automne 2023\, les efforts de refonte du site web précédents tenaient principalement compte des opinions du personnel et du corps professoral de la bibliothèque. Par conséquent\, l’architecture de l’information du site et le ton de la voix ont été signalés comme des domaines d’amélioration potentiels lors du processus de refonte. Cette préoccupation a été validée lorsque l’équipe a collaboré avec des étudiants de troisième année en anthropologie menant des études ethnographiques du site web de la bibliothèque. Dans les deux discussions avec les étudiants et dans leurs rapports formels\, il est devenu clair qu’ils ont trouvé le site web inaccessible\, déroutant et peu accueillant pour les étudiants. À cette fin\, l’équipe du projet a développé un protocole UX qui visait à prioriser les perspectives des étudiants ainsi que les meilleures pratiques en matière de conception web accessible et inclusive. \nCette présentation fournira un bref aperçu du projet\, des exemples clés d’outils d’expérience utilisateur axés sur les étudiants que nous avons appliqués\, ainsi que nos observations et leçons apprises alors que nous continuons à évaluer et à affiner le site web de la bibliothèque. \nRésultats d’apprentissage – Les participants : \n\nComprendre comment mettre en œuvre des pratiques d’expérience utilisateur axées sur les étudiants dans un projet de conception web\nEnvisager des méthodes pour encourager l’adhésion du personnel de la bibliothèque à la conception de sites web axés sur les étudiants\nIdentifier des moyens de collecter et de mettre en œuvre durablement les retours des étudiants sur une base continue\n\nJulie Jones\, Ali Moore\, Jennifer Zerkee\, et Adair Harper (Université Simon Fraser) \nLes praticiens de l’évaluation en bibliothèque peuvent intégrer les outils et techniques de dialogue pour faciliter des évaluations communautaires significatives et inclusives—avec les utilisateurs de la bibliothèque ainsi que les collègues de la bibliothèque. Cet atelier présentera la théorie\, les connaissances et les compétences pour faciliter le dialogue dans le travail d’évaluation des bibliothèques. \nLe dialogue peut être défini de nombreuses manières. C’est une méthode pour articuler les besoins\, les désirs et les hypothèses sous-jacentes dans des groupes qui rejette les dynamiques de pouvoir hiérarchiques et qui est axée sur la transformation. Il utilise des pratiques participatives pour organiser des conversations génératives\, être plus inclusif\, favoriser l’apprentissage mutuel\, centrer l’expertise vécue et exploiter la sagesse collective. Il « peut aider les groupes et les communautés à explorer respectueusement des questions polarisantes\, à aborder les conflits\, à délibérer sur le potentiel de problèmes complexes et bien plus encore » (Morris J. Wosk Centre for Dialogue\, Université Simon Fraser\, n.d.). Dans son livre de 1999\, Dialogue and the Art of Thinking Together\, William Issacs a succinctement et plutôt magnifiquement défini le dialogue comme « une conversation avec un centre\, pas des côtés » (p. 19). Williams a ensuite déclaré : « C’est une façon de prendre l’énergie de nos différences et de la canaliser vers quelque chose qui n’a jamais été créé auparavant. » Il nous élève hors de la polarisation et vers un sens commun plus grand\, et est ainsi un moyen d’accéder à l’intelligence et au pouvoir coordonné de groupes de personnes » (p. 19). \nLes participants à cet atelier apprendront comment le sous-groupe du plan d’instruction du Groupe de travail pour la formation et l’éducation en matière d’information (WGILI) de la bibliothèque SFU utilise des méthodes en dialogue pour évaluer les besoins de leurs collègues instructeurs et intégrer l’expertise vécue de leurs collègues dans le nouveau plan d’instruction de la Bibliothèque\, que le sous-groupe est en train de créer. Après une introduction à la théorie et au contexte SFU\, les participants seront invités à assumer le rôle de participants dans un dialogue structuré créé par le sous-groupe pour évaluer les besoins des instructeurs de bibliothèque à la bibliothèque SFU. Ce dialogue facilitera la connaissance co-construite\, le leadership distribué\, la pollinisation croisée des idées et la création de sens partagée et visible. \nAprès avoir expérimenté le dialogue structuré en tant que participants\, les participants seront invités à assumer le rôle de facilitateurs pendant que nous « tirons le rideau » et examinons et réfléchissons aux composantes\, à la conception et aux résultats du dialogue. Nous partagerons la théorie derrière les décisions prises et les actions entreprises et discuterons de la transférabilité des méthodes de facilitation utilisées\, en mettant l’accent sur l’application pratique des concepts et principes théoriques dans d’autres contextes d’évaluation de bibliothèques. Des modèles et des ressources de facilitation que les participants peuvent apporter dans leur pratique d’évaluation seront partagés. Nous discuterons également des avantages d’apporter des méthodes de dialogue et de facilitation dans le travail d’évaluation des bibliothèques. \nObjectifs d’apprentissage  \nÀ la fin de cet atelier\, les participants pourront : \n\nComprendre le dialogue comme une méthodologie.\nAppliquer des techniques de facilitation qui permettent le dialogue et favorisent des conversations significatives dans un cadre d’évaluation en bibliothèque.\nDévelopper des perspectives d’évaluation en utilisant des méthodes de facilitation et de dialogue.\n\nRéférences  \nIsaacs\, W. (1999). Le dialogue et l’art de penser ensemble : une approche pionnière pour communiquer dans les affaires et dans la vie (1ère éd). Monnaie. \nMorris J. Wosk Centre for Dialogue\, Université Simon Fraser (n.d.). Qu’est-ce que Dialogue ? Récupéré le 1 juin 2025\, de https://www.sfu.ca/dialogue/learn/what-is-dialogue.html \n\n\n					 9h00 – 10h30 – Dix projets d’évaluation récents que nous aimons\n									\nJustine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \nLe paysage de l’évaluation est en train de changer.  Il y a un changement continu vers une focalisation sur la valeur et l’impact\, une augmentation de l’évaluation qualitative et des méthodes mixtes\, ainsi que des explorations naissantes dans le rôle de l’intelligence artificielle générative dans l’évaluation. Dans notre environnement actuel\, il peut être difficile de suivre les nouvelles initiatives et développements – surtout avec un temps\, des ressources et/ou une technologie limités. \nDans cette session amusante et rythmée\, les présentateurs partageront leurs récents projets d’évaluation et pratiques\, ainsi que des pratiques innovantes dans d’autres bibliothèques. Bien que bon nombre des projets abordés dans la présentation proviennent de bibliothèques universitaires\, tous les projets peuvent être appliqués dans des milieux universitaires\, publics\, gouvernementaux et autres. De plus\, les exemples vont des projets et pratiques qui peuvent être réalisés avec des ressources limitées (temps\, argent\, technologie)\, aux exemples plus intensifs en ressources. \nLes projets et les pratiques présentés varieront en ce qui concerne l’objectif (collections\, espace\, instruction\, etc.)\, la méthodologie (point d’utilisation\, collections prédictives\, photo voice\, etc.)\, la période de temps (transversale\, longitudinale) et la portée de l’impact (individuel\, institutionnel\, sociétal). \nRésultats d’apprentissage : \nCette session s’adresse aux bibliothécaires qui souhaitent découvrir de nouvelles perspectives ou méthodologies dans le domaine de l’expérience utilisateur des bibliothèques\, de l’évaluation ou de la pratique de l’impact. L’objectif de la session est que les participants repartent avec une nouvelle approche de l’évaluation qu’ils peuvent appliquer dans leur bibliothèque. \nDu temps sera également accordé aux membres de l’auditoire pour partager leur propre initiative d’évaluation récente et passionnante. \n\n\n\n					 11h00 – 11h30 – Conférences éclair\n									\nAu-delà des bugs : Utiliser une fonctionnalité ‘Signaler un problème’ pour comprendre les attentes des utilisateurs (Université de Regina) \nEn février 2023\, l’Université de Regina a mis en place une fonctionnalité de signalement d’un problème dans son système de découverte. Depuis lors\, plus de 600 rapports ont été soumis\, et cela est devenu un canal de rétroaction essentiel. Grâce à ces rapports\, nous avons acquis un aperçu des aspects de l’expérience de recherche et de découverte que les clients trouvent déroutants\, contre-intuitifs ou frustrants. Ces rapports de problèmes soumis par les utilisateurs mettent fréquemment en évidence des incohérences entre la fonctionnalité du système et les besoins et hypothèses des utilisateurs. En analysant ces rapports\, nous avons pu mieux comprendre le comportement et les attentes des utilisateurs à l’égard du système de la bibliothèque et de la bibliothèque en général. Cette présentation éclair décrira comment ces rapports ont été analysés\, et les idées acquises grâce à ce processus. \nTests d’utilisabilité et d’accessibilité : Utilisation d’un protocole de réflexion à voix haute comme outil d’évaluation pour les systèmes de revues ouvertes – Caitlin Bakker & Christopher Read (Université de Regina) \nDans cette conférence éclair\, les présentateurs partageront leur expérience en matière de tests d’utilisabilité et d’accessibilité dans le cadre du lancement par l’Université de Regina des Proceedings of the Canadian Nuclear Society in Open Journal Systems (OJS). Cette présentation éclair se concentrera sur les meilleures pratiques et les points à retenir de l’utilisation d’un protocole de réflexion à voix haute pour évaluer la collection et sa fonctionnalité de recherche. L’objectif principal de ces tests était de permettre à diverses communautés d’utilisateurs de s’engager dans une recherche efficace d’informations\, qu’ils accèdent au système via des ordinateurs de bureau ou des appareils mobiles. La session couvrira les aspects pratiques de la méthodologie de test\, tels que le travail avec un stage en bibliothèque à distance. Les participants peuvent s’attendre à en apprendre davantage sur des techniques spécifiques de test d’utilisabilité\, y compris les invites\, les lecteurs d’écran\, l’enregistrement et d’autres aspects du test think aloud\, et comment ils peuvent fournir un aperçu critique pour améliorer la conception du système et la satisfaction des utilisateurs. \nDemander à Chat à propos de LibrarySearch – Susan Bond (Université de Toronto) \nÀ l’Université de Toronto\, nous avons ajouté ces dernières années notre outil d’aide par chat intégré à notre couche de découverte – Ex Libris Primo VE\, que nous avons étiqueté localement comme LibrarySearch. Parce que LibrarySearch est un outil en libre-service\, chaque discussion lancée représente un point de repère potentiel – c’est une façon pour les utilisateurs de nous faire savoir qu’ils ne sont pas capables de se servir. Début 2025\, nous avons entrepris une évaluation exploratoire en examinant les transcriptions de chat d’un mois\, pour voir ce que nous pouvions découvrir sur les défis dans notre interface\, les lacunes dans notre documentation et les problèmes avec nos ressources. Nos conclusions comprenaient des preuves en faveur des changements sur lesquels nous travaillions déjà\, certaines victoires rapides et certaines choses auxquelles nous devrons réfléchir davantage avant de pouvoir les aborder. Dans cette présentation éclair\, nous examinerons nos conclusions spécifiques sur notre interface utilisateur\, notre document de support et la dotation en personnel de notre support de chat\, et aborderons ce que nous avons appris sur notre codage/évaluation et comment nous allons le changer à l’avenir. \n\n\n\n					 13h00 – 13h20– Évaluation de l’efficacité pédagogique des simulations en classe dans le cadre d’un partenariat avec professeurs\n									\nMichelle Goodridge (Université Wilfrid Laurier) \nEn 2017\, un partenariat bibliothécaire-faculté a conduit à la création d’une simulation en classe pour un cours de première année de premier cycle sur les droits humains mondiaux. Les étudiants ont assumé des rôles représentant des acteurs mondiaux (par exemple\, des États-nations et des ONG) pour répondre à une crise simulée dans le meilleur intérêt de leur propre rôle\, ce qui a conduit à développer des compétences en recherche\, évaluation et pensée critique dans un environnement d’apprentissage actif. Une étude de recherche à méthodes mixtes a évalué l’impact de la simulation\, combinant des données qualitatives issues de réflexions et d’observations avec une analyse quantitative basée sur les critères. Cette session présentera le design de la simulation\, les stratégies d’évaluation et les principales conclusions\, en démontrant comment l’apprentissage par le jeu peut améliorer de manière significative l’engagement et le développement des compétences des étudiants. Les participants auront un aperçu de l’application de ces méthodes dans d’autres contextes pédagogiques et de l’utilisation des données pour plaider en faveur d’une collaboration plus approfondie entre professeurs et bibliothécaires. \n\n\n\n					 13h25 – 13h45 – Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information.\n									\nAmy McLay Paterson (Université Thompson Rivers) \nEn 2023-2024\, les bibliothécaires de l’Université Thompson Rivers ont développé un programme pilote pour transformer un programme de littératie informationnelle principalement monocouche en un programme structuré et intégré. Le projet pilote d’enseignement en bibliothèque de l’anglais 1100 (ELIP) a été développé comme une collaboration entre la bibliothèque et le département d’anglais au printemps 2023 dans le but d’élargir l’enseignement en bibliothèque pour soutenir la réussite des étudiants et leur appartenance. Plutôt que de participer à la session unique habituelle\, les étudiants ELIP désignés participeront à une série de trois tutoriels hebdomadaires pour la bibliothèque. Le projet ELIP s’est déroulé tout au long de l’année académique 2023-24\, période durant laquelle nous avons collecté des données d’affectation des étudiants\, des retours des étudiants\, des retours du corps professoral et des entrées de journal réfléchies des participants bibliothécaires pour déterminer l’efficacité et la durabilité du programme. \nLes lacunes des sessions de littératie informationnelle ponctuelles sont répandues et bien documentées dans notre profession. Nicole Pagowsky déclare que « le one-shot—même s’il y en a plus d’un — rend difficile d’atteindre un apprentissage plus profond\, une pensée critique et une pédagogie inclusive » (2021\, 2). Cependant\, notre approche du projet pilote—ni un cours en une seule fois ni un cours à crédit — est unique dans la littérature établie. \n\nLe programme ELIP a-t-il aidé les étudiants à réussir leurs cours d’anglais associés ?\nUne instruction plus intégrée aide-t-elle à renforcer les relations entre la bibliothèque et la communauté de l’UTR ?\nComment pouvons-nous améliorer nos pratiques d’enseignement pour mieux répondre aux besoins des étudiants ?\n\nSelon chacun de ces indicateurs\, le programme ELIP a amélioré les résultats par rapport au one-shot habituel. Les résultats du sondage auprès des professeurs sont très positifs\, et les instructeurs bibliothécaires ont tous observé la profondeur de l’engagement des étudiants et la construction de relations positives. Cette relation plus étroite avec les étudiants a également abouti à des améliorations tangibles de nos pratiques pédagogiques et des objets d’apprentissage existants. Ma présentation présentera le programme ELIP\, y compris la justification de sa conception; présenter les différentes méthodes d’évaluation que nous avons utilisées ; et discuter de nos résultats et des prochaines étapes. Des supports de cours\, ainsi que des outils d’évaluation (tels que des sondages et des formulaires de consentement) seront mis à la disposition des participants intéressés. \nObjectifs d’apprentissage \nLes participants à cette session pourront : \n\nReconnaître les avantages et les limites d’une myriade de méthodes d’évaluation de la littératie informationnelle.\nConsidérez comment les objectifs de l’enseignement de la littératie informationnelle affectent la conception et l’évaluation des programmes.\nArticuler une variété de mesures du succès de la littératie informationnelle à utiliser dans les communications et discussions internes et externes.\n\n\n\n\n					 13h50 – 14h10 – Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques\n									\nRong Luo\, Shuzhen Zhao\, et Karen Pillon (University of Windsor) \nÀ mesure que l’enseignement de la littératie informationnelle (LI) continue d’évoluer dans les bibliothèques universitaires\, les pratiques d’évaluation doivent suivre le rythme pour garantir des résultats significatifs. Cette session explore l’efficacité de la formation en LI en présentant une étude menée à l’Université de Windsor qui évalue les compétences en LI perçues et démontrées chez les étudiants diplômés de la Faculté des arts\, des sciences humaines et des sciences sociales (FAHSS). Fondée sur le cadre de l’ACRL pour la littératie informationnelle dans l’enseignement supérieur et utilisant une version modifiée du test Beile de littératie informationnelle pour l’éducation (B-TILED)\, l’étude souligne comment les outils d’analyse et d’évaluation structurée peuvent informer\, améliorer et valider les programmes d’instruction de la bibliothèque. \nLa formation à l’LI prend diverses formes\, des séances en classe aux activités d’orientation et aux consultations individuelles\, mais son efficacité passe souvent inaperçue. En comparant les étudiants qui ont reçu un enseignement formel de l’LI avec ceux qui ne l’ont pas reçu\, cette session révèle si la formation est corrélée avec des compétences de recherche plus solides et une confiance accrue dans la navigation des ressources académiques. \nLes participants découvriront une approche d’évaluation flexible et évolutive utilisant B-TILED\, qui combine des données démographiques\, l’auto-évaluation des capacités de recherche et des tests de connaissances objectifs. La session discute également des considérations pratiques pour la conception\, la mise en œuvre et l’analyse de l’enquête à l’aide de SPSS ou de plateformes similaires. \nObjectifs d’apprentissage : À la fin de cette session\, les participants seront en mesure de : \n\nDécrivez comment les outils d’évaluation de la littératie informationnelle peuvent être intégrés dans les programmes d’enseignement des bibliothèques universitaires.\nIdentifiez les composants clés du cadre B-TILED et comprenez comment l’adapter à différents contextes de bibliothèque.\nAnalyser et interpréter la relation entre l’aptitude à la recherche perçue de soi et les compétences en LI mesurées objectivement.\nAppliquer des stratégies d’analyse quantitative de base pour évaluer l’impact de la formation en bibliothèque à l’aide de plateformes analytiques.\nÉlaborer des stratégies fondées sur des données probantes pour améliorer et justifier les efforts d’enseignement de l’LI en réponse aux besoins d’apprentissage des étudiants et aux objectifs institutionnels.\n\n\n\n\n					 14h10 – 14h30 – Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail\n									\nSarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill) \nDepuis plus de 20 ans\, les bibliothèques numérisent et fournissent un accès en ligne à leurs collections pour mieux servir la recherche\, l’enseignement et les objectifs créatifs des universitaires et des non-universitaires. La nature ouverte et en ligne de la plupart des collections numérisées par les bibliothèques a aidé à faciliter l’accès pour de nouveaux publics; cependant\, cette ouverture signifie également que les bibliothèques connaissent comparativement peu ceux qui utilisent ces ressources\, ce qui rend ces ressources difficiles à évaluer pour les bibliothèques. Si vous ne savez pas qui sont vos utilisateurs\, comment pouvez-vous les connaître ? \nLa recherche sur l’expérience utilisateur a gagné en popularité et est largement acceptée dans les bibliothèques comme un ensemble standard de techniques pour évaluer les services et les interfaces des bibliothèques\, et les plateformes de collections numériques ne font pas exception ici. Cependant\, une grande partie de la recherche sur l’expérience utilisateur menée dans le but d’évaluer les programmes et plateformes de collections numériques se limite aux affiliés institutionnels et ne concerne que la plateforme de collections numériques elle-même\, négligeant les questions sur la façon dont les utilisateurs trouvent ces collections en premier lieu ainsi que comment ils les utilisent dans leurs recherches. \nCette présentation rend compte d’une étude à méthodes mixtes menée dans le but d’élargir nos horizons sur qui sont les utilisateurs des collections numériques et comment ils utilisent les ressources numérisées des bibliothèques dans leurs recherches. Notre étude a utilisé des enquêtes anonymes et des entretiens qualitatifs pour atteindre un équilibre entre l’ampleur de la participation et la profondeur des réponses. Reconnaissant la nature ouverte de nos collections numériques\, nous avons inclus des chercheurs académiques indépendamment du lieu ou de l’affiliation institutionnelle\, ainsi que des chercheurs non académiques comme les journalistes\, les artistes\, les blogueurs et les historiens publics. Notre étude a posé trois questions de recherche principales : Qui utilise les collections numérisées des bibliothèques ? Comment les trouvent-ils ? Et enfin\, comment les utilisent-ils dans leurs recherches ? \nDans cette présentation\, nous nous concentrerons sur les méthodes que nous avons utilisées pour cette étude\, leurs résultats et ce que nous avons appris de ce processus. Nous discuterons de l’importance d’utiliser plusieurs types de techniques de recherche pour l’évaluation dans le contexte de la recherche sur l’expérience utilisateur\, et en particulier de ce que ce type de recherche à méthodes mixtes peut contribuer à la suite d’outils de recherche sur l’expérience utilisateur. Les participants apprendront les points forts de la recherche à méthodes mixtes\, comment les techniques de recherche exploratoire peuvent être utilisées pour compléter et améliorer d’autres données évaluatives\, comme les études d’utilisabilité et l’analyse web\, qui peuvent être collectées pour l’évaluation des bibliothèques\, et comment appliquer ces techniques pour répondre à de grandes questions en matière d’expérience utilisateur et d’évaluation des services de bibliothèque. \n\n\n\n					 14h45 – 15h05 – Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs\n									\nJody Nelson & Alison Pitcher (Université MacEwan) \nNotre session présentera le programme d’évaluation de l’enseignement de la littératie informationnelle [LI] dirigé par des pairs que nous facilitons pour les bibliothécaires dans notre université de premier cycle\, y compris l’impulsion\, le développement\, la fondation théorique\, la structure et l’impact. Nous partagerons des observations sur la façon dont le programme contribue à notre compréhension de la pratique d’enseignement réflexif comme étant au cœur de l’évaluation pédagogique et du développement d’une communauté plus cohésive de pratiques pédagogiques parmi les bibliothécaires enseignants impliqués dans le programme. \nNotre programme de mentorat réfléchi entre pairs dans l’enseignement des triangles remplit le mandat de la bibliothèque pour développer des pratiques durables d’évaluation de l’enseignement de l’LI en harmonie avec le plan stratégique de notre université\, Teaching Greatness. Adoptant une approche d’évaluation centrée sur l’étudiant et fondée sur le cadre d’évaluation critique de l’enseignement en bibliothèque développé par McCartin & Dineen (2018)\, notre programme d’évaluation critique de l’LI promeut l’évaluation intentionnelle et continue de l’enseignement cultivée à travers la pratique réflexive. En nous attribuant le travail d’évaluation et d’amélioration en tant qu’enseignants\, nous transférons la charge de l’évaluation (c’est-à-dire remplir des formulaires de retour ou des instruments de mesure) sur les étudiants. \nEn construisant la participation de longue date de notre bibliothèque dans l’enseignement des triangles d’observation et du mentorat pédagogique LI\, notre programme offre des opportunités d’évaluation continue de l’enseignement en combinaison avec un mentorat ciblé par les pairs. Les participants au programme forment des triangles de mentorat par les pairs qui se rencontrent plusieurs fois au cours d’un trimestre académique. Les participants individuels identifient les éléments d’enseignement prioritaires (c.-à-d. le contenu\, l’accessibilité\, les interactions avec les étudiants) au sujet desquels ils aimeraient recevoir des commentaires constructifs; les observateurs pairs adoptent une approche basée sur les points forts\, partageant des retours positifs ainsi que toute suggestion utile pour l’amélioration dans les domaines pré-identifiés. En tant que membres d’une triade de co-mentorat\, les participants visent à favoriser l’excellence dans l’enseignement tout en apprenant les uns des autres\, en collectant des idées pour améliorer les expériences d’apprentissage des étudiants lorsqu’ils s’observent mutuellement. Pour les bibliothécaires en début de carrière en particulier\, l’aspect co-mentorat crée un environnement sûr pour développer la compétence d’enseignement et la confiance. Ce programme permet non seulement une évaluation significative de l’enseignement\, mais offre également aux participants la possibilité de favoriser une pratique réflexive individuelle de manière continue\, soutenue et relationnelle (Lewitzky\, 2020). \nSuite à notre session\, les participants repartiront avec une compréhension de :● La valeur de l’observation relationnelle par les pairs pour l’évaluation de l’enseignement● Le rôle de la pratique pédagogique réflexive pour une amélioration soutenue et continue● Comment notre programme est géré afin qu’il puisse être adapté pour les institutions participantes \nRéférences :Lewitzky\, R.A. (2020). Éduquer\, apprendre et grandir : Une revue du rôle d’enseignement dans la bibliothéconomie académique. Bibliothèques universitaires et de premier cycle\, 27(1)\, 32-40. \nMcCartin\, L. F.\, & Dineen\, R. (2018). Vers une pratique d’évaluation critique et inclusive pour l’enseignement en bibliothèque. Litwin Books. \n\n\n\n					 15h10 – 15h40 – Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections\n									\nErin Calhoun (Université de Toronto) \nLes développements dans l’édition en libre accès\, les modèles d’affaires et les politiques de financement ont amené les communications savantes au sein du travail de développement des collections. De plus en plus\, les fonds pour le développement des collections des bibliothèques sont réaffectés pour couvrir les frais d’édition grâce à des accords transitoires de lecture et de publication. Ce changement s’accompagne d’un besoin pressant de nouveaux cadres d’évaluation – ceux qui vont au-delà des statistiques traditionnelles sur l’utilisation des ressources électroniques pour mesurer la production de publications et l’investissement financier. Les bibliothèques doivent développer des capacités pour recueillir et analyser les données de publication institutionnelle afin d’éclairer les décisions relatives au développement des collections. \nCependant\, évaluer la publication en libre accès n’est pas simple. Les données de publication en libre accès sont souvent présentées dans des formats incohérents et dispersées dans les rapports bibliométriques et ceux des éditeurs\, ce qui entrave l’analyse agrégée. Pour relever ce défi\, les bibliothèques de l’Université de Toronto ont lancé un projet pilote visant à rationaliser la collecte\, le nettoyage et la visualisation des données de publication en libre accès. \nLa courte session partagera des idées tirées du projet pilote\, qui comprend la collecte de rapports sur les données de publication provenant de plusieurs accords d’accès libre\, la normalisation des données dans un modèle unifié\, et construire un tableau de bord interactif pour visualiser l’activité éditoriale et les contributions financières de l’université dans l’édition en libre accès. Le projet a d’abord exploré des solutions basées sur la programmation pour le nettoyage des données\, mais a finalement adopté KNIME – une plateforme open source à faible code – pour gérer les tâches complexes de nettoyage des données de manière évolutive et accessible. \nÀ partir de cette présentation\, les participants : \n\nAcquérir des connaissances sur la façon de suivre et de visualiser la publication en libre accès dans leur établissement\nComprendre les défis liés à la collecte de données sur les publications et les stratégies de collecte de grands ensembles de données non standardisés\nIdentifier des outils\, des outils et des solutions à faible code\, tels que Knime\, pour travailler avec de grands ensembles de données complexes\n\nCette présentation sera utile pour ceux qui s’intéressent aux nouvelles méthodes d’évaluation et sources de données\, aux outils d’analyse des données et à ceux qui cherchent à commencer à travailler avec des données de publication en accès libre. \n\n\n\n					 15h45 – 16h05– « Surprenez-moi ! » : Ce qu’une enquête menée auprès d’une communauté d’utilisateurs a révélé à propos d’une collection imprimée\n									\nZe’ev Schneider (Bibliothèque du Parlement) \nLes riches collections de la Bibliothèque du Parlement (la Bibliothèque)\, développées au fil de nombreuses décennies\, sont essentielles à sa mission de contribuer à la démocratie parlementaire canadienne en « gérant et en fournissant des informations et des connaissances fiables\, pertinentes et faisant autorité ». Les collections sont réparties entre plusieurs sections de la Cité parlementaire ainsi qu’une installation d’entreposage hors site. \nDe plus\, une succursale libre-service destinée principalement aux chercheurs de la bibliothèque offre un accès sur place à une collection d’imprimés. Une récente évaluation complète de cette collection a permis de dégager suffisamment d’espace sur les étagères pour de nouvelles acquisitions. En réfléchissant à la façon de développer cette collection et de gérer l’espace\, nous avons réfléchi au rôle actuel et à la valeur de l’impression sur place pour les spécialistes du sujet dans leur travail et leurs recherches\, leur développement professionnel et leur lecture loisir. Ce processus a conduit à la création du sondage utilisateur couvert dans cette présentation. \nDans cette session\, je présenterai l’enquête de la conception aux résultats. \nLa présentation comprendra : \n\nUne introduction à la Bibliothèque du Parlement (le nouveau membre de l’ABRC!)\, y compris ses collections et ses utilisateurs\nÉtapes et itérations dans la conception de l’enquête\nObjectifs de l’enquête\, résultats et résultats prévus\n\nObjectifs d’apprentissage \nLes participants à la conférence apprendront sur \n\nConsidérations lors de la création d’une enquête ciblée pour un groupe d’utilisateurs local\nLes idées glanées à partir des résultats de l’enquête\, y compris l’expérience des répondants sur la collection d’imprimés et l’espace ; et les différences entre les chercheurs plus récents et plus chevronnés dans leur connaissance et leurs préférences pour l’impression sur site\nDéfis et leçons apprises\n\n\nJustine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) \nLe paysage de l’évaluation est en train de changer.  Il y a un changement continu vers une focalisation sur la valeur et l’impact\, une augmentation de l’évaluation qualitative et des méthodes mixtes\, ainsi que des explorations naissantes dans le rôle de l’intelligence artificielle générative dans l’évaluation. Dans notre environnement actuel\, il peut être difficile de suivre les nouvelles initiatives et développements – surtout avec un temps\, des ressources et/ou une technologie limités. \nDans cette session amusante et rythmée\, les présentateurs partageront leurs récents projets d’évaluation et pratiques\, ainsi que des pratiques innovantes dans d’autres bibliothèques. Bien que bon nombre des projets abordés dans la présentation proviennent de bibliothèques universitaires\, tous les projets peuvent être appliqués dans des milieux universitaires\, publics\, gouvernementaux et autres. De plus\, les exemples vont des projets et pratiques qui peuvent être réalisés avec des ressources limitées (temps\, argent\, technologie)\, aux exemples plus intensifs en ressources. \nLes projets et les pratiques présentés varieront en ce qui concerne l’objectif (collections\, espace\, instruction\, etc.)\, la méthodologie (point d’utilisation\, collections prédictives\, photo voice\, etc.)\, la période de temps (transversale\, longitudinale) et la portée de l’impact (individuel\, institutionnel\, sociétal). \nRésultats d’apprentissage : \nCette session s’adresse aux bibliothécaires qui souhaitent découvrir de nouvelles perspectives ou méthodologies dans le domaine de l’expérience utilisateur des bibliothèques\, de l’évaluation ou de la pratique de l’impact. L’objectif de la session est que les participants repartent avec une nouvelle approche de l’évaluation qu’ils peuvent appliquer dans leur bibliothèque. \nDu temps sera également accordé aux membres de l’auditoire pour partager leur propre initiative d’évaluation récente et passionnante. \nAu-delà des bugs : Utiliser une fonctionnalité ‘Signaler un problème’ pour comprendre les attentes des utilisateurs (Université de Regina) \nEn février 2023\, l’Université de Regina a mis en place une fonctionnalité de signalement d’un problème dans son système de découverte. Depuis lors\, plus de 600 rapports ont été soumis\, et cela est devenu un canal de rétroaction essentiel. Grâce à ces rapports\, nous avons acquis un aperçu des aspects de l’expérience de recherche et de découverte que les clients trouvent déroutants\, contre-intuitifs ou frustrants. Ces rapports de problèmes soumis par les utilisateurs mettent fréquemment en évidence des incohérences entre la fonctionnalité du système et les besoins et hypothèses des utilisateurs. En analysant ces rapports\, nous avons pu mieux comprendre le comportement et les attentes des utilisateurs à l’égard du système de la bibliothèque et de la bibliothèque en général. Cette présentation éclair décrira comment ces rapports ont été analysés\, et les idées acquises grâce à ce processus. \nTests d’utilisabilité et d’accessibilité : Utilisation d’un protocole de réflexion à voix haute comme outil d’évaluation pour les systèmes de revues ouvertes – Caitlin Bakker & Christopher Read (Université de Regina) \nDans cette conférence éclair\, les présentateurs partageront leur expérience en matière de tests d’utilisabilité et d’accessibilité dans le cadre du lancement par l’Université de Regina des Proceedings of the Canadian Nuclear Society in Open Journal Systems (OJS). Cette présentation éclair se concentrera sur les meilleures pratiques et les points à retenir de l’utilisation d’un protocole de réflexion à voix haute pour évaluer la collection et sa fonctionnalité de recherche. L’objectif principal de ces tests était de permettre à diverses communautés d’utilisateurs de s’engager dans une recherche efficace d’informations\, qu’ils accèdent au système via des ordinateurs de bureau ou des appareils mobiles. La session couvrira les aspects pratiques de la méthodologie de test\, tels que le travail avec un stage en bibliothèque à distance. Les participants peuvent s’attendre à en apprendre davantage sur des techniques spécifiques de test d’utilisabilité\, y compris les invites\, les lecteurs d’écran\, l’enregistrement et d’autres aspects du test think aloud\, et comment ils peuvent fournir un aperçu critique pour améliorer la conception du système et la satisfaction des utilisateurs. \nDemander à Chat à propos de LibrarySearch – Susan Bond (Université de Toronto) \nÀ l’Université de Toronto\, nous avons ajouté ces dernières années notre outil d’aide par chat intégré à notre couche de découverte – Ex Libris Primo VE\, que nous avons étiqueté localement comme LibrarySearch. Parce que LibrarySearch est un outil en libre-service\, chaque discussion lancée représente un point de repère potentiel – c’est une façon pour les utilisateurs de nous faire savoir qu’ils ne sont pas capables de se servir. Début 2025\, nous avons entrepris une évaluation exploratoire en examinant les transcriptions de chat d’un mois\, pour voir ce que nous pouvions découvrir sur les défis dans notre interface\, les lacunes dans notre documentation et les problèmes avec nos ressources. Nos conclusions comprenaient des preuves en faveur des changements sur lesquels nous travaillions déjà\, certaines victoires rapides et certaines choses auxquelles nous devrons réfléchir davantage avant de pouvoir les aborder. Dans cette présentation éclair\, nous examinerons nos conclusions spécifiques sur notre interface utilisateur\, notre document de support et la dotation en personnel de notre support de chat\, et aborderons ce que nous avons appris sur notre codage/évaluation et comment nous allons le changer à l’avenir. \nMichelle Goodridge (Université Wilfrid Laurier) \nEn 2017\, un partenariat bibliothécaire-faculté a conduit à la création d’une simulation en classe pour un cours de première année de premier cycle sur les droits humains mondiaux. Les étudiants ont assumé des rôles représentant des acteurs mondiaux (par exemple\, des États-nations et des ONG) pour répondre à une crise simulée dans le meilleur intérêt de leur propre rôle\, ce qui a conduit à développer des compétences en recherche\, évaluation et pensée critique dans un environnement d’apprentissage actif. Une étude de recherche à méthodes mixtes a évalué l’impact de la simulation\, combinant des données qualitatives issues de réflexions et d’observations avec une analyse quantitative basée sur les critères. Cette session présentera le design de la simulation\, les stratégies d’évaluation et les principales conclusions\, en démontrant comment l’apprentissage par le jeu peut améliorer de manière significative l’engagement et le développement des compétences des étudiants. Les participants auront un aperçu de l’application de ces méthodes dans d’autres contextes pédagogiques et de l’utilisation des données pour plaider en faveur d’une collaboration plus approfondie entre professeurs et bibliothécaires. \nAmy McLay Paterson (Université Thompson Rivers) \nEn 2023-2024\, les bibliothécaires de l’Université Thompson Rivers ont développé un programme pilote pour transformer un programme de littératie informationnelle principalement monocouche en un programme structuré et intégré. Le projet pilote d’enseignement en bibliothèque de l’anglais 1100 (ELIP) a été développé comme une collaboration entre la bibliothèque et le département d’anglais au printemps 2023 dans le but d’élargir l’enseignement en bibliothèque pour soutenir la réussite des étudiants et leur appartenance. Plutôt que de participer à la session unique habituelle\, les étudiants ELIP désignés participeront à une série de trois tutoriels hebdomadaires pour la bibliothèque. Le projet ELIP s’est déroulé tout au long de l’année académique 2023-24\, période durant laquelle nous avons collecté des données d’affectation des étudiants\, des retours des étudiants\, des retours du corps professoral et des entrées de journal réfléchies des participants bibliothécaires pour déterminer l’efficacité et la durabilité du programme. \nLes lacunes des sessions de littératie informationnelle ponctuelles sont répandues et bien documentées dans notre profession. Nicole Pagowsky déclare que « le one-shot—même s’il y en a plus d’un — rend difficile d’atteindre un apprentissage plus profond\, une pensée critique et une pédagogie inclusive » (2021\, 2). Cependant\, notre approche du projet pilote—ni un cours en une seule fois ni un cours à crédit — est unique dans la littérature établie. \n\nLe programme ELIP a-t-il aidé les étudiants à réussir leurs cours d’anglais associés ?\nUne instruction plus intégrée aide-t-elle à renforcer les relations entre la bibliothèque et la communauté de l’UTR ?\nComment pouvons-nous améliorer nos pratiques d’enseignement pour mieux répondre aux besoins des étudiants ?\n\nSelon chacun de ces indicateurs\, le programme ELIP a amélioré les résultats par rapport au one-shot habituel. Les résultats du sondage auprès des professeurs sont très positifs\, et les instructeurs bibliothécaires ont tous observé la profondeur de l’engagement des étudiants et la construction de relations positives. Cette relation plus étroite avec les étudiants a également abouti à des améliorations tangibles de nos pratiques pédagogiques et des objets d’apprentissage existants. Ma présentation présentera le programme ELIP\, y compris la justification de sa conception; présenter les différentes méthodes d’évaluation que nous avons utilisées ; et discuter de nos résultats et des prochaines étapes. Des supports de cours\, ainsi que des outils d’évaluation (tels que des sondages et des formulaires de consentement) seront mis à la disposition des participants intéressés. \nObjectifs d’apprentissage \nLes participants à cette session pourront : \n\nReconnaître les avantages et les limites d’une myriade de méthodes d’évaluation de la littératie informationnelle.\nConsidérez comment les objectifs de l’enseignement de la littératie informationnelle affectent la conception et l’évaluation des programmes.\nArticuler une variété de mesures du succès de la littératie informationnelle à utiliser dans les communications et discussions internes et externes.\n\nRong Luo\, Shuzhen Zhao\, et Karen Pillon (University of Windsor) \nÀ mesure que l’enseignement de la littératie informationnelle (LI) continue d’évoluer dans les bibliothèques universitaires\, les pratiques d’évaluation doivent suivre le rythme pour garantir des résultats significatifs. Cette session explore l’efficacité de la formation en LI en présentant une étude menée à l’Université de Windsor qui évalue les compétences en LI perçues et démontrées chez les étudiants diplômés de la Faculté des arts\, des sciences humaines et des sciences sociales (FAHSS). Fondée sur le cadre de l’ACRL pour la littératie informationnelle dans l’enseignement supérieur et utilisant une version modifiée du test Beile de littératie informationnelle pour l’éducation (B-TILED)\, l’étude souligne comment les outils d’analyse et d’évaluation structurée peuvent informer\, améliorer et valider les programmes d’instruction de la bibliothèque. \nLa formation à l’LI prend diverses formes\, des séances en classe aux activités d’orientation et aux consultations individuelles\, mais son efficacité passe souvent inaperçue. En comparant les étudiants qui ont reçu un enseignement formel de l’LI avec ceux qui ne l’ont pas reçu\, cette session révèle si la formation est corrélée avec des compétences de recherche plus solides et une confiance accrue dans la navigation des ressources académiques. \nLes participants découvriront une approche d’évaluation flexible et évolutive utilisant B-TILED\, qui combine des données démographiques\, l’auto-évaluation des capacités de recherche et des tests de connaissances objectifs. La session discute également des considérations pratiques pour la conception\, la mise en œuvre et l’analyse de l’enquête à l’aide de SPSS ou de plateformes similaires. \nObjectifs d’apprentissage : À la fin de cette session\, les participants seront en mesure de : \n\nDécrivez comment les outils d’évaluation de la littératie informationnelle peuvent être intégrés dans les programmes d’enseignement des bibliothèques universitaires.\nIdentifiez les composants clés du cadre B-TILED et comprenez comment l’adapter à différents contextes de bibliothèque.\nAnalyser et interpréter la relation entre l’aptitude à la recherche perçue de soi et les compétences en LI mesurées objectivement.\nAppliquer des stratégies d’analyse quantitative de base pour évaluer l’impact de la formation en bibliothèque à l’aide de plateformes analytiques.\nÉlaborer des stratégies fondées sur des données probantes pour améliorer et justifier les efforts d’enseignement de l’LI en réponse aux besoins d’apprentissage des étudiants et aux objectifs institutionnels.\n\nSarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill) \nDepuis plus de 20 ans\, les bibliothèques numérisent et fournissent un accès en ligne à leurs collections pour mieux servir la recherche\, l’enseignement et les objectifs créatifs des universitaires et des non-universitaires. La nature ouverte et en ligne de la plupart des collections numérisées par les bibliothèques a aidé à faciliter l’accès pour de nouveaux publics; cependant\, cette ouverture signifie également que les bibliothèques connaissent comparativement peu ceux qui utilisent ces ressources\, ce qui rend ces ressources difficiles à évaluer pour les bibliothèques. Si vous ne savez pas qui sont vos utilisateurs\, comment pouvez-vous les connaître ? \nLa recherche sur l’expérience utilisateur a gagné en popularité et est largement acceptée dans les bibliothèques comme un ensemble standard de techniques pour évaluer les services et les interfaces des bibliothèques\, et les plateformes de collections numériques ne font pas exception ici. Cependant\, une grande partie de la recherche sur l’expérience utilisateur menée dans le but d’évaluer les programmes et plateformes de collections numériques se limite aux affiliés institutionnels et ne concerne que la plateforme de collections numériques elle-même\, négligeant les questions sur la façon dont les utilisateurs trouvent ces collections en premier lieu ainsi que comment ils les utilisent dans leurs recherches. \nCette présentation rend compte d’une étude à méthodes mixtes menée dans le but d’élargir nos horizons sur qui sont les utilisateurs des collections numériques et comment ils utilisent les ressources numérisées des bibliothèques dans leurs recherches. Notre étude a utilisé des enquêtes anonymes et des entretiens qualitatifs pour atteindre un équilibre entre l’ampleur de la participation et la profondeur des réponses. Reconnaissant la nature ouverte de nos collections numériques\, nous avons inclus des chercheurs académiques indépendamment du lieu ou de l’affiliation institutionnelle\, ainsi que des chercheurs non académiques comme les journalistes\, les artistes\, les blogueurs et les historiens publics. Notre étude a posé trois questions de recherche principales : Qui utilise les collections numérisées des bibliothèques ? Comment les trouvent-ils ? Et enfin\, comment les utilisent-ils dans leurs recherches ? \nDans cette présentation\, nous nous concentrerons sur les méthodes que nous avons utilisées pour cette étude\, leurs résultats et ce que nous avons appris de ce processus. Nous discuterons de l’importance d’utiliser plusieurs types de techniques de recherche pour l’évaluation dans le contexte de la recherche sur l’expérience utilisateur\, et en particulier de ce que ce type de recherche à méthodes mixtes peut contribuer à la suite d’outils de recherche sur l’expérience utilisateur. Les participants apprendront les points forts de la recherche à méthodes mixtes\, comment les techniques de recherche exploratoire peuvent être utilisées pour compléter et améliorer d’autres données évaluatives\, comme les études d’utilisabilité et l’analyse web\, qui peuvent être collectées pour l’évaluation des bibliothèques\, et comment appliquer ces techniques pour répondre à de grandes questions en matière d’expérience utilisateur et d’évaluation des services de bibliothèque. \nJody Nelson & Alison Pitcher (Université MacEwan) \nNotre session présentera le programme d’évaluation de l’enseignement de la littératie informationnelle [LI] dirigé par des pairs que nous facilitons pour les bibliothécaires dans notre université de premier cycle\, y compris l’impulsion\, le développement\, la fondation théorique\, la structure et l’impact. Nous partagerons des observations sur la façon dont le programme contribue à notre compréhension de la pratique d’enseignement réflexif comme étant au cœur de l’évaluation pédagogique et du développement d’une communauté plus cohésive de pratiques pédagogiques parmi les bibliothécaires enseignants impliqués dans le programme. \nNotre programme de mentorat réfléchi entre pairs dans l’enseignement des triangles remplit le mandat de la bibliothèque pour développer des pratiques durables d’évaluation de l’enseignement de l’LI en harmonie avec le plan stratégique de notre université\, Teaching Greatness. Adoptant une approche d’évaluation centrée sur l’étudiant et fondée sur le cadre d’évaluation critique de l’enseignement en bibliothèque développé par McCartin & Dineen (2018)\, notre programme d’évaluation critique de l’LI promeut l’évaluation intentionnelle et continue de l’enseignement cultivée à travers la pratique réflexive. En nous attribuant le travail d’évaluation et d’amélioration en tant qu’enseignants\, nous transférons la charge de l’évaluation (c’est-à-dire remplir des formulaires de retour ou des instruments de mesure) sur les étudiants. \nEn construisant la participation de longue date de notre bibliothèque dans l’enseignement des triangles d’observation et du mentorat pédagogique LI\, notre programme offre des opportunités d’évaluation continue de l’enseignement en combinaison avec un mentorat ciblé par les pairs. Les participants au programme forment des triangles de mentorat par les pairs qui se rencontrent plusieurs fois au cours d’un trimestre académique. Les participants individuels identifient les éléments d’enseignement prioritaires (c.-à-d. le contenu\, l’accessibilité\, les interactions avec les étudiants) au sujet desquels ils aimeraient recevoir des commentaires constructifs; les observateurs pairs adoptent une approche basée sur les points forts\, partageant des retours positifs ainsi que toute suggestion utile pour l’amélioration dans les domaines pré-identifiés. En tant que membres d’une triade de co-mentorat\, les participants visent à favoriser l’excellence dans l’enseignement tout en apprenant les uns des autres\, en collectant des idées pour améliorer les expériences d’apprentissage des étudiants lorsqu’ils s’observent mutuellement. Pour les bibliothécaires en début de carrière en particulier\, l’aspect co-mentorat crée un environnement sûr pour développer la compétence d’enseignement et la confiance. Ce programme permet non seulement une évaluation significative de l’enseignement\, mais offre également aux participants la possibilité de favoriser une pratique réflexive individuelle de manière continue\, soutenue et relationnelle (Lewitzky\, 2020). \nSuite à notre session\, les participants repartiront avec une compréhension de :● La valeur de l’observation relationnelle par les pairs pour l’évaluation de l’enseignement● Le rôle de la pratique pédagogique réflexive pour une amélioration soutenue et continue● Comment notre programme est géré afin qu’il puisse être adapté pour les institutions participantes \nRéférences :Lewitzky\, R.A. (2020). Éduquer\, apprendre et grandir : Une revue du rôle d’enseignement dans la bibliothéconomie académique. Bibliothèques universitaires et de premier cycle\, 27(1)\, 32-40. \nMcCartin\, L. F.\, & Dineen\, R. (2018). Vers une pratique d’évaluation critique et inclusive pour l’enseignement en bibliothèque. Litwin Books. \nErin Calhoun (Université de Toronto) \nLes développements dans l’édition en libre accès\, les modèles d’affaires et les politiques de financement ont amené les communications savantes au sein du travail de développement des collections. De plus en plus\, les fonds pour le développement des collections des bibliothèques sont réaffectés pour couvrir les frais d’édition grâce à des accords transitoires de lecture et de publication. Ce changement s’accompagne d’un besoin pressant de nouveaux cadres d’évaluation – ceux qui vont au-delà des statistiques traditionnelles sur l’utilisation des ressources électroniques pour mesurer la production de publications et l’investissement financier. Les bibliothèques doivent développer des capacités pour recueillir et analyser les données de publication institutionnelle afin d’éclairer les décisions relatives au développement des collections. \nCependant\, évaluer la publication en libre accès n’est pas simple. Les données de publication en libre accès sont souvent présentées dans des formats incohérents et dispersées dans les rapports bibliométriques et ceux des éditeurs\, ce qui entrave l’analyse agrégée. Pour relever ce défi\, les bibliothèques de l’Université de Toronto ont lancé un projet pilote visant à rationaliser la collecte\, le nettoyage et la visualisation des données de publication en libre accès. \nLa courte session partagera des idées tirées du projet pilote\, qui comprend la collecte de rapports sur les données de publication provenant de plusieurs accords d’accès libre\, la normalisation des données dans un modèle unifié\, et construire un tableau de bord interactif pour visualiser l’activité éditoriale et les contributions financières de l’université dans l’édition en libre accès. Le projet a d’abord exploré des solutions basées sur la programmation pour le nettoyage des données\, mais a finalement adopté KNIME – une plateforme open source à faible code – pour gérer les tâches complexes de nettoyage des données de manière évolutive et accessible. \nÀ partir de cette présentation\, les participants : \n\nAcquérir des connaissances sur la façon de suivre et de visualiser la publication en libre accès dans leur établissement\nComprendre les défis liés à la collecte de données sur les publications et les stratégies de collecte de grands ensembles de données non standardisés\nIdentifier des outils\, des outils et des solutions à faible code\, tels que Knime\, pour travailler avec de grands ensembles de données complexes\n\nCette présentation sera utile pour ceux qui s’intéressent aux nouvelles méthodes d’évaluation et sources de données\, aux outils d’analyse des données et à ceux qui cherchent à commencer à travailler avec des données de publication en accès libre. \nZe’ev Schneider (Bibliothèque du Parlement) \nLes riches collections de la Bibliothèque du Parlement (la Bibliothèque)\, développées au fil de nombreuses décennies\, sont essentielles à sa mission de contribuer à la démocratie parlementaire canadienne en « gérant et en fournissant des informations et des connaissances fiables\, pertinentes et faisant autorité ». Les collections sont réparties entre plusieurs sections de la Cité parlementaire ainsi qu’une installation d’entreposage hors site. \nDe plus\, une succursale libre-service destinée principalement aux chercheurs de la bibliothèque offre un accès sur place à une collection d’imprimés. Une récente évaluation complète de cette collection a permis de dégager suffisamment d’espace sur les étagères pour de nouvelles acquisitions. En réfléchissant à la façon de développer cette collection et de gérer l’espace\, nous avons réfléchi au rôle actuel et à la valeur de l’impression sur place pour les spécialistes du sujet dans leur travail et leurs recherches\, leur développement professionnel et leur lecture loisir. Ce processus a conduit à la création du sondage utilisateur couvert dans cette présentation. \nDans cette session\, je présenterai l’enquête de la conception aux résultats. \nLa présentation comprendra : \n\nUne introduction à la Bibliothèque du Parlement (le nouveau membre de l’ABRC!)\, y compris ses collections et ses utilisateurs\nÉtapes et itérations dans la conception de l’enquête\nObjectifs de l’enquête\, résultats et résultats prévus\n\nObjectifs d’apprentissage \nLes participants à la conférence apprendront sur \n\nConsidérations lors de la création d’une enquête ciblée pour un groupe d’utilisateurs local\nLes idées glanées à partir des résultats de l’enquête\, y compris l’expérience des répondants sur la collection d’imprimés et l’espace ; et les différences entre les chercheurs plus récents et plus chevronnés dans leur connaissance et leurs préférences pour l’impression sur site\nDéfis et leçons apprises\n\n\n\n2025 Canadian Library Assessment Workshop\nOctober 27 – October 28 at Regina\, Saskatchewan\n\n2023 Canadian Library Assessment Workshop\nOctober 23\, 2023 – October 25\, 2023 at London\, Ontario\n\n2019 Canadian Library Assessment Workshop\nOctober 22\, 2019 – October 24\, 2019 at Windsor\, Ontario\n\n2017 Canadian Library Assessment Workshop\nOctober 26\, 2017 – October 27\, 2017 at Victoria\, British Columbia\n\n2015 Canadian Library Assessment Workshop\nOctober 14\, 2015 – October 16\, 2015 at Toronto\, Ontario\n\n\n					\n									En savoir plus sur l’ABCE
URL:https://www.carl-abrc.ca/fr/evenement/atelier-des-bibliotheques-canadiennes-sur-levaluation-2025/
LOCATION:Regina\, Saskatchewan\, Regina\, Saskatchewan\, Canada
CATEGORIES:ABCE,Ateliers et instituts
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2024/09/NewsFeaturedImage-1.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251030T130000
DTEND;TZID=America/Toronto:20251030T140000
DTSTAMP:20260501T182103
CREATED:20251007T134452Z
LAST-MODIFIED:20251007T134452Z
UID:38079-1761829200-1761832800@www.carl-abrc.ca
SUMMARY:Appel du mois d’octobre à la Communauté de pratique des dépôts canadiens – Les dépôts à l’ère de l’IA : l’attaque des bots
DESCRIPTION:Date : 30 octobre 2025\nHeure : 13h00 – 14h00 HE \nInscription \nLes bots d’IA récoltent de manière agressive du contenu sur Internet. Ce que l’on sait moins\, c’est que ce « scraping » a des effets particulièrement dévastateurs sur les bibliothèques\, les archives et les musées (LAMS). Cette augmentation soudaine et massive du trafic des robots vers ces dépôts oblige les institutions culturelles et universitaires à faire face à une pression technique sur leurs systèmes et à se poser des questions éthiques concernant la propriété et l’utilisation des ressources pour former ces modèles linguistiques. \nCes robots\, agents automatisés qui collectent des données pour former les grands modèles linguistiques qui alimentent l’intelligence artificielle\, interagissent avec les dépôts en parcourant les interfaces\, en analysant les métadonnées et en extrayant les ressources numériques\, souvent à des échelles et à des vitesses qui mettent à rude épreuve l’infrastructure et contournent l’intention des conservateurs. Une collecte agressive peut dégrader les performances du système\, fausser les mesures d’utilisation\, violer les conditions d’utilisation et dépouiller les documents culturels de leur contexte. Tous ces comportements présentent des risques tant pour la disponibilité des services en ligne essentiels des bibliothèques que pour la capacité à gérer la distribution publique des ressources numériques. \nCette session examinera l’impact du « scraping » non réglementé par l’IA sur l’écosystème des bibliothèques\, archives et musées (LAM) et\, par conséquent\, sur les services bibliothécaires. Les présentateurs discuteront des stratégies de mitigation émergentes\, notamment : la limitation du débit\, la détection des robots\, la modification de l’architecture et des fonctionnalités\, les licences lisibles par machine et les meilleures pratiques communautaires pour réglementer le scraping par l’IA. \nArran Griffith est responsable de programme pour Fedora\, une plateforme à source ouverte dédiée à la préservation numérique à long terme. À ce titre\, elle dirige l’engagement communautaire\, harmonise les priorités des utilisateurs à l’échelle mondiale et assure la liaison stratégique entre Fedora Governance et ses parties prenantes. Elle anime également des groupes de travail intercommunautaires qui favorisent la collaboration et maintiennent la cohérence entre les technologies à source ouverte. De plus\, Arran est l’une des fondatrices du groupe de travail AI Discussions\, qui organise chaque mois la série Solutions Showcase. \nRosalyn Metz est agente principale de la technologie aux bibliothèques et musée de l’Université Emory\, où elle dirige une équipe de 24 professionnels et gère un budget technologique de 4\,5 millions de dollars. Elle promeut les infrastructures ouvertes\, la préservation numérique et la découverte centrée sur l’utilisateur\, en s’appuyant sur son expérience dans l’enseignement supérieur et l’industrie. Au niveau national et international\, Rosalyn a occupé des postes de direction dans des communautés à source ouverte mondiales\, notamment Fedora\, Samvera et l’Oxford Common File Layout Editorial Group. Elle intervient régulièrement sur les thèmes de l’IA\, de la technologie et des infrastructures ouvertes\, et est l’auteure de The Digital Shift\, un Substack très lu. Elle a récemment été invitée à prononcer un discours liminaire lors de la conférence iPres 2025\, qui s’est tenue en Nouvelle-Zélande. \nCette session sera enregistrée.
URL:https://www.carl-abrc.ca/fr/evenement/appel-du-mois-doctobre-a-la-communaute-de-pratique-des-depots-canadiens-les-depots-a-lere-de-lia-lattaque-des-bots/
LOCATION:Événement virtuel
CATEGORIES:Dépôts
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2025/04/CoP-Department-Image.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Toronto:20251031T120000
DTEND;TZID=America/Toronto:20251031T130000
DTSTAMP:20260501T182103
CREATED:20251021T144350Z
LAST-MODIFIED:20251021T144350Z
UID:38211-1761912000-1761915600@www.carl-abrc.ca
SUMMARY:Série de webinaires sur les collections inclusives de l’ABRC – Au-delà des frontières : repenser les acquisitions pour des collections distinctives
DESCRIPTION:Date : 31 octobre 2025\nHeure : 12 h à 13 h HE \nEnregistrement \nVeuillez noter que les présentations seront enregistrées mais pas la discussion. \nLe Groupe de travail sur l’équité\, la diversité et l’inclusion de l’Association des bibliothèques de recherche du Canada (GTEDI de l’ABRC) a le plaisir d’annoncer le quatrième webinaire d’une série sur les collections inclusives. \nAu cours de cette séance de 60 minutes\, les présentatrices donneront un aperçu d’un projet de recherche récemment publié qui explorait comment les pratiques et l’infrastructure en matière d’acquisition ont façonné le développement de collections distinctives au sein des établissements membres de l’Association of Research Libraries (ARL). L’association comprend des bibliothèques canadiennes et américaines\, et l’étude met en lumière les pratiques transfrontalières\, tout en soulignant les défis communs liés à la décentralisation des récits dominants et des approches centrées sur l’Ouest. \nLa première moitié présentera l’aperçu du projet de recherche ainsi que les réflexions des présentatrices sur la façon dont ils ont activé les infrastructures d’acquisition (englobant les aspects commerciaux\, financiers et juridiques de la gestion des collections) dans leurs propres institutions pour soutenir le développement de collections distinctives. \nLa seconde moitié sera ouverte à la discussion. Les participants seront invités à partager leurs expériences et approches pour construire des collections distinctives grâce à des pratiques d’acquisition inclusives. Les participants sont encouragés à se connecter\, à collaborer et à contribuer à un dialogue partagé sur la réinvention du travail des collections dans les bibliothèques. \nEn plus d’être assujetties au Code de conduite de l’ABRC\, l’ABRC demande aux participants\, aux panélistes et aux membres du comité organisateur de faire preuve de respect à l’égard de ce qui est partagé et dans la façon de poser des questions. \nAux fins d’accessibilité\, des sous-titres en français et en anglais seront disponibles tout au long de la session. Pour toute demande d’accommodement supplémentaire\, veuillez écrire à Julie Morin\, agente principale de programme de l’ABRC (julie.morin@carl-abrc.ca). \nBiographies \nMoon Kim \nEn tant que chef des services de collections à la bibliothèque de l’UBC\, Moon assure le leadership et la supervision opérationnelle pour le développement\, l’acquisition\, la gestion et la préservation des collections de la bibliothèque dans tous les formats et domaines sur le campus de Vancouver. Elle supervise l’infrastructure financière\, juridique et systémique qui soutient l’acquisition et la gestion des ressources pour les collections générales\, internationales et spéciales\, et dirige l’équipe responsable d’assurer un accès durable\, équitable et efficace aux ressources informationnelles. Son rôle relie la collaboration interfonctionnelle avec les liaisons\, les services techniques et les initiatives d’érudition ouvertes\, en alignant le travail sur les collections avec le cadre stratégique de la bibliothèque de l’UBC. Moon a précédemment occupé des postes d’acquisition à la Ohio State University\, à la California State University Fullerton\, à l’Université de Washington et au Getty Research Institute. \nFlorence Nthiira Mugambi \nFlorence est bibliothécaire et spécialiste de l’Afrique dans la section africaine à la Bibliothèque du Congrès. Elle est responsable de la référence\, du soutien à la recherche et du développement des collections pour l’Afrique subsaharienne avec un accent sur l’Afrique orientale et centrale. Avant la Bibliothèque du Congrès\, elle était bibliothécaire pour les études africaines à la Melville J. Heskovits Library of African Studies de l’Université Northwestern. \nBetsaida Reyes \nBetsaida M. Reyes est bibliothécaire et directrice des sciences humaines et sociales à la Penn State University. Elle est responsable de la gestion des services et des performances du corps professoral et du personnel de la George and Sherry Middlemas Arts and Humanities Library\, de la bibliothèque des sciences sociales\, de la bibliothèque de l’éducation\, du centre de musique et des médias Walter and Doris Goldstein\, des microformes et des informations gouvernementales\, de le Pennsylvania Center for the Book\, et de la bibliothèque d’architecture de paysage à University Park. Avant ce poste\, elle a passé huit ans en tant que bibliothécaire des études espagnoles\, portugaises\, latino-américaines et caribéennes à l’université du Kansas. Elle travaille également comme instructrice auxiliaire pour le iSchool à l’Université de l’Illinois\, Urbana-Champaign\, où elle enseigne le développement de collections et les ressources documentaires aux hispanophones. \nMaha Kumaran (modératrice) \nDr. Maha Kumaran sert actuellement de liaison pour le College of Education à l’Université de la Saskatchewan (USASK). Elle sélectionne des ressources (collections de monographies imprimées et électroniques) pour l’éducation et offre un soutien en matière de référence\, d’enseignement et de recherche à tous les professeurs et étudiants\, en particulier aux étudiants diplômés du Collège. Elle a une vaste expérience dans la sélection\, les acquisitions et le travail avec les collections : Elle a servi comme doyenne adjointe par intérim pour les collections et la découverte à l’USASK\, fait partie du Cluster des sciences sociales et des arts et humanités pour les collections\, et travaille actuellement avec la Division des archives de l’université et des collections spéciales. En dehors des collections\, les intérêts de recherche\, l’expertise et les activités professionnelles tournent autour des populations marginalisées qui travaillent dans les bibliothèques universitaires et les utilisent. Elle a été la première agente de programme invitée en matière d’équité\, de diversité et d’inclusion pour l’ABRC et a reçu le prestigieux prix du mérite de l’ABRC pour sa contribution à la bibliothéconomie canadienne.
URL:https://www.carl-abrc.ca/fr/evenement/serie-de-webinaires-sur-les-collections-inclusives-de-labrc-au-dela-des-frontieres-repenser-les-acquisitions-pour-des-collections-distinctives/
LOCATION:Événement virtuel
CATEGORIES:Équité diversité inclusion
ATTACH;FMTTYPE=image/jpeg:https://www.carl-abrc.ca/wp-content/uploads/2024/09/NewsFeaturedImage-1.jpg
END:VEVENT
END:VCALENDAR