Lundi, 27 octobre
Dr David Gregory, prévôt et vice-président (académique) à l’Université de Regina et comité de programme
Justine Wheeler & Mary-Jo Romaniuk (Université de Calgary) Les présentateurs décriront l’étude d’impact sur les bibliothèques et les ressources culturelles à l’Université de Calgary. Cette étude se concentre sur l’expérience de deux groupes d’utilisateurs distincts : les professeurs et les étudiants. Il a été réalisé en étroite collaboration avec Implement Consulting Group. Le but de cette étude est de mieux comprendre le rôle et l’impact de les bibliothèques et les ressources culturelles dans la vie académique des étudiants et du corps professoral en capturant et en mesurant ce qui se passe lorsque ces utilisateurs s’engagent avec les bibliothèques et les ressources culturelles. De plus, l’étude vise à inspirer et informer les décisions stratégiques futures et les plans pour les bibliothèques et les ressources culturelles. L’étude est basée sur un cadre Impact Compass, qui est une approche de méthodes mixtes conçue pour explorer comment les expériences culturelles impactent les individus. La boussole sert d’outil pour communiquer de manière quantitative comment un individu expérimente un produit ou service culturel particulier, tout en utilisant également l’analyse qualitative des données pour obtenir une compréhension plus approfondie des résultats. Bien que le cadre Impact Compass ait déjà été utilisé pour les bibliothèques publiques, il n’avait jamais été utilisé dans un contexte de recherche en bibliothèque. Pour s’assurer que la boussole d’impact a résonné dans le contexte du personnel de les bibliothèques et les ressources culturelles, les étudiants et les professeurs ont été consultés, et des adaptations significatives ont été apportées à la boussole. Plus précisément, ce processus collaboratif a permis de déterminer quatre piliers de l’expérience des bibliothèques : l’espace, les collections et les ressources numériques, le soutien à l’enseignement et à l’apprentissage et le soutien à la recherche. Chaque pilier s’est vu attribuer une boussole d’impact. Chaque boussole a été divisée en quatre dimensions d’impact : émotionnelle, intellectuelle, sociale et créative. Chaque dimension se composait de trois paramètres qui ont été testés et affinés pour refléter les besoins et le contexte d’une bibliothèque de recherche. Les données qualitatives ont ensuite été utilisées pour apporter des nuances et une compréhension de la boussole. À partir de cela, des profils d’impact ont été développés. Les présentateurs discuteront des résultats de l’étude, y compris les profils d’impact pour les étudiants et le corps professoral. Enfin, les présentateurs discuteront de la façon dont les résultats de l’étude ont été utilisés et des plans pour une utilisation future. Objectifs d’apprentissage :
Sabina Pagotto (Scholars Portal), Katrina Fortner (Conseil des bibliothèques universitaires de l’Ontario), et Gabby Crowley (Scholars Portal) À la fin de 2024, les directeurs de bibliothèques qui composent le Conseil des bibliothèques universitaires de l’Ontario (CBUO) ont demandé de l’aide pour expliquer la valeur des services qu’ils reçoivent du CBUO et de son service Scholars Portal aux cadres supérieurs d’universités en dehors de la bibliothèque. Étant donné que plus de 20 établissements varient considérablement en taille, intensité de recherche et priorités institutionnelles, il n’y avait pas de consensus sur les types d’information qui seraient utiles pour communiquer aux cadres supérieurs. Certaines institutions, par exemple, préféraient les chiffres réels et demandaient spécifiquement le retour sur investissement ou les économies de coûts ; d’autres ont estimé que les déclarations sur les avantages qualitatifs seraient des arguments plus convaincants auprès de leurs administrateurs. En réponse à cette demande, le groupe de communication CBUO-Scholars Portal s’est mis en action. Nous avons étudié diverses façons de calculer la valeur et les économies de coûts dans différents services ou domaines d’opérations, jusqu’à ce que nous ayons identifié une gamme de points de données que nous pensions pouvoir calculer en toute confiance pour chaque institution. Nous avons également rédigé des énoncés de valeur qui énoncent les avantages ou les résultats des services consortiaux et que nous nous attendions à voir résonner chez les administrateurs autres que ceux des bibliothèques. Une fois que nous avons eu un ensemble solide de déclarations, nous avons demandé aux directeurs de bibliothèque de classer les déclarations qui, selon eux, seraient les plus utiles pour leur établissement. À l’aide d’un modèle conçu par notre équipe de services web, nous avons ensuite généré des rapports personnalisés pour chaque institution qui a répondu. Ces rapports ont été distribués avec la documentation à l’appui qui fournissait plus de contexte pour permettre aux directeurs de bibliothèque de discuter en toute confiance de ces rapports avec les administrateurs de leur établissement, reliant les points entre le coût de la bibliothèque ou les économies de ressources et les impacts positifs sur la communauté du campus. Cette session discutera des défis, des opportunités et des leçons apprises tout au long du projet. Les participants apprendront comment :
Katrine Mallan (Université d’Ottawa) Cette séance présentera comment la bibliothèque de l’Université d’Ottawa utilise le Cadre d’impact des bibliothèques de l’ABRC pour apporter plus de clarté, de cohérence et d’évaluabilité à la mise en œuvre de notre nouveau plan stratégique. En utilisant une orientation stratégique comme étude de cas, j’expliquerai aux participants comment notre groupe de gestion des bibliothèques a élaboré en collaboration un modèle logique pour cartographier les activités clés, les extrants, les auditoires, les résultats et les hypothèses sous-jacentes. Ce processus nous a aidés à aller au-delà des aspirations générales pour définir des actions tangibles, tester la plausibilité du parcours d’impact et jeter les bases d’une évaluation significative. En ancrant notre planification dans le cadre de l’ABRC, nous avons établi une compréhension commune de la façon dont notre travail crée un impact et établi une ligne de mire plus claire entre la stratégie et la mise en œuvre. La session mettra en évidence comment l’utilisation des modèles logiques : Cette étude de cas est particulièrement pertinente pour les bibliothèques qui cherchent à combler le fossé entre la planification stratégique et l’exécution opérationnelle, et pour celles qui visent à intégrer la pensée évaluative sans surcharger le personnel ou les ressources. Objectifs d’apprentissage : À la fin de la session, les participants seront en mesure de : Cette session est conçue pour être pratique et transférable, en particulier pour les bibliothèques qui naviguent entre le milieu désordonné de la conception et de l’exécution de la stratégie. Notre étude de cas vise à susciter des idées pour les bibliothèques cherchant à intégrer l’évaluation dans leurs pratiques de planification et à rendre l’intention stratégique plus actionnable et visible.
Sam Vettraino, Suzy Lee, et Sarah Mantz (Université Western ) Les bibliothèques académiques collectent un large éventail de données via diverses plateformes, outils et procédures. Cependant, le personnel et la direction ont souvent du mal à accéder à ces données ou à les interpréter. À Western Libraries, nous avions un défi commun. Les données étaient difficiles à trouver, hébergées sur différentes plateformes, suivies de manière incohérente parmi nos équipes et difficiles à connecter pour une prise de décision fondée sur des preuves à tous les niveaux. Pour aider à cela, nous développons un tableau de bord en temps réel qui favoriserait la transparence et l’accessibilité à nos données. Ce tableau de bord vise à soutenir la prise de décision fondée sur des preuves dans l’ensemble de l’organisation pour aider à la planification stratégique, à l’allocation des ressources et aux opérations. Le projet a commencé par des consultations avec les dirigeants pour déterminer la portée du projet et définir les objectifs clés. Cela a été suivi d’une série de réunions internes sur l’inventaire des données avec les principaux intervenants de nos services aux utilisateurs et de nos équipes de la haute direction pour comprendre quelles données étaient recueillies, comment et par qui. Ces réunions ont révélé des lacunes dans la collecte de données, ainsi que des différences clés dans la façon dont toutes les équipes visualisent et utilisent leurs données. En parallèle, nous avons également travaillé avec des membres de notre équipe LITS (Library Information Technology Services) pour évaluer les exigences techniques, explorer les options de visualisation et identifier quelles seraient les options les plus durables à long terme. Dans cette session, nous partagerons notre processus de planification, les leçons apprises et les étapes pratiques que nous avons utilisées pour cartographier et consolider nos données à travers un grand système de bibliothèque. Nous discuterons également de la façon dont nous avons encadré notre processus en utilisant ADKAR (Sensibilisation, Désir, Connaissance, Capacité, Renforcement) pour soutenir un changement durable et contribuer à une culture d’évaluation dans les bibliothèques occidentales. Objectifs d’apprentissage/ Principaux points à retenir
Sarah Coysh & Sheril Hook (Université York) Qui passe du temps et combien de temps passent-ils dans nos bibliothèques ? C’est la question qui nous a poussés à tenir un Jour du recensement dans toutes nos bibliothèques. Nous avons capturé le trafic de bibliothèque de 19232 entrées/sorties à travers la journée. Nous avons sélectionné dix-sept points de données à enregistrer, y compris le code postal actuel, le niveau du diplôme, le pendulaire ou en résidence, la langue maternelle et le groupe d’âge, entre autres. Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques. Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96 % de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes chacun. Comme Dillalogue & Koehn (2020), nous voulions aller plus loin que le comptage des portes seul, alors nous avons créé un outil de tap-in/tap-out pour permettre aux utilisateurs d’utiliser volontairement leur identifiant de campus lorsqu’ils entrent et sortent de nos six bibliothèques en une seule journée en 2025. Nous avons calqué ce projet d’évaluation sur celui des bibliothèques de McGill qui ont déjà organisé un événement semblable. Notre objectif était de capturer 80% du trafic en une seule journée pendant nos heures d’ouverture. Nous avons également utilisé le jour du recensement comme catalyseur pour notre enquête LibQUAL+ pour laquelle nous avons reçu plus d’enquêtes complétées que les années précédentes. Deux approches ont été essentielles au succès du jour du recensement : la participation de tout le personnel de la bibliothèque et l’établissement d’un partenariat avec le Bureau de la planification et de l’analyse institutionnelle (OIPA). Le personnel a été impliqué dans l’établissement du système de numérisation des cartes d’identité ; la logistique du jour pour chaque bibliothèque ; attribution des rôles le jour du recensement; développer et diffuser des ressources de communication ; célébrant le succès de la journée ; aider à l’analyse préliminaire des résultats). Le partenariat avec OIPA nous a permis de sélectionner parmi plus de 200 points de données ; maintenir l’anonymat des données ; et nous a fourni le langage pour décrire l’analyse dans les contraintes de protection des données des clients. Nous avons sélectionné dix-sept points de données, y compris le code postal actuel, le niveau du diplôme, la personne qui fait la navette ou qui réside, la langue maternelle et le groupe d’âge, entre autres. Nous voulions particulièrement cartographier la distance parcourue par les étudiants et voir s’il y avait une corrélation entre le temps qu’ils passaient dans les bibliothèques. Nous étions également curieux de voir s’il y avait une corrélation entre le domaine d’étude et la bibliothèque qu’un étudiant a choisi. Nous avons noté que 96% de nos clients étaient des étudiants de premier cycle avec un séjour moyen de 130 minutes. Dans cette session, nous partagerons des détails sur ce que nous avons appris sur les utilisateurs des bibliothèques et combien de temps ils restent, y compris les données qui nous ont surpris et le suivi des idées d’évaluation. Les participants découvriront la variété des points de données collectés par les institutions académiques et comment ceux-ci peuvent être utiles pour éclairer les décisions concernant les heures, le personnel, la conception de l’espace, la circulation, etc. Les participants découvriront un système de tableau de bord open-source (Metabase) qui permet d’interroger les données pour la visualisation des données. Les participants recevront également un lien vers une pochette contenant des conseils sur la façon de mener leur propre journée de recensement. Référence : Dillalogue, E., & Koehn, M. (2020). Assessment on a Dime : Collecte de données utilisateur à faible coût pour l’évaluation. Bibliothèque basée sur des preuves et pratique d’information, 15(3), 2–20. https://doi.org/10.18438/eblip29582
Jessica Lange & Nailisa Tanner (Université McGill) Au début de tout projet, les parties prenantes définissent ce qui constitue le succès. Cette définition est ensuite utilisée à la fin du projet pour évaluer si ces objectifs ont été atteints et finalement déterminer si le projet a été « réussi » ou non. Les mesures typiques utilisées dans la gestion de projet, telles que les indicateurs clés de performance (KPI) et l’utilisation des ressources, bien qu’elles soient potentiellement utiles, s’adressent aux entreprises ou aux lieux de travail à but lucratif et peuvent ne pas être les plus pertinentes ni transférables aux environnements académiques où le profit n’est pas un facteur pertinent. Après avoir terminé plusieurs projets dans l’unité de technologie des bibliothèques de McGill et en utilisant des mesures typiques pour évaluer les projets, il est devenu clair que bien que ces mesures répondaient au « quoi » d’un projet, elles ne répondaient pas au « comment ». Les projets pourraient être achevés à temps et atteindre leurs objectifs, mais ils peuvent avoir rencontré des problèmes importants au cours de leur déroulement, tels qu’une mauvaise planification, des conflits d’effectifs et des délais serrés. Définir le succès en termes aussi étroits a laissé le personnel insatisfait, en particulier si le projet a rencontré des défis importants. Faire une rétrospective sur le projet est un modèle pour capturer des retours qualitatifs, permettant aux membres de l’équipe d’apprendre et de grandir à partir (parfois) d’expériences négatives. Cela peut fournir un contexte supplémentaire en dehors des mesures de succès typiques. Les objectifs d’apprentissage de cette présentation incluent :
Juliene McLaughlin & Robin Bergart (Université de Guelph) Comme le dit le proverbe, « si ce n’est pas cassé, ne le réparez pas. » Mais parfois, ce n’est pas aussi clair quand un service de bibliothèque est bien tel qu’il est et devrait être laissé seul, ou s’il commence à se casser, ou s’il est déjà cassé. Pendant de nombreuses années, notre bibliothèque a maintenu une page Web publique répertoriant les bases de données, et en 2016, nous avons mis en œuvre la liste A-Z de bases de données de Springshare. Au cours de cette période, notre équipe UX a mené des études d’utilisabilité, recueilli des analyses web et surveillé la documentation de la bibliothèque. Nous avons recommandé des changements progressifs pour s’assurer que cette page est aussi utilisable et utile que possible. Cependant, plus récemment, nous avons commencé à nous demander si cette page est toujours pertinente et si elle fait plus de mal que de bien. Après une enquête approfondie sur l’UX, nous n’avons pas pu parvenir à une conclusion définitive, mais notre intuition selon laquelle il y a un problème n’a pas disparu. Que faites-vous lorsque votre instinct vous dit qu’il y a un problème, mais que les preuves ne sont pas concluantes ? Quand devriez-vous abandonner les améliorations progressives et apporter un changement radical ? Qui décide ? Objectifs d’apprentissage :
Ali Foster, Abigail Graham, et David Pearson (Université MacEwan) Cette brève présentation met en évidence les expériences et les leçons tirées d’une refonte complète d’un site Web de bibliothèque de premier cycle axé sur l’amélioration de l’expérience utilisateur pour les étudiants de premier cycle. L’équipe du projet était composée de quatre employés : un graphiste, un informaticien et deux bibliothécaires. Le principal défi auquel l’équipe a été confrontée était de développer un protocole d’expérience utilisateur (UX) qui privilégiait les perspectives des étudiants tout en obtenant le soutien du personnel de la bibliothèque pour les changements proposés à nos pratiques d’évaluation existantes. Avant le lancement du projet à l’automne 2023, les efforts de refonte du site web précédents tenaient principalement compte des opinions du personnel et du corps professoral de la bibliothèque. Par conséquent, l’architecture de l’information du site et le ton de la voix ont été signalés comme des domaines d’amélioration potentiels lors du processus de refonte. Cette préoccupation a été validée lorsque l’équipe a collaboré avec des étudiants de troisième année en anthropologie menant des études ethnographiques du site web de la bibliothèque. Dans les deux discussions avec les étudiants et dans leurs rapports formels, il est devenu clair qu’ils ont trouvé le site web inaccessible, déroutant et peu accueillant pour les étudiants. À cette fin, l’équipe du projet a développé un protocole UX qui visait à prioriser les perspectives des étudiants ainsi que les meilleures pratiques en matière de conception web accessible et inclusive. Cette présentation fournira un bref aperçu du projet, des exemples clés d’outils d’expérience utilisateur axés sur les étudiants que nous avons appliqués, ainsi que nos observations et leçons apprises alors que nous continuons à évaluer et à affiner le site web de la bibliothèque. Résultats d’apprentissage – Les participants :
Julie Jones, Ali Moore, Jennifer Zerkee, et Adair Harper (Université Simon Fraser) Les praticiens de l’évaluation en bibliothèque peuvent intégrer les outils et techniques de dialogue pour faciliter des évaluations communautaires significatives et inclusives—avec les utilisateurs de la bibliothèque ainsi que les collègues de la bibliothèque. Cet atelier présentera la théorie, les connaissances et les compétences pour faciliter le dialogue dans le travail d’évaluation des bibliothèques. Le dialogue peut être défini de nombreuses manières. C’est une méthode pour articuler les besoins, les désirs et les hypothèses sous-jacentes dans des groupes qui rejette les dynamiques de pouvoir hiérarchiques et qui est axée sur la transformation. Il utilise des pratiques participatives pour organiser des conversations génératives, être plus inclusif, favoriser l’apprentissage mutuel, centrer l’expertise vécue et exploiter la sagesse collective. Il « peut aider les groupes et les communautés à explorer respectueusement des questions polarisantes, à aborder les conflits, à délibérer sur le potentiel de problèmes complexes et bien plus encore » (Morris J. Wosk Centre for Dialogue, Université Simon Fraser, n.d.). Dans son livre de 1999, Dialogue and the Art of Thinking Together, William Issacs a succinctement et plutôt magnifiquement défini le dialogue comme « une conversation avec un centre, pas des côtés » (p. 19). Williams a ensuite déclaré : « C’est une façon de prendre l’énergie de nos différences et de la canaliser vers quelque chose qui n’a jamais été créé auparavant. » Il nous élève hors de la polarisation et vers un sens commun plus grand, et est ainsi un moyen d’accéder à l’intelligence et au pouvoir coordonné de groupes de personnes » (p. 19). Les participants à cet atelier apprendront comment le sous-groupe du plan d’instruction du Groupe de travail pour la formation et l’éducation en matière d’information (WGILI) de la bibliothèque SFU utilise des méthodes en dialogue pour évaluer les besoins de leurs collègues instructeurs et intégrer l’expertise vécue de leurs collègues dans le nouveau plan d’instruction de la Bibliothèque, que le sous-groupe est en train de créer. Après une introduction à la théorie et au contexte SFU, les participants seront invités à assumer le rôle de participants dans un dialogue structuré créé par le sous-groupe pour évaluer les besoins des instructeurs de bibliothèque à la bibliothèque SFU. Ce dialogue facilitera la connaissance co-construite, le leadership distribué, la pollinisation croisée des idées et la création de sens partagée et visible. Après avoir expérimenté le dialogue structuré en tant que participants, les participants seront invités à assumer le rôle de facilitateurs pendant que nous « tirons le rideau » et examinons et réfléchissons aux composantes, à la conception et aux résultats du dialogue. Nous partagerons la théorie derrière les décisions prises et les actions entreprises et discuterons de la transférabilité des méthodes de facilitation utilisées, en mettant l’accent sur l’application pratique des concepts et principes théoriques dans d’autres contextes d’évaluation de bibliothèques. Des modèles et des ressources de facilitation que les participants peuvent apporter dans leur pratique d’évaluation seront partagés. Nous discuterons également des avantages d’apporter des méthodes de dialogue et de facilitation dans le travail d’évaluation des bibliothèques. Objectifs d’apprentissage À la fin de cet atelier, les participants pourront : Références Isaacs, W. (1999). Le dialogue et l’art de penser ensemble : une approche pionnière pour communiquer dans les affaires et dans la vie (1ère éd). Monnaie. Morris J. Wosk Centre for Dialogue, Université Simon Fraser (n.d.). Qu’est-ce que Dialogue ? Récupéré le 1 juin 2025, de https://www.sfu.ca/dialogue/learn/what-is-dialogue.html
Justine Wheeler (Université de Calgary) & Christine Brown (Université de l’Alberta) Le paysage de l’évaluation est en train de changer. Il y a un changement continu vers une focalisation sur la valeur et l’impact, une augmentation de l’évaluation qualitative et des méthodes mixtes, ainsi que des explorations naissantes dans le rôle de l’intelligence artificielle générative dans l’évaluation. Dans notre environnement actuel, il peut être difficile de suivre les nouvelles initiatives et développements – surtout avec un temps, des ressources et/ou une technologie limités. Dans cette session amusante et rythmée, les présentateurs partageront leurs récents projets d’évaluation et pratiques, ainsi que des pratiques innovantes dans d’autres bibliothèques. Bien que bon nombre des projets abordés dans la présentation proviennent de bibliothèques universitaires, tous les projets peuvent être appliqués dans des milieux universitaires, publics, gouvernementaux et autres. De plus, les exemples vont des projets et pratiques qui peuvent être réalisés avec des ressources limitées (temps, argent, technologie), aux exemples plus intensifs en ressources. Les projets et les pratiques présentés varieront en ce qui concerne l’objectif (collections, espace, instruction, etc.), la méthodologie (point d’utilisation, collections prédictives, photo voice, etc.), la période de temps (transversale, longitudinale) et la portée de l’impact (individuel, institutionnel, sociétal). Résultats d’apprentissage : Cette session s’adresse aux bibliothécaires qui souhaitent découvrir de nouvelles perspectives ou méthodologies dans le domaine de l’expérience utilisateur des bibliothèques, de l’évaluation ou de la pratique de l’impact. L’objectif de la session est que les participants repartent avec une nouvelle approche de l’évaluation qu’ils peuvent appliquer dans leur bibliothèque. Du temps sera également accordé aux membres de l’auditoire pour partager leur propre initiative d’évaluation récente et passionnante.
Au-delà des bugs : Utiliser une fonctionnalité ‘Signaler un problème’ pour comprendre les attentes des utilisateurs (Université de Regina) En février 2023, l’Université de Regina a mis en place une fonctionnalité de signalement d’un problème dans son système de découverte. Depuis lors, plus de 600 rapports ont été soumis, et cela est devenu un canal de rétroaction essentiel. Grâce à ces rapports, nous avons acquis un aperçu des aspects de l’expérience de recherche et de découverte que les clients trouvent déroutants, contre-intuitifs ou frustrants. Ces rapports de problèmes soumis par les utilisateurs mettent fréquemment en évidence des incohérences entre la fonctionnalité du système et les besoins et hypothèses des utilisateurs. En analysant ces rapports, nous avons pu mieux comprendre le comportement et les attentes des utilisateurs à l’égard du système de la bibliothèque et de la bibliothèque en général. Cette présentation éclair décrira comment ces rapports ont été analysés, et les idées acquises grâce à ce processus. Tests d’utilisabilité et d’accessibilité : Utilisation d’un protocole de réflexion à voix haute comme outil d’évaluation pour les systèmes de revues ouvertes – Caitlin Bakker & Christopher Read (Université de Regina) Dans cette conférence éclair, les présentateurs partageront leur expérience en matière de tests d’utilisabilité et d’accessibilité dans le cadre du lancement par l’Université de Regina des Proceedings of the Canadian Nuclear Society in Open Journal Systems (OJS). Cette présentation éclair se concentrera sur les meilleures pratiques et les points à retenir de l’utilisation d’un protocole de réflexion à voix haute pour évaluer la collection et sa fonctionnalité de recherche. L’objectif principal de ces tests était de permettre à diverses communautés d’utilisateurs de s’engager dans une recherche efficace d’informations, qu’ils accèdent au système via des ordinateurs de bureau ou des appareils mobiles. La session couvrira les aspects pratiques de la méthodologie de test, tels que le travail avec un stage en bibliothèque à distance. Les participants peuvent s’attendre à en apprendre davantage sur des techniques spécifiques de test d’utilisabilité, y compris les invites, les lecteurs d’écran, l’enregistrement et d’autres aspects du test think aloud, et comment ils peuvent fournir un aperçu critique pour améliorer la conception du système et la satisfaction des utilisateurs. Demander à Chat à propos de LibrarySearch – Susan Bond (Université de Toronto) À l’Université de Toronto, nous avons ajouté ces dernières années notre outil d’aide par chat intégré à notre couche de découverte – Ex Libris Primo VE, que nous avons étiqueté localement comme LibrarySearch. Parce que LibrarySearch est un outil en libre-service, chaque discussion lancée représente un point de repère potentiel – c’est une façon pour les utilisateurs de nous faire savoir qu’ils ne sont pas capables de se servir. Début 2025, nous avons entrepris une évaluation exploratoire en examinant les transcriptions de chat d’un mois, pour voir ce que nous pouvions découvrir sur les défis dans notre interface, les lacunes dans notre documentation et les problèmes avec nos ressources. Nos conclusions comprenaient des preuves en faveur des changements sur lesquels nous travaillions déjà, certaines victoires rapides et certaines choses auxquelles nous devrons réfléchir davantage avant de pouvoir les aborder. Dans cette présentation éclair, nous examinerons nos conclusions spécifiques sur notre interface utilisateur, notre document de support et la dotation en personnel de notre support de chat, et aborderons ce que nous avons appris sur notre codage/évaluation et comment nous allons le changer à l’avenir.
Michelle Goodridge (Université Wilfrid Laurier) En 2017, un partenariat bibliothécaire-faculté a conduit à la création d’une simulation en classe pour un cours de première année de premier cycle sur les droits humains mondiaux. Les étudiants ont assumé des rôles représentant des acteurs mondiaux (par exemple, des États-nations et des ONG) pour répondre à une crise simulée dans le meilleur intérêt de leur propre rôle, ce qui a conduit à développer des compétences en recherche, évaluation et pensée critique dans un environnement d’apprentissage actif. Une étude de recherche à méthodes mixtes a évalué l’impact de la simulation, combinant des données qualitatives issues de réflexions et d’observations avec une analyse quantitative basée sur les critères. Cette session présentera le design de la simulation, les stratégies d’évaluation et les principales conclusions, en démontrant comment l’apprentissage par le jeu peut améliorer de manière significative l’engagement et le développement des compétences des étudiants. Les participants auront un aperçu de l’application de ces méthodes dans d’autres contextes pédagogiques et de l’utilisation des données pour plaider en faveur d’une collaboration plus approfondie entre professeurs et bibliothécaires.
Amy McLay Paterson (Université Thompson Rivers) En 2023-2024, les bibliothécaires de l’Université Thompson Rivers ont développé un programme pilote pour transformer un programme de littératie informationnelle principalement monocouche en un programme structuré et intégré. Le projet pilote d’enseignement en bibliothèque de l’anglais 1100 (ELIP) a été développé comme une collaboration entre la bibliothèque et le département d’anglais au printemps 2023 dans le but d’élargir l’enseignement en bibliothèque pour soutenir la réussite des étudiants et leur appartenance. Plutôt que de participer à la session unique habituelle, les étudiants ELIP désignés participeront à une série de trois tutoriels hebdomadaires pour la bibliothèque. Le projet ELIP s’est déroulé tout au long de l’année académique 2023-24, période durant laquelle nous avons collecté des données d’affectation des étudiants, des retours des étudiants, des retours du corps professoral et des entrées de journal réfléchies des participants bibliothécaires pour déterminer l’efficacité et la durabilité du programme. Les lacunes des sessions de littératie informationnelle ponctuelles sont répandues et bien documentées dans notre profession. Nicole Pagowsky déclare que « le one-shot—même s’il y en a plus d’un — rend difficile d’atteindre un apprentissage plus profond, une pensée critique et une pédagogie inclusive » (2021, 2). Cependant, notre approche du projet pilote—ni un cours en une seule fois ni un cours à crédit — est unique dans la littérature établie. Selon chacun de ces indicateurs, le programme ELIP a amélioré les résultats par rapport au one-shot habituel. Les résultats du sondage auprès des professeurs sont très positifs, et les instructeurs bibliothécaires ont tous observé la profondeur de l’engagement des étudiants et la construction de relations positives. Cette relation plus étroite avec les étudiants a également abouti à des améliorations tangibles de nos pratiques pédagogiques et des objets d’apprentissage existants. Ma présentation présentera le programme ELIP, y compris la justification de sa conception; présenter les différentes méthodes d’évaluation que nous avons utilisées ; et discuter de nos résultats et des prochaines étapes. Des supports de cours, ainsi que des outils d’évaluation (tels que des sondages et des formulaires de consentement) seront mis à la disposition des participants intéressés. Objectifs d’apprentissage Les participants à cette session pourront :
Rong Luo, Shuzhen Zhao, et Karen Pillon (University of Windsor) À mesure que l’enseignement de la littératie informationnelle (LI) continue d’évoluer dans les bibliothèques universitaires, les pratiques d’évaluation doivent suivre le rythme pour garantir des résultats significatifs. Cette session explore l’efficacité de la formation en LI en présentant une étude menée à l’Université de Windsor qui évalue les compétences en LI perçues et démontrées chez les étudiants diplômés de la Faculté des arts, des sciences humaines et des sciences sociales (FAHSS). Fondée sur le cadre de l’ACRL pour la littératie informationnelle dans l’enseignement supérieur et utilisant une version modifiée du test Beile de littératie informationnelle pour l’éducation (B-TILED), l’étude souligne comment les outils d’analyse et d’évaluation structurée peuvent informer, améliorer et valider les programmes d’instruction de la bibliothèque. La formation à l’LI prend diverses formes, des séances en classe aux activités d’orientation et aux consultations individuelles, mais son efficacité passe souvent inaperçue. En comparant les étudiants qui ont reçu un enseignement formel de l’LI avec ceux qui ne l’ont pas reçu, cette session révèle si la formation est corrélée avec des compétences de recherche plus solides et une confiance accrue dans la navigation des ressources académiques. Les participants découvriront une approche d’évaluation flexible et évolutive utilisant B-TILED, qui combine des données démographiques, l’auto-évaluation des capacités de recherche et des tests de connaissances objectifs. La session discute également des considérations pratiques pour la conception, la mise en œuvre et l’analyse de l’enquête à l’aide de SPSS ou de plateformes similaires. Objectifs d’apprentissage : À la fin de cette session, les participants seront en mesure de :
Sarah Severson (Université de l’Alberta) & Nailisa Tanner (Université McGill) Depuis plus de 20 ans, les bibliothèques numérisent et fournissent un accès en ligne à leurs collections pour mieux servir la recherche, l’enseignement et les objectifs créatifs des universitaires et des non-universitaires. La nature ouverte et en ligne de la plupart des collections numérisées par les bibliothèques a aidé à faciliter l’accès pour de nouveaux publics; cependant, cette ouverture signifie également que les bibliothèques connaissent comparativement peu ceux qui utilisent ces ressources, ce qui rend ces ressources difficiles à évaluer pour les bibliothèques. Si vous ne savez pas qui sont vos utilisateurs, comment pouvez-vous les connaître ? La recherche sur l’expérience utilisateur a gagné en popularité et est largement acceptée dans les bibliothèques comme un ensemble standard de techniques pour évaluer les services et les interfaces des bibliothèques, et les plateformes de collections numériques ne font pas exception ici. Cependant, une grande partie de la recherche sur l’expérience utilisateur menée dans le but d’évaluer les programmes et plateformes de collections numériques se limite aux affiliés institutionnels et ne concerne que la plateforme de collections numériques elle-même, négligeant les questions sur la façon dont les utilisateurs trouvent ces collections en premier lieu ainsi que comment ils les utilisent dans leurs recherches. Cette présentation rend compte d’une étude à méthodes mixtes menée dans le but d’élargir nos horizons sur qui sont les utilisateurs des collections numériques et comment ils utilisent les ressources numérisées des bibliothèques dans leurs recherches. Notre étude a utilisé des enquêtes anonymes et des entretiens qualitatifs pour atteindre un équilibre entre l’ampleur de la participation et la profondeur des réponses. Reconnaissant la nature ouverte de nos collections numériques, nous avons inclus des chercheurs académiques indépendamment du lieu ou de l’affiliation institutionnelle, ainsi que des chercheurs non académiques comme les journalistes, les artistes, les blogueurs et les historiens publics. Notre étude a posé trois questions de recherche principales : Qui utilise les collections numérisées des bibliothèques ? Comment les trouvent-ils ? Et enfin, comment les utilisent-ils dans leurs recherches ? Dans cette présentation, nous nous concentrerons sur les méthodes que nous avons utilisées pour cette étude, leurs résultats et ce que nous avons appris de ce processus. Nous discuterons de l’importance d’utiliser plusieurs types de techniques de recherche pour l’évaluation dans le contexte de la recherche sur l’expérience utilisateur, et en particulier de ce que ce type de recherche à méthodes mixtes peut contribuer à la suite d’outils de recherche sur l’expérience utilisateur. Les participants apprendront les points forts de la recherche à méthodes mixtes, comment les techniques de recherche exploratoire peuvent être utilisées pour compléter et améliorer d’autres données évaluatives, comme les études d’utilisabilité et l’analyse web, qui peuvent être collectées pour l’évaluation des bibliothèques, et comment appliquer ces techniques pour répondre à de grandes questions en matière d’expérience utilisateur et d’évaluation des services de bibliothèque.
Jody Nelson & Alison Pitcher (Université MacEwan) Notre session présentera le programme d’évaluation de l’enseignement de la littératie informationnelle [LI] dirigé par des pairs que nous facilitons pour les bibliothécaires dans notre université de premier cycle, y compris l’impulsion, le développement, la fondation théorique, la structure et l’impact. Nous partagerons des observations sur la façon dont le programme contribue à notre compréhension de la pratique d’enseignement réflexif comme étant au cœur de l’évaluation pédagogique et du développement d’une communauté plus cohésive de pratiques pédagogiques parmi les bibliothécaires enseignants impliqués dans le programme. Notre programme de mentorat réfléchi entre pairs dans l’enseignement des triangles remplit le mandat de la bibliothèque pour développer des pratiques durables d’évaluation de l’enseignement de l’LI en harmonie avec le plan stratégique de notre université, Teaching Greatness. Adoptant une approche d’évaluation centrée sur l’étudiant et fondée sur le cadre d’évaluation critique de l’enseignement en bibliothèque développé par McCartin & Dineen (2018), notre programme d’évaluation critique de l’LI promeut l’évaluation intentionnelle et continue de l’enseignement cultivée à travers la pratique réflexive. En nous attribuant le travail d’évaluation et d’amélioration en tant qu’enseignants, nous transférons la charge de l’évaluation (c’est-à-dire remplir des formulaires de retour ou des instruments de mesure) sur les étudiants. En construisant la participation de longue date de notre bibliothèque dans l’enseignement des triangles d’observation et du mentorat pédagogique LI, notre programme offre des opportunités d’évaluation continue de l’enseignement en combinaison avec un mentorat ciblé par les pairs. Les participants au programme forment des triangles de mentorat par les pairs qui se rencontrent plusieurs fois au cours d’un trimestre académique. Les participants individuels identifient les éléments d’enseignement prioritaires (c.-à-d. le contenu, l’accessibilité, les interactions avec les étudiants) au sujet desquels ils aimeraient recevoir des commentaires constructifs; les observateurs pairs adoptent une approche basée sur les points forts, partageant des retours positifs ainsi que toute suggestion utile pour l’amélioration dans les domaines pré-identifiés. En tant que membres d’une triade de co-mentorat, les participants visent à favoriser l’excellence dans l’enseignement tout en apprenant les uns des autres, en collectant des idées pour améliorer les expériences d’apprentissage des étudiants lorsqu’ils s’observent mutuellement. Pour les bibliothécaires en début de carrière en particulier, l’aspect co-mentorat crée un environnement sûr pour développer la compétence d’enseignement et la confiance. Ce programme permet non seulement une évaluation significative de l’enseignement, mais offre également aux participants la possibilité de favoriser une pratique réflexive individuelle de manière continue, soutenue et relationnelle (Lewitzky, 2020). Suite à notre session, les participants repartiront avec une compréhension de : Références : McCartin, L. F., & Dineen, R. (2018). Vers une pratique d’évaluation critique et inclusive pour l’enseignement en bibliothèque. Litwin Books.
Erin Calhoun (Université de Toronto) Les développements dans l’édition en libre accès, les modèles d’affaires et les politiques de financement ont amené les communications savantes au sein du travail de développement des collections. De plus en plus, les fonds pour le développement des collections des bibliothèques sont réaffectés pour couvrir les frais d’édition grâce à des accords transitoires de lecture et de publication. Ce changement s’accompagne d’un besoin pressant de nouveaux cadres d’évaluation – ceux qui vont au-delà des statistiques traditionnelles sur l’utilisation des ressources électroniques pour mesurer la production de publications et l’investissement financier. Les bibliothèques doivent développer des capacités pour recueillir et analyser les données de publication institutionnelle afin d’éclairer les décisions relatives au développement des collections. Cependant, évaluer la publication en libre accès n’est pas simple. Les données de publication en libre accès sont souvent présentées dans des formats incohérents et dispersées dans les rapports bibliométriques et ceux des éditeurs, ce qui entrave l’analyse agrégée. Pour relever ce défi, les bibliothèques de l’Université de Toronto ont lancé un projet pilote visant à rationaliser la collecte, le nettoyage et la visualisation des données de publication en libre accès. La courte session partagera des idées tirées du projet pilote, qui comprend la collecte de rapports sur les données de publication provenant de plusieurs accords d’accès libre, la normalisation des données dans un modèle unifié, et construire un tableau de bord interactif pour visualiser l’activité éditoriale et les contributions financières de l’université dans l’édition en libre accès. Le projet a d’abord exploré des solutions basées sur la programmation pour le nettoyage des données, mais a finalement adopté KNIME – une plateforme open source à faible code – pour gérer les tâches complexes de nettoyage des données de manière évolutive et accessible. À partir de cette présentation, les participants : Cette présentation sera utile pour ceux qui s’intéressent aux nouvelles méthodes d’évaluation et sources de données, aux outils d’analyse des données et à ceux qui cherchent à commencer à travailler avec des données de publication en accès libre.
Ze’ev Schneider (Bibliothèque du Parlement ) Les riches collections de la Bibliothèque du Parlement (la Bibliothèque), développées au fil de nombreuses décennies, sont essentielles à sa mission de contribuer à la démocratie parlementaire canadienne en « gérant et en fournissant des informations et des connaissances fiables, pertinentes et faisant autorité ». Les collections sont réparties entre plusieurs sections de la Cité parlementaire ainsi qu’une installation d’entreposage hors site. De plus, une succursale libre-service destinée principalement aux chercheurs de la bibliothèque offre un accès sur place à une collection d’imprimés. Une récente évaluation complète de cette collection a permis de dégager suffisamment d’espace sur les étagères pour de nouvelles acquisitions. En réfléchissant à la façon de développer cette collection et de gérer l’espace, nous avons réfléchi au rôle actuel et à la valeur de l’impression sur place pour les spécialistes du sujet dans leur travail et leurs recherches, leur développement professionnel et leur lecture loisir. Ce processus a conduit à la création du sondage utilisateur couvert dans cette présentation. Dans cette session, je présenterai l’enquête de la conception aux résultats. La présentation comprendra : Objectifs d’apprentissage Les participants à la conférence apprendront sur
8h00 - 8h45 – Petit-déjeuner et inscription
8h45 - 9h00 – Bienvenue
9h00 - 9h20 – Boussole d’impact pour les bibliothèques de recherche : l’expérience de l’Université de Calgary
9h25 - 9h45 – Communiquer la valeur d’un consortium de bibliothèques à des publics non bibliothécaires
9h50 - 10h10 – Planification stratégique avec impact : une étude de cas sur un modèle logique de la bibliothèque de l’Université d’Ottawa
10h15 - 10h35 – De l’éclaté à la stratégique : développer des tableaux de bord en temps réel pour l’évaluation des bibliothèques
10h35 - 11h00 – Pause
11h00 - 11h20 – Aller au-delà des décomptes de la porte : Jour du recensement à la bibliothèque
11h25 - 11h45 – Évaluer le succès d’un projet dans les bibliothèques académiques
11h45 - 13h00 – Repas de midi
13h00 - 13h20 – Ce n’est pas cassé... Ou est-ce ? Faire face à l’ambiguïté et à l’incertitude dans l’évaluation
13h25 - 13h45 – Améliorer l’expérience utilisateur : Appliquer une approche axée sur les étudiants à la conception de sites web des bibliothèques
13h45 - 14h10 – Pause
14h10 - 16h10 – Dialogue dans l’évaluation des bibliothèques : facilitation, approches et techniques
16h30 – Réception
Mardi, 28 octobre
8h00 - 8h50 – Petit-déjeuner
8h50 - 9h00 – Bienvenue/Annonces
9h00 - 10h30 – Dix projets d’évaluation récents que nous aimons
10h30 - 11h00 – Pause
11h00 - 12h00 – Conférences éclair
12h00 - 13h00 – Repas de midi
13h00 - 13h20– Évaluation de l'efficacité pédagogique des simulations en classe dans le cadre d'un partenariat avec professeurs
13h25 - 13h45 – Trois plans sont-ils mieux qu’un ? Évaluer l’impact et la conception d’un nouveau programme de formation à la maîtrise de l’information.
13h50 - 14h10 – Mesurer ce qui compte : Évaluer l’impact de la formation à la maîtrise de l’information en utilisant des méthodes quantitatives et analytiques
14h10 - 14h30 – Demandez aux utilisateurs ce qu’ils veulent : Évaluer comment les chercheurs trouvent et utilisent les collections numériques dans leur travail
14h30 - 14h45 – Pause
14h45 - 15h05 – Évaluation de l’enseignement de l’LI dirigée par les pairs : Cultiver une culture de pratique d’évaluation réfléchie grâce au mentorat entre pairs
● La valeur de l’observation relationnelle par les pairs pour l’évaluation de l’enseignement
● Le rôle de la pratique pédagogique réflexive pour une amélioration soutenue et continue
● Comment notre programme est géré afin qu’il puisse être adapté pour les institutions participantes
Lewitzky, R.A. (2020). Éduquer, apprendre et grandir : Une revue du rôle d’enseignement dans la bibliothéconomie académique. Bibliothèques universitaires et de premier cycle, 27(1), 32-40.
15h10 - 15h40 – Du chaos à la clarté : Préparer les données de publication en accès libre pour l’évaluation des collections
15h45 - 16h05– Concevoir un sondage auprès des utilisateurs pour évaluer la valeur d’une collection imprimée