Liens Rapides
Ateliers précongrès
Discours principal
Ateliers d’une heure
Cours rapides
Affiches
Ateliers précongrès
Comment utiliser les API et la science des données pour appuyer votre travail de collections – Roger Reka (University of Windsor)
Les bibliothécaires utilisent les données en soutien aux décisions qu’ils doivent prendre pour élargir leurs collections. Le fait de savoir où les chercheurs publient, quelles personnes ils citent et d’autres indicateurs semblables nous aide à déterminer quels documents acheter ou non, et nous informe sur les sujets que nos chercheurs étudient. Ces données sont facilement accessibles dans des bases de données auxquelles plusieurs d’entre nous souscrivent. Par exemple : les index des citations comme Scopus et Web of Science. Toutefois, nous n’optimisons pas ces ressources pour recueillir des données en masse et pour les utiliser efficacement. Les grandes entreprises mondiales d’information, comme Elsevier, reconnaissent la valeur de ce type d’information dans le développement des collections de bibliothèques et l’analyse de la recherche institutionnelle. Elsevier a récemment acquis l’entreprise montréalaise 1Science qui offre des services d’analyse de la recherche aux universités et aux bibliothèques. Elsevier a poursuivi la création et la promotion de sa plateforme d’analyse SciVal. Les analyses dans ces rapports reposent sur les mêmes indicateurs que ceux tirés des index de citations auxquels nous souscrivons, mais les bibliothèques ne disposent pas toujours des compétences nécessaires pour les produire elles-mêmes. Plusieurs des bases de données et des outils auxquels les bibliothèques souscrivent offrent des API (interfaces de programmation d’applications) pour accéder aux données par machines, c’est-à-dire par opposition à l’interface utilisateur graphique. Les API sont accessibles au moyen de scripts rédigés en langues de programmation dans le but d’automatiser le travail généralement effectué dans l’interface de base de données. En apprenant à accéder aux API grâce à des techniques de programmation simples, les bibliothécaires renforceront leurs compétences en science des données et pourront en tirer parti dans diverses sphères professionnelles.
L’atelier commencera par un aperçu de l’approche bibliométrique, en s’appuyant sur l’information présentée par Vincent Larivière lors des ateliers précédents de l’ABCE. Les participants discuteront des données à privilégier pour appuyer leurs décisions en matière de collections, pourquoi les privilégier et quelle est leur utilité. Nous aborderons les sources de données à notre disposition, leurs avantages et leurs limites. Dans le cadre d’un atelier pratique dirigé par l’animateur, les participants exploreront Jupyter Notebooks pour s’initier aux API et utiliseront Python pour interroger des données sur l’API de Scopus/Web of Science. À partir des données téléchargées, les participants apprendront à produire des statistiques descriptives à l’aide du module Pandas de Python et à générer des visualisations de données intégrables à des rapports de bibliothèques et à des évaluations de collections. Les participants comprendront comment se servir des programmes de Python pour les intégrer aux systèmes des bibliothèques, notamment sous forme de résolveur de liens, afin d’automatiser leur travail. L’atelier se terminera sur des références vers des microcours pour les participants qui souhaitent continuer d’apprendre les principes fondamentaux de la science des données et de la programmation. Résultats pour l’acquisition du savoir :
- Reconnaître différents types de sources de données et les approches bibliométriques de l’évaluation des collections.
- Expliquer ce que sont les API et quand les utiliser au lieu des interfaces utilisateurs graphiques.
- Utiliser Python avec Jupyter Notebooks pour produire des statistiques descriptives des données
- Décrire comment intégrer Python aux systèmes de bibliothèques existants, comme le résolveur de liens Q13.
Due to the hands-on nature of this workshop, participants must bring a laptop with the Mac, Linux, or Windows operating system (not a tablet, Chromebook, etc.) that they have administrative privileges on. Participants must also pre-install the free Anaconda distribution (https://www.anaconda.com/distribution/) before the workshop. Please let Roger Reka () know if you have any questions or concerns about these requirements, or if you are unable to bring a laptop.
Ce qui compte et ce qui peut être compté : principes fondamentaux de l’évaluation des ressources électroniques – Klara Maidenberg (University of Toronto) et Eva Jurczyk (University of Toronto)
L’atelier exposera les participants aux pratiques exemplaires s’appliquant pour prendre des décisions d’acquisition, de renouvellement et d’annulation liées à des ressources électroniques.
Comme les ressources électroniques représentent une proportion croissante des budgets des collections des bibliothèques universitaires, il est fréquent que les bibliothécaires qui ne sont pas dans l’équipe des ressources électroniques évaluent tout de même les ressources électroniques et fassent des choix. Les compétences et les approches requises pour évaluer le contenu électronique sont différentes de celles appliquées aux collections imprimées. Par ailleurs, les possibilités de perfectionnement professionnel dans ce domaine sont rares. Quand une expertise dans l’évaluation des collections s’offre, elle demeure souvent limitée à quelques experts parmi l’effectif. L’objectif de l’atelier est d’améliorer la capacité et la confiance des bibliothécaires en les familiarisant à des outils et à des approches pratiques à adopter pour prendre des décisions sur les collections électroniques. Les participants à cet atelier développeront leur capacité de recueillir et d’analyser des données liées aux ressources électroniques. Les participants apprendront les méthodes qualitatives et quantitatives d’évaluation des ressources électroniques et apprivoiseront les concepts et les indicateurs fréquemment utilisés pour sélectionner, gérer et évaluer les ressources électroniques, y compris les sources de données probantes, la structure des ensembles de contenu et la façon dont cette structure influe sur les décisions liées aux collections.
Des études de cas et des données réelles seront présentées aux participants pour évaluer des ressources électroniques. Ces derniers auront l’occasion d’éprouver leurs connaissances lors d’exercices d’évaluation pratiques. Ils acquerront des compétences et se familiariseront à des outils utiles dans leur propre milieu de travail. L’atelier s’adresse aux bibliothécaires qui travaillent à l’élaboration ou à l’évaluation des collections.
Discours principal
Au-delà des tensions : conversations importantes sur la position et le pouvoir en matière d’évaluation des bibliothèques – Ebony Magnus (Simon Fraser University), Maggie Faber (University of Washington) et Jackie Belanger (University of Washington)
Dans son discours principal à l’Atelier des bibliothèques canadiennes sur l’évaluation de 2017, Karen Nicholson a posé la question suivante : « Comment pouvons-nous participer avec impartialité à l’assurance et à l’évaluation de la qualité pour mieux les harmoniser à nos valeurs professionnelles et à la mission de l’université? » (page 3.) Dans cette séance, nous espérons que les participants à l’ABCE 2019 examineront attentivement cette question, parmi d’autres. Pendant la séance, les participants seront invités à contribuer de façon réfléchie et critique à des discussions nuancées sur la nature du pouvoir, du parti pris et de la position dans le travail d’évaluation des bibliothèques. Au cours des deux dernières années, notre équipe a mené des recherches sur les méthodologies critiques utilisées en sciences sociales, en études de données et en recherche éducative, qui ont abouti à la publication de l’article « Towards a Critical Assessment Practice » (traduction libre : Vers une pratique de l’évaluation critique) dans la revue savante intitulée In the Library with the Lead Pipe. Dans le cadre de ce travail, notre équipe a partagé des expériences professionnelles et personnelles qui ont menés à l’exploration des structures de pouvoir inhérentes au travail d’évaluation. L’équipe a posé un certain nombre de questions de débat aux lecteurs, notamment :
- Comment nos propres identités, positions institutionnelles et perspectives façonnent-elles notre travail?
- Quel est le but de l’évaluation, qui décide quoi évaluer et qui profite de ce travail?
- Y a-t-il des éléments dans nos contextes institutionnels (p. ex., mettre l’accent sur une culture de responsabilisation) qui créent des tensions avec les valeurs promues dans notre travail? Comment une approche plus critique pourrait-elle transformer ces approches de l’évaluation?
- Quels sont les histoires et les contextes liés aux méthodes que nous choisissons, et comment ces méthodes façonnent-elles notre travail? Comment tenir compte des histoires et des iniquités des méthodes qualitatives comme l’ethnographie? En effet, ces méthodes sont souvent présentées comme l’antidote contre la surestimation de l’évaluation quantitative.
- Qu’entend-on par « données probantes » et qui décide sur ce plan?
- Travaillons-nous de manière à autoriser le partage du pouvoir et l’engagement des communautés d’usagers à toutes les étapes du processus, de la formulation des questions jusqu’à l’analyse des données et à la prise de décisions?
Ce sont des sujets et des questions d’actualité avec lesquels nous débattons encore. Notre équipe estime qu’elles méritent un examen plus approfondi de la part de la communauté des bibliothèques elle-même qui travaille à l’évaluation.
Cette séance vise à élargir la discussion actuelle sur l’évaluation afin de reconnaître et de traiter plus efficacement les questions de pouvoir, d’inclusion, d’équité et d’inégalité dans divers aspects de nos pratiques. Nous estimons que de nombreux praticiens de l’évaluation sont susceptibles d’avoir vécu un conflit entre la priorité institutionnelle, les attentes administratives, l’expérience des étudiants et l’intégrité méthodologique. Les présentateurs espèrent que cette séance engendrera des discussions sur la façon dont les praticiens de l’évaluation agissent par rapport aux tensions potentielles que suscite ce travail. Dans cette optique, nous proposons un format de séance modifié (60-90 minutes) pendant laquelle nous examinons les tensions observées dans notre propre travail pour favoriser un dialogue avec les participants au congrès. Nous définirons les aspects fréquemment touchés par de grandes tensions dans notre travail au quotidien, soit les pratiques où l’influence systémique est la plus apparente, sans pouvoir être entièrement contrée. Notre intention n’est pas d’offrir des solutions universelles, mais plutôt d’explorer des façons dont les bibliothécaires peuvent aborder et interroger les notions de partis pris et de pouvoir dans leurs activités d’évaluation. Nous avons récemment présenté une séance semblable à l’ACBES 2019, au cours de laquelle nous avons posé des questions similaires à un public composé principalement de bibliothécaires investis en bibliothéconomie critique. Toutefois, nous n’avons pas encore eu l’occasion d’entendre l’opinion de nos pairs évaluateurs dans le cadre d’une discussion ouverte semblable. Nous visons, par l’entremise de ce dialogue accompagné, à :
- Permettre aux praticiens de l’évaluation de réfléchir à leur propre position et au contexte institutionnel ainsi qu’à la manière dont tout cela façonne leur travail lors du cycle d’évaluation
- Examiner les suppositions sous-jacentes et les structures du pouvoir dans les pratiques actuelles de l’évaluation
- Explorer d’autres disciplines et d’autres possibilités de méthodologies, afin d’envisager sérieusement les moyens de mobiliser les communautés d’usagers dans le travail d’évaluation.
Pour ce faire, nous planifierons la séance pour qu’elle inclut des sections du contenu présenté (tiré de nos recherches), en plus de combiner des activités de discussion guidées. Les activités comprendront des discussions en petits et en grands groupes. Nous envisageons une gamme d’outils pour faciliter les échanges, notamment l’utilisation de notes autocollantes, d’affiches papier et de documents partagés sur Google. Au cours de notre séance à l’ACBES 2019, nous avons constaté que cette approche a mené à un dialogue productif et collaboratif, et qu’elle a permis de documenter les sujets abordés.
Ateliers d’une heure
Au-delà des indicateurs : Ethnographie allégée pour les bibliothécaires – David Michels (Dalhousie University)
Les bibliothèques mesurent des choses : collections, transactions, visites, téléchargements et les mentions « j’aime ». Les nouveaux outils nous permettent d’explorer et de visualiser ces données pour démontrer les répercussions de nos activités. Nous savons que de bons indicateurs sont importants pour la planification, la budgétisation et la programmation. Mais les chiffres doivent être mis en contexte, et les données prennent tout leur sens lorsqu’elles sont reliées aux histoires de nos usagers, aux gens que nous servons. Comme nous interagissons régulièrement avec nos usagers, nous pouvons supposer à tort que nous connaissons leurs histoires. Or, elles pourraient nous surprendre si elles nous étaient racontées. L’objectif de cette séance est de mobiliser et d’outiller le personnel des bibliothèques en vue d’explorer activement ces histoires inconnues. Dans cette séance interactive et pratique, nous explorerons les méthodes ethnographiques sur le terrain dont peuvent se servir les bibliothécaires pour mettre au jour les histoires que cachent les chiffres. Après une brève introduction à l’ethnographie comme méthodologie de recherche, nous effectuerons trois choses pendant cette séance :
- Nous explorerons notre trousse d’outils ethnographiques – observations des participants, groupes de discussion, entrevues et projets de rédaction;
- Nous mettrons à l’essai nos outils au moyen de démonstrations et d’activités pratiques;
- Nous aborderons comment autonomiser nos usagers à partager leurs histoires de bibliothèque, de recherche et d’information.
À chaque étape, nous aurons l’occasion d’en apprendre davantage sur les livres et les ressources importants susceptibles d’aider à la planification de la recherche. Nous examinerons plusieurs exemples de bons projets de recherche ethnographique propres aux bibliothèques et à la recherche d’information. Nous examinerons des histoires concrètes tirées de mes recherches et aborderons les réussites, les échecs et les leçons que j’ai apprises en cours de route. Les participants auront l’occasion de parler de leur propre contexte et des possibilités qui s’offrent à eux, au sein d’un petit groupe de discussion. À la fin de la séance, les participants devraient pouvoir cerner une possibilité de recherche, comprendre la trousse d’outils disponible pour explorer cette possibilité et avoir le souhait de poursuivre cette recherche.
C’est le cercle de la vie : la planification de l’écocycle – Chloe Riley (Simon Fraser University)
Ce cours rapide présentera la planification écocycle comme méthode qualitative d’évaluation collaborative d’une collection ou d’un portefeuille d’activités. Le but est de comprendre le travail dans son ensemble et de cerner les obstacles et les possibilités de renouvellement. La planification de l’écocycle (Ecocycle Planning) fait partie d’un ensemble de techniques appelées « structures libératrices », conçues pour être inclusives et revoir les pratiques conventionnelles ou désuètes du travail en groupe. Les structures libératrices servent dans n’importe quelle situation où les gens travaillent ensemble. Plusieurs d’entre elles sont adaptables aux pratiques quotidiennes d’évaluation. Dans le cadre de la planification écocycle, une équipe (groupe) travaille ensemble pour déterminer leurs activités de travail, leurs projets et leurs initiatives, et les positionner dans l’écocycle (amorce, maturité, destruction créative, renouvellement). L’exercice aide l’équipe à explorer le moyen d’équilibrer les activités, d’établir des priorités et de cerner les possibilités de libérer des ressources. La structure facilite la participation de chaque membre de l’équipe et leur permet de voir leur propre travail en contexte et dans son ensemble. Au cours de cet atelier, les participants apprendront les éléments fondamentaux qui soutiennent favorablement les structures libératrices. Les participants apprendront comment faciliter la planification de l’écocycle en vue d’évaluer les activités et les programmes, d’élaborer des stratégies utiles aux groupes de travail, aux équipes, dans les départements et avec leurs collaborateurs.
Choisir votre méthode d’évaluation – Emily Christofides (University of Waterloo)
Dans l’évaluation et l’amélioration de l’espace et des services des bibliothèques, il est parfois difficile de savoir par où commencer. Bien qu’il y ait toujours beaucoup de questions à poser, il est difficile de savoir comment recueillir des données pour y répondre. Plus précisément, comment choisissez-vous les méthodes à privilégier pour recueillir l’information dont vous avez besoin pour prendre des décisions? Cette séance vous aidera à entamer la planification de votre prochain mandat d’évaluation. Nous définirons des similarités et des différences entre les méthodes communes, nous expliquerons comment formuler vos questions conformément à la méthode choisie (ou mieux encore, comment déterminer la méthode en fonction de la question) et nous mettrons l’apprentissage à l’essai en contexte. Dans votre cas :
- Disposez-vous d’une méthode éprouvée (p. ex., sondages) que vous souhaitez utiliser, sans savoir si cette méthode s’applique à votre problème actuel?
- Savez-vous ce que vous voulez évaluer, sans savoir exactement comment vous y prendre?
- Procédez-vous à une évaluation régulière sans vraiment savoir ce que vous avez l’intention de faire avec l’information.
Si l’une ou l’autre de ces situations vous correspond, alors vous aurez avantage à mieux comprendre comment choisir la meilleure méthode pour la question à laquelle vous voulez répondre. Au cours de cette séance, l’animateur expliquera quelques-unes des principales méthodes d’évaluation utilisées dans le cadre du travail d’EU des bibliothèques et donnera des exemples d’utilisation de ces méthodes dans le contexte des bibliothèques. Parmi les méthodes couvertes : sondages, groupes de discussion, entrevues, essais de convivialité et méthodes d’observation. Vous apprendrez ce que chaque méthode implique (à un niveau élevé), le type de données qu’il est possible de recueillir, les types de questions auxquelles ces méthodes peuvent répondre et les avantages et les inconvénients de chacune. Nous examinerons également comment les questions que vous posez influent sur le genre de décisions que vous pouvez prendre. Pendant une activité pratique, nous observerons la correspondance entre les questions de recherche et les méthodes pour améliorer la prise de décisions après avoir déterminé une méthode d’évaluation. Les participants devront préparer une question d’évaluation relative à leur bibliothèque dans le but d’en discuter. Cette question doit être une question à laquelle ils souhaitent répondre au sujet de leurs usagers (elle ne doit pas être une question de recherche). En petits groupes, les usagers répondront à leurs questions, notamment : Qui sont leurs usagers dans cette situation? Que souhaitent-ils savoir à leur sujet? Qu’espèrent-ils faire avec cette information? Comment l’information recueillie influera-t-elle sur la prise de décisions? Les participants seront ensuite jumelés à une méthode spécifique dans le but d’explorer comment la méthode choisie limite ou améliore le type d’information pouvant être recueillie. En groupe, nous discuterons des façons de mieux jumeler les méthodes aux questions auxquelles les participants veulent répondre. La séance comportera des volets de cours informels et des volets d’activités pratiques. Par ailleurs, les sujets d’activité seront déterminés en fonction de l’expérience des participants. Les objectifs d’apprentissage sont : comprendre la base des différentes méthodes d’évaluation possibles; reconnaître comment la méthode choisie influe sur la question posée; vivre une expérience pratique pour faire correspondre les méthodes aux questions en vue de recueillir des données pratiques.
Évaluer et gérer la mise en œuvre de votre plan stratégique – Maurini Strub (University of Rochester) et Lauren Di Monte (University of Rochester)
Les organisations investissent plusieurs ressources à l’élaboration d’un plan stratégique qui finit souvent sur une étagère, dans un classeur ou archivé électroniquement. En nous fondant sur l’analyse d’une étude de cas, nous examinerons les pratiques exemplaires pour la mise en œuvre et la gestion d’un plan stratégique. Dans notre établissement, nous avons adopté un cadre d’évaluation axé sur les résultats pour créer une structure (souple) qui a orienté les projets et fait progresser les objectifs stratégiques. Ce cadre se traduit aussi dans les documents de planification de projet. Il sert à accroître l’adhésion parce qu’il crée une compréhension commune de la portée et des critères de réussite. Enfin, en établissant un plan d’évaluation et de communication pour la mise en œuvre, le plan stratégique demeure à l’avant-plan pour tout le monde, en s’appuyant sur la réflexion, l’évaluation et la communication régulières. Au cours de cette séance, nous aborderons également les outils utilisés, les défis rencontrés et des exemples de résistance organisationnelle pendant le processus. En se fondant sur l’analyse d’une étude de cas, les participants apprendront comment :
- Construire une structure ou mettre en œuvre un plan stratégique
- Élaborer un vocabulaire commun pour la mise en œuvre
- Gérer les perceptions du travail opérationnel par rapport au travail stratégique
- Déterminer et réaligner les inadéquations culturelles
- Reconnaître et gérer les stratégies de communication de résistance
- Gérer et atténuer les perceptions d’échec
- Intégrer la responsabilisation dans un plan de mise en œuvre.
Obtusangle, acutangle et rectangle : Atelier sur les avantages inattendus de l’enseignement des triangles (triangle didactique) – Christopher Popovich (University of Guelph)
Le perfectionnement professionnel (PP) et l’évaluation sont deux caractéristiques essentielles des bibliothèques universitaires qui exigent un examen attentif et souvent des ressources considérables. Divers avantages s’offrent en combinant ces deux caractéristiques de la pratique professionnelle. Ils vont au-delà des objectifs louables de former des éducateurs plus efficaces et de mieux comprendre notre pratique professionnelle. Les « triangles didactiques » ou les « carrés » (une description plus fréquente), consiste à observer l’enseignement de ses pairs à travers la lentille de la pratique réfléchie. En combinant le PP et l’évaluation dans un programme collaboratif d’auto-réflexion, les bibliothécaires et les professionnels des bibliothèques ont l’occasion de se perfectionner. Ils tirent parti de l’auto-évaluation formative, ils approfondissent la conscience d’eux-mêmes et leur capacité de réflexion en misant sur l’observation et l’enseignement. Des avantages sommatifs s’offrent aussi au bibliothécaire. L’échange « en carré » (square share) permet à l’observateur de formaliser et de partager le processus et les résultats d’auto-évaluation obtenus pendant l’observation et l’auto-réflexion. La mise en pratique du format non critique des triades (ou carrés) offre des expériences partagées qui favorisent l’esprit d’équipe et l’engagement réfléchi et donnent lieu à des discussions pédagogiques tout au long du semestre. Cette approche est relativement simple à mettre en œuvre, peu coûteuse à gérer et elle offre des économies d’échelle quand le programme s’élargit au-delà du département ou de la bibliothèque. L’enseignement « des triangles didactiques » ne sert pas à évaluer ou à critiquer l’enseignement, mais plutôt à se servir de l’observation comme source d’idées et d’approches nouvelles en vue d’engendrer l’auto-évaluation et le progrès réfléchi chez l’observateur. Le « triangle didactique » respecte généralement cinq étapes :
- Amorce où les participants se réunissent pour une séance d’orientation informative et s’entendent sur les règles à suivre et les rôles;
- Planification d’une séance pour organiser la rotation de l’enseignement et de l’observation;
- Rencontre précédent l’observation pour échanger la documentation du cours, surligner les résultats d’apprentissage, discuter des étudiants d’intérêt, de la faculté (etc.) et pour rappeler l’objectif auto-évaluateur de l’observation;
- Observation et auto-évaluation écrite 5. bilan (square share) qui explore : Qu’est-ce que j’ai appris en tant qu’enseignant? Qu’est-ce que j’aimerais essayer? Cette approche et format fonctionneraient-ils dans mon contexte? Comment l’expérience éclairera-t-elle ma pratique?
Les avantages du « triangle didactique » sont les suivants :
- Simple, rapide et économique (en termes de ressources)
- Ne correspond pas à une évaluation quantitative traditionnelle puisqu’elle se fonde sur une pratique réfléchie critique et sur l’exposition à des approches et à des styles d’enseignement différents
- Constitue un exercice de renforcement de la confiance qui se déroule dans un cadre de questionnement sceptique sain pour les institutions néolibérales où l’évaluation peut être complice.
Les avantages inattendus du « triangle didactique » sont les suivants :
- Métissage de divers domaines où les besoins des étudiants, les styles et les niveaux d’engagement sont différents
- Les bibliothécaires sont exposés à de nouvelles techniques d’enseignement et astuces et à de nouveaux conseils
- Établissement de parallèles, de confluences et de divergences dans la pratique avec des systèmes intégrés de la bibliothèque
- Conception holistique de l’enseignement dans la bibliothèque et surpassant les objectifs d’apprentissage :
-
- À la fin de l’atelier, les participants seront en mesure de déterminer les éléments d’un programme d’auto-évaluation par triangle didactique et d’en discuter
- À la fin de l’atelier, les participants seront en mesure de mettre en œuvre la trousse d’auto-évaluation du triangle didactique.
- À la fin de l’atelier, les participants seront en mesure d’adapter et de concevoir un programme d’auto-évaluation du triangle didactique pour leur établissement.
« Project Outcome » (résultat du projet) pour les bibliothèques universitaires : Données en matière d’impact et d’amélioration – Greg Davis (Iowa State University)
Les participants en apprendront davantage sur le nouveau « Project Outcome » pour les sondages et les ressources des bibliothèques universitaires. « Project Outcome » est une trousse d’outils gratuite qui sert aux bibliothèques pour mesurer quatre résultats d’apprentissage clés – connaissances, confiance, application et sensibilisation – dans sept secteurs de programme et de service des bibliothèques. Les sujets du sondage portent sur : instruction, événements/programmes, recherche, soutien à l’enseignement, collections numériques et spéciales, espace et technologie des bibliothèques. La trousse d’outils fournit aux bibliothèques universitaires de toute taille la possibilité de mesurer facilement les résultats et d’en tirer parti comme base d’amélioration et de défense des intérêts. Cette séance permettra aux participants de poser des questions et d’en discuter. Facultatif : Avant l’atelier, nous recommandons aux participants de s’abonner à « Project Outcome », de se familiariser aux documents de base de la trousse et d’envisager un objectif de mesure pour leur bibliothèque. Résultats d’apprentissage. Les participants :
- Découvrent comment « Project Outcome » peut aider les bibliothèques universitaires à mesurer des résultats d’apprentissage significatifs.
- Apprennent à utiliser la trousse d’outils de « Project Outcome » pour les bibliothèques universitaires, notamment en menant des sondages et en visualisant des résultats.
- Constatent comment d’autres bibliothèques utilisent les données pour les mettre en pratique.
- Envisagent comment tirer parti des données pour améliorer les services de bibliothèque et défendre ses intérêts.
Cours rapides
L’EU et l’évaluation peuvent-elles fonctionner ensemble – Juliene McLaughlin (University of Guelph)
Voici la courte histoire de deux bibliothécaires de l’EU qui ont demandé de l’aide pour que l’EU ait davantage d’intérêt auprès de leurs collègues. En effet, nous avons interviewé 16 bibliothécaires de l’expérience utilisateur qui travaillent partout en Amérique du Nord pour obtenir des réponses. Nous avons découvert des liens fascinants et largement différents entre l’expérience utilisateur et l’évaluation. Certes, plusieurs liens naturels entre l’expérience utilisateur et l’évaluation ont été mis en évidence, mais ce sont les nombreuses autres tensions qui aggravent le portrait. Tout d’abord, nous répondrons à la question suivante : l’EU et l’évaluation sont-elles compatibles ensemble? Nous communiquerons le résultat de nos entrevues, c’est-à-dire les facteurs qui contribuent à l’acceptation de l’évaluation et des résultats de l’expérience utilisateur, les méthodes de recherche potentiellement plus fiables (et pourquoi?), et l’interaction entre l’expérience utilisateur, l’évaluation et la culture/structure organisationnelle. Nous explorerons des stratégies pratiques pour intégrer les méthodes d’EU dans un programme d’évaluation. Après la présentation, les participants :
- Comprendront la façon dont l’EU et l’évaluation s’intègrent ensemble
- Pourront comparer diverses bibliothèques universitaires par rapport à l’organisation de l’EU et de l’évaluation dans leur organigramme
- Connaîtront des façons pratiques d’intégrer l’EU dans un programme d’évaluation.
Rapports de l’outil Counter (version 5) : perspective du fournisseur – Sabina Pagotto (Scholars Portal)
Les services des collections et des ressources électroniques de nombreuses bibliothèques universitaires se fient aux rapports d’utilisation de COUNTER pour évaluer la valeur des abonnements électroniques qu’ils offrent à leurs utilisateurs. La version 5 du code de pratique COUNTER, qui est entrée en vigueur au début de 2019, représente un changement normatif important. Bien que la nouvelle version améliore la normalisation des données d’utilisation entre les différents types de contenu, elle suppose une orientation très différente sur les plans technologique et conceptuel. Les bibliothèques et les fournisseurs de contenu se heurtent à une courbe d’apprentissage abrupte face aux nouveaux rapports, aux nouveaux indicateurs et au nouveau vocabulaire. Scholars Portal, la branche de service du Conseil des bibliothèques universitaires de l’Ontario, fournit des rapports d’utilisation certifiés COUNTER pour notre plateforme de revues hébergée localement et travaille à créer des rapports COUNTER pour la plateforme Scholars Portal Books, récemment mise à niveau. En examinant et en modifiant la façon dont nos journaux d’utilisation sont transformés en affichages standard, le personnel du Scholars Portal a pu bien comprendre les rapports COUNTER sur les titres. Cette séance s’attardera aux concepts qui sous-tendent les principaux changements apportés à COUNTER 5, décrira les nouveaux affichages normalisés COUNTER pour les titres de livres électroniques et de revues électroniques et déterminera ce qui les distingue des rapports des versions précédentes, et montrera enfin comment les données du journal d’utilisation sont transformées pour normaliser ces rapports. À la fin de la séance, les participants :
- Reconnaîtront les concepts qui sous-tendent la version 5 de COUNTER.
- Comprendront les nouveaux indicateurs et affichages dans le rapport et la façon dont ils peuvent servir à analyser les données d’utilisation.
- Seront familiers avec la façon dont les données d’utilisation sont générées et les limites techniques existantes.
Évolution de l’analyse des « méga-ententes » (Big Deal) – Jaclyn McLean (University of Saskatchewan) et Ken Ladd (University of Saskatchewan)
Nous avons commencé notre évaluation des méga-ententes en 2015. Depuis, nous avons mis à jour et élargi notre analyse des données. Notre programme s’est bonifié et s’est élargi au fil des ans. En 2015, nous obtenions de simples données sur l’utilisation, puis l’analyse des coûts agrégés. Maintenant, nous dégageons le coût détaillé par titre, la ventilation des forfaits par collège ou par discipline, puis nous bénéficions de l’ajout de données de référence provenant de Web of Science. Nous tentons de simplifier et de présenter les données et l’histoire des données à nos bibliothécaires de liaison. Cette année, nous avons la « chance » d’éprouver notre méthodologie dans un grand projet d’annulation, en nous basant sur nos données recueillies. Nous décrirons comment nous regroupons les données de différentes sources, fournirons des conseils et des astuces pour la gestion des données (apprises avec le temps), partagerons le modèle que nous utilisons pour résumer les données de chaque méga-entente et discuterons de l’investissement de temps requis pour effectuer ces analyses. Nous examinerons quelques défis rencontrés dans le cadre de notre analyse, et des possibilités d’évaluation plus poussée (p. ex., intégration de l’information sur les FPA payés à l’éditeur). Notre projet d’évaluation a été éclairé par les expériences partagées par autrui et continue de progresser en fonction de ces expériences. Notre objectif en communiquant la façon dont nous avons commencé notre évaluation des méga-ententes est d’aider les autres à amorcer une analyse (ou une partie de l’analyse) susceptible d’être utile dans leur propre contexte. Nous présenterons notre plan d’évaluation pour 2020 et la façon dont nous prévoyons changer notre approche à la lumière de l’utilisation de COUNTER 5.
Je souhaitais vraiment le ramener à temps! Contrer les biais, promouvoir l’égalité et améliorer le service à la clientèle grâce à l’analyse qualitative des données sur les amendes – Lisa Levesque (Ryerson University) et Kelly Kimberley (Ryerson University)
Cet atelier décrira une étude qualitative entreprise à la bibliothèque de la Ryerson University visant à déterminer pourquoi les usagers doivent payer des amendes. En comprenant mieux nos usagers, le service que nous pouvons offrir se bonifie. L’atelier décrira comment cette étude s’inscrit dans la révision de la structure des amendes à la bibliothèque de la Ryerson University dans le but d’être plus équitable et d’améliorer les interactions avec la clientèle. Après cet atelier, les participants posséderont une feuille de route pour explorer les données sur les amendes. Ils apprendront des méthodes qui réduisent les biais dans leurs études qualitatives. Ils en apprendront quelles données probantes peuvent servir à préconiser le changement des structures liées aux amendes dans leur bibliothèque universitaire, et pourquoi ce changement s’impose. Cette étude qualitative se terminera cet été. Nous anticipons que les résultats confirmeront ce que nous savons déjà au sujet des amendes. L’expérience nous a appris que les amendes créent des interactions négatives avec la clientèle. Imposer des amendes est désagréable pour le personnel, qui doit gérer les sentiments négatifs des usagers. Les amendes engendrent un souvenir désagréable aux usagers par rapport à leur bibliothèque. En examinant la littérature, nous constatons que les amendes touchent de façon disproportionnée ceux qui sont le moins capables de les payer. Elles sont donc inéquitables et contraignent l’utilisation des bibliothèques. Les amendes vont également à l’encontre d’autres services des bibliothèques qui visent à accroître l’accès aux documents. Cette étude qualitative s’appuie sur l’analyse quantitative des données sur les amendes, et elle a été effectuée à l’automne 2018 pour déterminer les types d’amendes imposées et les coûts associés. À la suite de cette analyse, la structure des amendes de la bibliothèque a été modifiée pour éliminer les amendes sur les monographies en retard exemptes de retenues ou d’autres restrictions. La réalisation d’une étude qualitative complémentaire contribuera à confirmer ce plan d’action. Parce qu’elles engendrent de fortes émotions, les amendes sont un sujet controversé. Les bibliothécaires et le personnel des bibliothèques ont souvent des idées fausses sur l’efficacité des amendes et sur les raisons justifiant que les usagers payent des amendes. Cette étude permet aux usagers d’expliquer pourquoi ils ont dû payer des amendes. Ainsi, le personnel de la bibliothèque a l’occasion de réexaminer ses suppositions. Afin d’éliminer et de revoir nos propres préjugés, y compris ceux découlant de recherches antérieures, nous avons utilisé une théorie ancrée et des pratiques exemplaires d’évaluation critique pour analyser les résultats. Par exemple, en effectuant un codage collaboratif et en s’appuyant sur la méthode comparative constante, deux méthodes qui atténuent le biais. Nous avons également inclus les commentaires des étudiants pendant le processus d’analyse afin d’accroître le poids des usagers. Ces méthodes garantissent que les résultats de notre étude sont fondés sur des données probantes. Certes, le biais ne peut jamais être totalement éliminé, mais il peut être contrôlé, réduit et consciemment comptabilisé. Cette étude a été entreprise à l’aide d’outils qui seront disponibles dans la plupart des bibliothèques universitaires. Les services d’emprunt et de prêt tiennent à jour un formulaire d’appel en ligne des amendes imposées par les bibliothèques, et l’utilisation de ces données préexistantes a éliminé la nécessité d’une collecte de données fastidieuse. L’analyse a été faite avec Google Sheetset a nécessité la création d’un livre de codes sous forme de document Google partagé. L’analyse a nécessité un abonnement sous licence à Tableau, un logiciel également disponible en format public et gratuit. L’utilisation de données préexistantes et d’outils gratuits et couramment utilisés a permis de consacrer moins de temps à la collecte de données ou aux logiciels d’apprentissage et plus de temps à l’examen critique des résultats. Les conversations en personne ont constitué une partie importante du processus d’analyse. Elles ont contribué à une compréhension commune des résultats émergents. En décrivant l’approche adoptée par la bibliothèque de la Ryerson University pour explorer les données qualitatives sur les amendes, cet atelier couvrira les méthodes visant à réduire le biais dans la recherche et établira un lien entre les résultats de l’étude et les changements qui améliorent le service à la clientèle et réduisent le biais.
Il était une fois… une consultation de recherche : les statistiques de consultation racontent des histoires sur les relations humaines, la charge de travail et le changement organisationnel – Amy McLay Paterson (Thompson Rivers University)
Maintenant que le lieu d’interaction principal entre les bibliothécaires et les étudiants s’éloigne du bureau de référence ou du comptoir de prêt, les consultations sur la recherche sont un point de référence essentiel pour favoriser le maintien des relations et suivre les changements organisationnels. Or, plusieurs bibliothèques comptabilisent les consultations de recherche uniquement sous forme de chiffres de base, et d’autres n’en tiennent compte que comme statistiques relatives au comptoir de prêt. En 2017, la bibliothèque de la Thompson Rivers University a simplifié son formulaire de statistiques du comptoir de prêt. Elle a séparé et élargi ses procédures de suivi des consultations de recherche. Parmi les paramètres mesurés, se sont ajoutés des indicateurs pour les secteurs de liaison, la méthode de référence et le temps consacré (incluant la préparation). Depuis, la bibliothèque s’est servie de cette information groupée pour évaluer la répartition de la charge de travail et suivre les changements dans son modèle de service et y réagir. Les bibliothécaires individuels ont utilisé l’information pour améliorer leurs relations et communications avec les secteurs de liaison et expliquer l’impact de la bibliothèque sur les dossiers de titularisation et les rapports annuels. Ce simple changement a permis de mieux comprendre la forme actuelle de notre travail. Nous avons réfléchi à des questions plus vastes sur la nature et l’évolution de notre travail et de nos relations avec les étudiants. Les participants à cette séance pourront : Déterminer et aborder les facteurs qui distinguent une consultation de recherche d’une interaction de référence, puis expliquer l’avantage de suivre les consultations séparément; Évaluer la manière dont ils exploitent actuellement les statistiques de leurs consultations de recherche et revoir comment ils aimeraient les exploiter; Explorer le suivi de plusieurs indicateurs (autres que les chiffres) liés aux consultations de recherche et constater les avantages de chacun; Reconnaître les avantages et les inconvénients de plusieurs modèles d’accès pour les numéros de consultation et déterminer les facteurs importants lors de la médiation d’accès.
Dois-je rester ou dois-je partir? Actualiser l’analyse de la valeur des revues pour aller au-delà du coût par utilisation – Jason Friedman (RCDR) et Émilie Lavallée-Funston (RCDR)
Compilé chaque année par le Réseau canadien de documentation pour la recherche (RCDR), l’initiative d’analyse de la valeur des revues (AVR) combine les données sur les prix, les sujets et l’utilisation pour produire une ressource informative aux membres qui évaluent leur participation à des trousses de revues par licence du RCDR. La conception de l’ACR du RCDR est unique en raison de trois caractéristiques que nous mettrons en évidence pendant la séance : l’inclusion et l’identification distincte des données sur le libre accès et le contenu payant, l’inclusion des données sur l’année de publication et le calcul des coûts estimatifs par titre. Ce cours rapide présentera la conception évolutive de l’ACR du RCDR, en misant sur des caractéristiques clés qui offrent de précieux renseignements aux membres. Sa conception souple permet aux membres de commenter au sujet de leurs besoins institutionnels particuliers et favorise une analyse plus approfondie chaque année subséquente. Bien que l’ACR de 2019 se fonde sur des données de COUNTER 4, nous décrirons comment nous comptons miser sur les données de COUNTER 5 pour l’ACR de 2020. Notre objectif est que les participants soient inspirés, apprennent des trucs et se familiarisent à des outils pour mener les analyses dans leurs propres établissements ou dans plusieurs établissements. Comme la portée de cette analyse concerne 75 établissements par année, nous expliquerons les tactiques de simplification du processus, puis comment assurer la fiabilité des données et valider l’exactitude des analyses. De plus, nous aborderons la conception du projet avec les participants afin de répondre aux questions sur les méthodes de conception ou d’analyse, puis nous traiterons de COUNTER 5 et d’autres éléments du projet.
Être synchronisé ou non : considérations relatives à la transition de LibQual à Insync Survey – Linda Bedwell (Dalhousie University) et Laura Newton Miller (Carleton University)
Essayer de comprendre les besoins de nos usagers est une quête sans fin pour les bibliothèques universitaires. En 2018-2019, deux bibliothèques universitaires canadiennes ont décidé de mener le sondage Insync australien plutôt que le LibQual. Le principal objectif du sondage Insync est de donner aux étudiants, au personnel et au corps professoral l’occasion de dire dans quelle mesure ils croient que la bibliothèque fait bien ce qu’ils jugent important. Le sondage met l’accent sur le rendement et l’importance des communications, de la prestation des services, des installations et de l’équipement, des ressources documentaires et de la satisfaction générale. Insync se caractérise par une structure de questions simplifiée. Cet avantage l’emporte sur les inconvénients potentiels de la perte de données longitudinales et d’analyse comparative. Comme les universités Carleton et Dalhousie ont une solide expérience en interprétation des résultats de rapports et en analyse des données brutes, elles réalisent pleinement les défis et les avantages du sondage Insync. L’expérience de ces deux institutions pourra aider d’autres institutions qui envisagent de mener un sondage ou qui pensent à passer de LibQual à Insync. Résultats pour l’acquisition du savoir :
- Les participants se familiariseront au contenu et la structure du sondage Insync pour les usagers de la bibliothèque et pourront évaluer les avantages et les inconvénients de passer de LibQual à Insync pour leur propre établissement.
- Grâce à l’expérience des pairs, les participants pourront anticiper la charge de travail nécessaire à l’interprétation des rapports et à l’analyse des données brutes. Ils auront une meilleure idée du type de constatations et d’actions possibles découlant des résultats.
- En tenant compte de ces résultats, les participants pourront recommander ou non de passer au sondage Insync ou d’envisager d’autres solutions dans leurs propres bibliothèques universitaires.
Who’s Afraid of the W Word: Tackling a Weeding Project (Traduction libre : Qui a peur du tri?) – Sarah Simpkin (Université d’Ottawa) et Ingrid Moisil (Université d’Ottawa)
Traditionnellement, les bibliothèques universitaires recueillaient des documents sans trop réfléchir au tri. Les collections se sont élargies, alors les collections moins utilisées ont été transférées sur des étagères compactes, puis éventuellement dans des entrepôts, souvent à l’extérieur de la bibliothèque ou dans des espaces partagés. En revanche, le tri dans les bibliothèques publiques a toujours été intégré au processus de croissance des collections. Au cours des dernières années, les bibliothèques universitaires ont commencé à trier certaines de leurs collections et des douzaines d’articles ont été publiés sur le retrait de documents de bibliothèque. Toutefois, le tri n’est pas encore considéré comme une tâche courante et de nombreux bibliothécaires hésitent à le faire ou même à aborder ce sujet avec le corps professoral. En s’inspirant de l’expérience à la bibliothèque de l’Université d’Ottawa, cet atelier couvrira les différentes étapes du tri :
- Établir le besoin
- Définir les critères de retrait
- Intégrer la rétroaction du corps professoral
- Créer les listes
- Communiquer le projet à l’ensemble de la collectivité – retirer le matériel – éliminer le matériel rejeté
- Évaluer le projet. Les participants pourront
- Comprendre la complexité d’un projet de tri
- Déterminer un besoin de retrait dans leur propre bibliothèque
- Élaborer leur propre projet de tri.
Affiches
Évaluer l’EU des bibliothèques de soir/week-end – Emily Christofides (University of Waterloo)
La bibliothèque de la University of Waterloo a recueilli des commentaires sur la signalisation, l’espace, le mobilier et d’autres aspects de l’environnement de la bibliothèque. Toutefois, ce travail d’évaluation touchait principalement l’expérience de jour et le personnel de la bibliothèque s’est demandé dans quelle mesure l’expérience des usagers le soir et les week-ends se distinguerait. Nous voulions évaluer le type de soutien et d’information dont nos usagers avaient besoin, dans quelle mesure nos services répondaient à leurs besoins et si la façon dont ils utilisent la bibliothèque le soir et le week-end se distingue. Nous avons recueilli des renseignements par observation au comptoir du prêt, par l’entremise d’un groupe de discussion avec le personnel et grâce à un sondage auprès des étudiants. Nous constatons que les étudiants qui fréquentent la bibliothèque le soir et le week-end sont semblables à ceux qui la fréquentent le jour. D’après ce que nous avons observé et entendu, nous concluons que les possibilités d’amélioration touchent l’expérience des étudiants à la bibliothèque (p. ex., le souhait d’avoir plus d’espace réservé à l’étude, réseau Wi-Fi amélioré, des ascenseurs, de la nourriture et le maintien de la propreté). De même, les problèmes de personnel ont trait au soutien de l’environnement (p. ex., signaler une fuite pour réparation) et non pas au soutien des usagers par rapport à des problèmes propres à la bibliothèque (bien qu’ils soient aussi rapportés). Le personnel favorisait la résolution de problèmes et trouvait des façons d’aider les usagers au meilleur de leurs capacités. Seulement dans quelques cas, ils dirigeaient les usagers vers d’autres services de soutien. Dans l’ensemble, nous avons conclu que l’expérience de l’usager les soirs et les week-ends était similaire à l’expérience de jour. En conclusion, les efforts d’amélioration devaient être axés sur l’utilisation et l’entretien de l’espace.
« L’évaluation » en tant que projet d’apprentissage : jeu-questionnaire en ligne avec rétroaction formative immédiate (Partie 2) – Yayo Umetsubo (University of Toronto Mississauga)
Pour que les étudiants de premier cycle prennent conscience du pouvoir des compétences en littéracie de l’information, la présentatrice a terminé « L’évaluation » en tant que projet d’apprentissage (Partie 1) avec 111 étudiants-participants à la Cap-Breton University en Nouvelle-Écosse en 2016. Le processus et les résultats ont été présentés dans le cadre de la 37e conférence de l’International Association of Scientific and Technological University Libraries (IATUL) en 2016 (http://bit.ly/2IHxGis). La présentatrice met en œuvre la Partie 2, cet automne, au campus de Mississauga de la University of Toronto. Elle compte améliorer la Partie 1 en ajoutant différentes questions et commentaires. Chaque questionnaire aborde des aspects de la crédibilité, de l’actualité, de l’autorité, de l’exactitude, de la pertinence et/ou de la raison d’être de l’information. Ces aspects sont contextualisés dans le Framework for Information Literacy for Higher Education(ACRL, 2015). La diversité, la justice sociale et les questions autochtones sont également intégrées à certains jeux-questionnaires. Le format de rétroaction formative immédiate convient particulièrement aux étudiants qui n’ont pas jugé nécessaire d’analyser et d’évaluer divers types de sources pendant la navigation. Le format leur permet d’évaluer leurs réponses aux questions et leur donne l’occasion de se poser des questions réfléchies, par exemple « Pourquoi ai-je fait une erreur? » (Earl, 2003, pp. 21-28). Ce faisant, ce processus favorise leur apprentissage, et les étudiants peuvent progresser à leur propre rythme. En d’autres termes, devant une occasion d’apprentissage réfléchie, les étudiants peuvent reconnaître leurs forces et leurs faiblesses en littéracie informationnelle et avoir la chance de s’améliorer. De plus, l’ensemble des jeux-questionnaires apporte d’autres avantages potentiels. Premièrement, les étudiants sont libres de poser des questions aux bibliothécaires parce que les commentaires indiquent que les bibliothécaires peuvent répondre à diverses questions. Deuxièmement, les instructeurs peuvent gagner du temps, comme ils n’ont pas besoin d’enseigner aux étudiants à s’abstenir d’utiliser certaines sources pour leurs évaluations, puisque les questionnaires portent sur divers types de sources. Pour le cadre théorique de ce projet, la méthode Earl’s Assessment as Learning :Using Classroom Assessment to Maximize Student Learning(2003) a été adoptée. Ce livre distingue trois approches : « Évaluation de l’apprentissage » (évaluation sommative par les enseignants), « Évaluation pour l’apprentissage » (évaluation par les enseignants et ses résultats dans les cas où il faut déterminer les besoins d’apprentissage particuliers des étudiants) et « Évaluation en tant qu’apprentissage » (auto-évaluation par laquelle les étudiants se posent des questions de réflexion afin d’améliorer leur apprentissage et leur action) (p. 21-28). Comme le titre de la présentation l’indique : « L’évaluation » en tant que projet d’apprentissagevise à réaliser « l’évaluation en tant qu’apprentissage » en conjonction avec « l’évaluation pour l’apprentissage ». Des exemples pratiques permettront aux participants d’explorer le Framework for Information Literacy for Higher Educationen adoptant la méthode d’évaluation d’Earl. References Association of College and Research Libraries. (2015). Framework for Information Literacy for Higher Education. Extrait de http://www.ala.org/acrl/standards/ilframework Earl, L. M. (2003). Assessment as learning:Using classroom assessment to maximize student learning.Thousand Oaks, CA: Corwin Press.
Créer un espace pour tous : évaluation de l’atelier de fabrication collaboratif « Fab Lab (makerspace) » de la bibliothèque de l’UTSC – Elizabeth O’Brien (University of Toronto)
Les Fab Lab sont des espaces sur les campus où les étudiants peuvent saisir des occasions d’appartenance, de participation et d’apprentissage actifs. De nombreuses bibliothèques publiques et universitaires investissent dans de tels espaces pour soutenir les cultures de création. Le Fab Lab de la bibliothèque de la University of Toronto à Scarborough (UTSC) a ouvert ses portes en septembre 2016 dans une bibliothèque rénovée, et dans un emplacement visible à l’entrée de la bibliothèque. L’un des objectifs pour cet espace est de promouvoir l’esprit de communauté, l’engagement des étudiants et l’existence d’un lieu où tous les étudiants sont bienvenus et invités à participer. Bien que l’espace soit conçu pour être universel, nous constatons une prédominance masculine dans l’utilisation de l’espace. Cette tendance est fréquente dans les Fab Lab. Malgré le potentiel démocratique des Fab Lab, certains observateurs estiment que cet espace recrée certains partis pris historiques propres aux espaces de travail dominés par les hommes. Afin de contrer ce déséquilibre, notre personnel du Fab Lab propose une série d’ateliers, d’événements et de mesures organisationnelles pour encourager davantage de femmes à adopter et à utiliser le Fab Lab de la bibliothèque. Cette affiche illustrera le travail de notre équipe pour créer des occasions de programmation visant l’adhésion accrue des femmes dans le Fab Lab. Nous mettrons l’accent sur les diverses méthodes d’évaluation que nous utiliserons pour évaluer l’incidence de nos programmes et de nos activités. Les activités d’évaluation au sein des Fab Lab des bibliothèques sont toujours en cours d’élaboration; notre approche sera donc axée sur un cadre d’évaluation de programme.
Évaluation des besoins en matière de préservation du contenu numérique limité aux médias – Jess Whyte (University of Toronto)
Le contenu numérique lié aux médias – c’est-à-dire les fonds numériques actuellement enregistrés uniquement sur des supports médiatiques comme les disquettes, les supports optiques, les clés USB, les disques ZIP, les disques durs et d’autres supports numériques qui ne sont pas facilement accessibles – présente des facteurs de risque multiples et uniques en matière de préservation. Avant que les bibliothèques de la University of Toronto ne puissent commencer à atténuer ces risques, elles ont d’abord dû évaluer:
- L’étendue de ces documents dans ses collections,
- Leur emplacement dans le réseau de bibliothèques,
- Leurs intendants locaux
- Les besoins de ces intendants.
Cette affiche décrit la méthodologie d’évaluation des besoins de préservation, ses conclusions et les recommandations formulées pour les itérations futures ou l’application par autrui.
Nouvelle conception de l’évaluation avec un changement pédagogique : littéracie informationnelle et instruction dans un cours de chimie de deuxième année – Shiyi Xie (Western University) et Jason Dyck (Western University)
Notre affiche et notre présentation éclairante viseront la conception de l’évaluation d’un projet de changement pédagogique pour la littéracie informationnelle et l’instruction dans un cours de chimie de deuxième année. Le projet vise à étudier une structure d’enseignement plus efficace, y compris l’apprentissage en ligne et les stratégies d’apprentissage actif, pour engager les étudiants en situation d’apprentissage. Un module de bibliothèque en ligne a été élaboré comme composante importante d’une stratégie de classe inversée et d’une plateforme d’évaluation. Voici une brève description du plan de cours et des évaluations. Avant la séance en personne à la bibliothèque, les étudiants passeront en revue le module de la bibliothèque et répondront à un questionnaire qui évalue leur apprentissage du module. En analysant les résultats du questionnaire, le bibliothécaire déterminera les sujets à aborder au cours de la séance. Les étudiants peuvent aussi voter pour les sujets avec l’outil de sondage. Le bibliothécaire dispose d’une liste d’activités en classe préétablies pour tous les principaux sujets, mais la séance ne comprendra que les sujets visés par le questionnaire et les résultats du sondage. Après la séance à la bibliothèque, les étudiants pourront reprendre le jeu-questionnaire pour évaluer leurs compétences en littéracie informationnelle, et le jeu-questionnaire compte dans leur note de cours (faible pourcentage). Deux séries de questionnaires (A, B) sont élaborées à un niveau de difficulté identique. Les étudiants qui répondent au questionnaire A avant la séance à la bibliothèque répondront au questionnaire B après la séance, et vice versa. Les étudiants répondront ensuite à un court sondage pour donner leur avis. L’affiche comprendra un aperçu du projet et des éléments d’évaluation mentionnés ci-dessus.
Posez des questions à « Ask » : évaluer un service collaboratif de référence virtuelle – Sabina Pagotto (Scholars Portal) et Kathryn Barrett (University of Toronto Scarborough)
« Ask a Librarian » est un service de clavardage collaboratif administré par le Conseil des bibliothèques universitaires de l’Ontario (CBUO) par l’entremise de son service Scholars Portal. En 2018, un projet conjoint entre Scholars Portal et les bibliothèques de la University of Toronto, la plus grande institution participante, a examiné si le modèle de service, les choix de personnel et les politiques de son service de clavardage étaient associés à l’insatisfaction des usagers, dans le but de déterminer les domaines où la collaboration est fructueuse et ceux qui gagneraient à être améliorés. L’équipe de recherche a examiné les transcriptions, les métadonnées et les résultats du sondage de départ de 473 échanges de clavardage provenant de 13 universités entre juin et décembre 2016. Les transcriptions ont été codées pour déceler les non-concordances entre l’opérateur de clavardage et les institutions de l’usager. Elles révèlent la non-concordance; l’usager, le personnel et le type de questions; la charge de travail du quart; l’imminence de la fin d’un quart de travail ou de la fermeture du service. Des tests du carré de chi et une régression logistique binaire ont été effectués pour déterminer la relation entre les variables et l’insatisfaction des usagers. Les résultats confirment en grande partie le modèle du service « Ask a Librarian », ses pratiques de dotation en personnel et ses politiques. Les usagers ne sont pas insatisfaits du service reçu des opérateurs de clavardage dans les établissements partenaires ni des services fournis par des non-bibliothécaires, et les politiques actuelles sur l’ordonnancement, la fermeture des services et la gestion des changements de quart sont appropriées. Cependant, l’analyse a permis de découvrir des aspects préoccupants qui nécessitent d’être fouillés. Certains types d’usagers étaient plus enclins à être insatisfaits, ce qui indique que « Ask » pourrait améliorer son service auprès de ces usagers. Par ailleurs, les usagers étaient plus enclins à être insatisfaits s’ils savaient que les opérateurs d’une autre institution les servaient, ce qui indique que Scholars Portal devrait revoir sa politique de divulgation. Dans l’ensemble, cet exercice démontre que les établissements peuvent faire confiance au consortium pour répondre aux besoins de leurs usagers locaux et souligne la nécessité d’un examen périodique des services pour assurer une efficacité continue.
Prendre des instantanés : le rôle des observations photographiques dans l’évaluation de l’espace des bibliothèques – Giovanna Badia (McGill University)
Le décompte des rubriques et les études ethnographiques des espaces sont susceptibles de nécessiter une forte main-d’œuvre lorsque l’objet observé est grand. La prise de photographies peut accélérer le processus de collecte de données et aider à analyser les données en fournissant des détails supplémentaires qui n’ont pas été initialement saisis par le chercheur. Les rapports d’évaluation de l’espace dans la documentation décrivent de multiples méthodes de collecte de données et présentent les résultats à l’aide de divers graphiques et tableaux. Cette affiche a trois objectifs :
- Décrire les meilleures pratiques courantes dans la littérature en faveur de l’utilisation de photographie comme méthode de collecte de données et pour répondre aux questions sur les espaces;
- Fournir des stratégies pratiques pour extraire et analyser des renseignements pertinents à partir des photographies; et
- Résumer les types de visualisations de données utilisées dans les études publiées et présentant des résultats photographiques.
Les résultats indiquent quand et comment utiliser des observations photographiques pour évaluer les espaces de bibliothèque et comment les communiquer efficacement, soit deux éléments utiles aux praticiens de l’évaluation.
Utilisation de GreenGlass pour appuyer un projet de tri de livres – Ingrid Moisil (Université d’Ottawa) et Sarah Simpkin (Université d’Ottawa)
La bibliothèque de l’Université d’Ottawa s’est lancée dans un projet de tri de livres à grande échelle au début du printemps 2016. Nous avons utilisé GreenGlass, un outil en ligne conçu par Sustainable Collection Services et acquis par la suite par OCLC, qui a permis aux bibliothécaires d’analyser la collection de livres et de préparer les listes de retrait. Cette affiche explique comment nous avons configuré GreenGlass, puis présente les résultats et les leçons apprises.