L’ADBU a été auditionné par le comité STRANES le 16 avril 2014. Les échanges avec les membres du comité ont été nourris
et les pilotes de ce comité, Sophie Béjean et Bertrand de Monthubert, nous ont invité à leur remettre une contribution écrite
afin de préciser notre propos.
Vous trouverez ci-dessous l’intégralité de la contribution ADBU.
Elle s’organise en trois points :
Des freins à lever dans l’ESR pour prendre enfin le tournant du numérique
Pédagogie et innovation
L’IST et les politiques de site
—————————————————
Des freins à lever dans l’ESR pour prendre enfin le tournant du numérique
Depuis le milieu des années 1990, le numérique constitue dans de nombreux secteurs une
innovation disruptive majeure. Dans le domaine de l’enseignement supérieur et de la recherche, il
n’a pourtant pas fait l’objet, en France, d’une élaboration programmatique systématique et
suffisamment englobante. La cause en est souvent en grande partie imputée aux caractéristiques
du paysage national de l’ESR, dispersé entre écoles, universités et organismes. Dans le domaine
de l’information scientifique et technique (IST), l’initiative BSN (Bibliothèque scientifique
numérique (1)) tente ainsi, avec un certain succès (projets ISTEX (2) et Licences nationales (3)) de mettre
en cohérence et faire converger l’action des différents opérateurs. Toutefois, en dehors de ce
secteur circonscrit, la France, contrairement à la plupart des pays comparables, n’a toujours pas
adopté une feuille de route nationale pour le numérique dans l’enseignement supérieur et la
recherche. Pour l’ADBU, c’est que les raisons de ces difficultés sont plus profondes. Elles ne
tiennent pas seulement à la complexité du paysage institutionnel français mais plus profondément
à des représentations et des réflexes intellectuels issus de cultures professionnelles en cours
d’adaptation :
– les dirigeants des universités sont ainsi trop souvent insuffisamment au fait des évolutions
technologiques, sociétales, juridiques, économiques, etc. liées au numérique : ces questions
sont considérées comme essentiellement techniques dans une opposition excessive avec les
plans politiques et stratégiques. Or, si elle est abordée au niveau pertinent, toute question
technique est une question politique. À l’instar des pays comparables, il serait logique
d’impliquer systématiquement les professionnels du numérique, non dans la prise de décision
(ils ne le revendiquent certainement pas), mais dans l’élaboration des orientations stratégiques
soumises au vote des instances décisionnaires ;
– corollaire inévitable du point précédent : le numérique a tendance à être confondu avec
l’informatique. Là où les usages (donc les usagers) et les contenus (culturels, informationnels,
pédagogiques, scientifiques, etc.) sont au coeur des questions soulevées par le numérique, les
projets destinés à négocier le tournant des “nouvelles technologies” (le terme n’est pas neutre)
dans les établissements de l’ESR répondent la plupart du temps outils, systèmes d’information,
infrastructures réseau. L’expansion du parc de tableaux blancs interactifs (TBI) dans les
établissements d’enseignement supérieur constitue un exemple emblématique de cette
approche : l’outil est censé porter en lui-même une rénovation des pratiques d’enseignement,
sans que soit, la plupart du temps, posée la question de l’intérêt pédagogique de cet objet
nouveau, ni celui du renouvellement des méthodes d’apprentissage en lien avec les besoins des
étudiants d’aujourd’hui. Ainsi, la plupart du temps, le TBI est simplement utilisé comme un
tableau noir de luxe. De la même manière, le projet FUN a essentiellement été présenté comme
une plateforme. C’est certes médiatiquement parlant, mais ne permet pas de saisir comment un
outil pourrait à lui seul répondre à la légitime question de la compétitivité et de l’attractivité du
système d’enseignement supérieur français, voire, comme cela a pu être parfois évoqué,
participer d’une rénovation des pratiques pédagogiques ;
– cette approche techniciste et partielle des questions soulevées par le numérique entraîne bien
souvent une confusion très préjudiciable entre maîtrise d’ouvrage et maîtrise d’oeuvre. L’on
gagnerait beaucoup à systématiquement clarifier cette distinction lorsqu’il est envisagé de lancer
un projet intégrant une forte composante numérique. Cela suppose que les directions des
établissements soient à même de se saisir de ces dossiers. Cela implique également la claire
conscience que tout projet lié au numérique, du fait de l’extension des questions soulevées,
implique systématiquement la collaboration étroite de différents métiers : enseignants,
chercheurs, informaticiens, professionnels des TICE et de la documentation, voire juristes et
économistes, doivent être encouragés à travailler ensemble. Il y a à décloisonner, et les
structures organisationnelles, et les barrières mentales des différents acteurs impliqués
dans les projets numériques, particulièrement celles organisées autour de la distinction
administrative entre BIATSS et enseignants-chercheurs. L’on peut, sans confusion des
rôles ni des métiers, travailler ensemble dans des logiques où l’apport de chacun est
essentiel à la réalisation du projet commun. Avec le numérique, il s’agit d’une ardente
nécessité.
Pédagogie et innovation
Vu ce qui vient d’être pointé, l’on ne s’étonnera pas que l’ADBU pose comme préalable à sa
réflexion sur la pédagogie universitaire une claire distinction entre innovation et numérique : les
TICE peuvent être l’instrument d’une pédagogie innovante, elles n’en sont la condition ni
nécessaire, ni suffisante.
Trois éléments retiennent l’attention des professionnels de la documentation dans leur réflexion
sur la pédagogie universitaire :
– les exigences du marché du travail : au-delà de la formation académique délivrée par les
établissements d’enseignement supérieur, les employeurs attendent de plus en plus des
diplômés toute une série de compétences de l’ordre des savoirs-faire et savoirs-être.
Autonomie, capacité à gérer des projets, à travailler en équipe, à encadrer, à conduire le
changement, à utiliser l’outil informatique, à communiquer en usant de canaux divers : même si
les mentions de spécialité des diplômes continuent à avoir en France un poids bien plus
important que dans les pays anglo-saxons, les compétences opérationnelles et relationnelles
revêtent aujourd’hui aux yeux des employeurs une importance croissante, souvent déterminante
pour départager des candidatures académiquement équivalentes. À l’instar des écoles, dont les
pratiques pédagogiques font traditionnellement une place plus importante à l’acquisition de
méthodes de travail et de codes de comportement professionnel, les universités ont aujourd’hui
à intégrer ces apprentissages à leurs cursus : plus que jamais, elles sont loin de ne former que
de futurs chercheurs. Une pédagogie active, conduisant l’étudiant à produire, seul ou en groupe,
des travaux, à mener des projets, à construire son autonomie, est aujourd’hui un impératif
absolu si l’on tient à garantir l’employabilité des diplômés, et une employabilité durable : parmi
les compétences les plus nécessaires, la capacité à mettre à jour ses savoirs dans une logique
d’autoformation permanente constitue un élément essentiel de la formation tout au long de la
vie, à côté des divers dispositifs d’accompagnement visant à acquérir de nouvelles
compétences ou développer celles que l’on possède, telle que la formation continue, le tutorat
ou le coaching ;
– les effets de la massification de l’accès à l’enseignement supérieur : les étudiants qui entrent
aujourd’hui à l’université ne maîtrisent pas forcément les compétences méthodologiques
nécessaires à leur réussite. Or la pédagogie universitaire fait encore trop peu de place à
l’apprentissage des savoirs-faire. L’essentiel des maquettes horaires proposées font la part belle
à l’acquisition des connaissances, et suffisent souvent à peine à accueillir toutes les ambitions
des enseignants dans ce domaine. Pour l’ADBU, ce dilemme doit trouver sa solution en
s’inspirant de l’exemple des pays anglo-saxons, germaniques, scandinaves : la salle de cours
n’a pas à être le lieu essentiel de l’acquisition des connaissances, la valeur ajoutée de
l’enseignant résidant davantage dans l’efficacité des dispositifs pédagogiques qu’il conçoit et
met en oeuvre pour favoriser l’appropriation des connaissances par ses étudiants que dans le
temps passé à mettre en forme le contenu à transmettre. Du reste, à proprement parler, les
contenus ne se transmettent pas : la réflexion de l’ADBU prend résolument place dans une
perspective constructiviste. Comme dans les pays comparables, il est possible d’imaginer des
dispositifs pédagogiques très simples dans lesquels la majeure partie de l’acquisition des
connaissances prend place en amont (lectures préalables) et en aval (travaux à réaliser par les
étudiants) de la séance avec l’enseignant. Dans ce type de dispositif, qui n’exclut nullement
quand nécessaire le recours au mode magistral, le cours joue essentiellement un rôle de
médiation ou de remédiation vis-à-vis des savoirs à acquérir. L’enseignant anime des séances
dans lesquelles les étudiants sont placés dans une position plus active que pour une simple
prise de notes, et peuvent éclaircir, approfondir, discuter avec lui les points difficiles, obscurs ou
polémiques des contenus dont ils ont pris connaissance au cours de leurs lectures préalables
(lectures elles aussi actives, qui ont donné lieu à une première appropriation des savoirs par
l’établissement de notes, de fiches, etc.). Cette approche dynamique de la séance de cours est
en outre tout à fait compatible avec des effectifs importants (4).
– le régime d’infobésité introduit par le Web et la mondialisation de l’information : l’étudiant
d’aujourd’hui n’est plus dans le régime que connaissaient ses prédécesseurs il y a 20 ans. De
ce fait, l’apprentissage de la maîtrise informationnelle a changé de figure : dans les années
1980 et 1990, l’information était difficile à trouver, l’interrogation des bases de données
informatiques exigeait la maîtrise de langages spécifiques ou du fonctionnement d’index
souvent éloignés du langage naturel. Aujourd’hui, le problème est inverse : prévaut un régime
d’infobésité. La difficulté n’est donc plus de trouver l’information, mais de se repérer dans un
déluge informationnel multiforme, face auquel les digital natives ou la génération Y (à supposer
que ces découpages un peu rapides soient un tant soit peu opératoires), ne sont pas mieux
armés, et peut-être même moins, que leurs aînés. Or la capacité à trier l’information, c’est-à-dire
à identifier l’information pertinente, mais aussi et surtout à l’évaluer, à l’exploiter, à la synthétiser,
à la réutiliser dans des situations décontextualisées constituent des compétences essentielles,
que l’on se destine à la recherche ou à d’autres activités professionnelles, que l’on ait un point à
faire sur un sujet ou que l’on doive tenir à jour ses connaissances dans un domaine.
L’apprentissage de ce type de compétences opératoires n’a pas de sens coupé des
enseignements disciplinaires : l’y intégrer suppose, au sein d’un cursus, de réfléchir en amont
avec les enseignants au cours, à la période, au dispositif les plus propices à son insertion
naturelle dans la progression pédagogique. Par exemple : intégration sur plusieurs séances de
TD d’un travail de recherche à réaliser sur un thème ou une problématique précis définis par
l’enseignant, et en correspondance étroite avec le cours. Ce travail de recherche est encadré
par les bibliothécaires et le chargé de TD à travers un dispositif pédagogique plaçant l’étudiant
dans une position active (TD essentiellement tutoré par exemple), et idéalement, exploitant son
utilitarisme, lorsque la production finale doit être évaluée. Contrairement à la pratique
actuellement majoritaire, les séances de TD ne sont dès lors plus dévolues à la remédiation,
celle-ci ayant eu lieu en cours avec l’enseignant expert de sa discipline : elles ont pour objet tout
à la fois des apprentissages méthodologiques et disciplinaires, sur un mode à même de
développer l’autonomie de l’étudiant (et du futur professionnel). Cela suppose, en amont des
séquences d’enseignement, un échange pédagogique entre les différents professionnels
impliqués (dans notre exemple, le bibliothécaire, l’enseignant, le chargé de TD, mais l’on
pourrait également songer à l’ingénieur pédagogique lorsque le dispositif recourt aux TICE(5)) : ce
type d’approche impose sans ambiguïté de décloisonner les métiers et de travailler selon des
logiques d’équipes pédagogiques encore trop peu répandues en France. C’est moins coûteux
que le Plan Réussir en Licence, mais l’on pense que cela peut être plus efficace (6).
Sans exclure le moment magistral, qui a indéniablement son utilité si la situation d’apprentissage
l’impose, les pays d’Amérique du Nord et du Nord de l’Europe pratiquent depuis parfois longtemps
ces approches pédagogiques.
S’y ajoute en outre une confiance plus importante accordée à l’apprentissage entre pairs (social
learning) : de même qu’un chercheur en déplacement pour un colloque apprend autant sinon plus
des échanges entre pairs permis par les interstices de la manifestation scientifique proprement
dite (pauses café, social events, etc.), de même il n’y a pas à négliger les apprentissages que
peuvent réaliser les étudiants lors de travaux collaboratifs, que ceux-ci soient tutorés ou conduits
en autonomie : les compétences techniques liées à l’outil informatique par exemple peuvent pour
une grande part être acquises dans ce cadre (non-exclusif d’autres modalités (7)), à rebours de
l’approche exclusivement techniciste qui a prévalu pour le C2i, avec la réussite très mitigée que
l’on connaît (8). En somme, ce type de modèle pédagogique privilégie un apprentissage par le
numérique, et tissé avec les compétences disciplinaires, plutôt que des formations au numérique,
“hors sol”, et coupées des enseignements.
Attention portée, à côté des savoirs, aux compétences opérationnelles et relationnelles, et
notamment à la maîtrise de l’information, pédagogie active et participative, place de la lecture (des
lectures) dans l’apprentissage (9), logiques d’équipes pédagogiques et décloisonnement des métiers,
accent mis sur le travail collaboratif et l’apprentissage entre pairs : tous ces éléments manifestent
une approche « user-centric », qui place l’étudiant au coeur de l’organisation des enseignements.
Adossé à cette logique, le paradigme de nouvelle bibliothèque connu sous le nom de learning
centre (première réalisation en 1996 à l’Université de Sheffield) s’est construit à rebours du modèle
de l’ancienne teaching library. L’opposition des termes, classique en anglais, dit assez pourquoi il
n’existe pas encore d’équipement de ce type en France, à proprement parler : au-delà des aspects
bâtimentaires, qui ont beaucoup frappé mais sont induits par les logiques pédagogiques et non
l’inverse, un learning centre est avant tout, comme son nom l’indique, un carrefour des
apprentissages, permettant aux étudiants de travailler seuls (10) , en groupe, en mode tutoré (ce qui
suppose de faire cohabiter harmonieusement des niveaux sonores différents), avec des
amplitudes d’ouverture au public très larges (logique centrée sur l’usager, qui a là encore des
conséquences sur la conception du bâtiment : présence de boutiques, de lieux de vie et de
restauration, d’espaces d’animation culturelle, possibilité de n’ouvrir que certaines parties du
bâtiment, avec un minimum de personnel). Souvent aussi, le learning centre opère comme un
guichet unique pour toute une série de démarches administratives ou de services (bourses,
logement, orientation, etc.) nécessaires à l’étudiant, au-delà des traditionnels IT desks (11). Enfin, il
peut être également un centre de ressources pour l’enseignement, par la fusion ou l’articulation
des services documentaires, TICE, voire informatiques, et des structures en charge du
développement et du soutien pédagogique (l’équivalent des SUP français actuellement
émergents) : encore une logique de guichet unique, mais cette fois à destination des enseignants.
On a pu considérer que ce modèle du learning centre, malgré sa rapide diffusion et son succès
manifeste en Amérique du Nord et dans le Nord de l’Europe, arrivait trop tard par rapport aux défis
posés par le numérique : pourquoi en effet concentrer dans un bâtiment, aussi emblématique soitil,
l’essentiel des dispositifs d’innovation pédagogique des campus, à un moment où le nomadisme
permis par l’outil numérique devrait conduire à un modèle plus réparti, plus réticulaire ?
On a ainsi opposé un peu rapidement learning centres et learning networks. En fait ces deux
approches procèdent d’une logique commune (12), et ont été pensées très vite en complémentarité
plutôt qu’en opposition, comme l’illustre par exemple le document programmatique du JISC (13)
Designing spaces for effective learning – A guide to 21st century learning space design (14). Les
learning centres ne sont pas exclusifs d’autres dispositifs, bien au contraire. Ils se sont rapidement
imposés du fait de la nécessité de concentrer certaines ressources dans un contexte optimisation
forcée des moyens (comment ouvrir tous les bâtiments universitaires sur de grandes amplitudes
horaires, par exemple ?). Mais ils ne sont qu’une illustration, au niveau des bibliothèques, de
démarches pédagogiques plus globales, réellement centrées sur les étudiants, et impliquant un
véritablement décloisonnement des métiers impliqués, à différents niveaux, dans les processus de
formation.
Ces méthodes pédagogiques sont-elles transposables en France ? Sans doute, mais les pratiques
doivent évoluer. Pour l’ADBU, si l’on considère que les questions de sélection à l’entrée de
l’université et de montants des droits acquittés par les étudiants sont trop politiquement sensibles
pour être discutées, quatre leviers peuvent néanmoins concourir à progresser :
– la contractualisation et l’expérimentation : les contrats quinquennaux pourraient être l’occasion
de soutenir, dans des établissements volontaires, des stratégies globales de refondation
pédagogique, dans une logique de démonstrateurs. La médiatisation des expériences réussies
et des bonnes pratiques qui en seraient tirées serait assurément à même de créer un certain
effet d’entraînement ;
– la formation : si les Espé ont probablement un rôle à jouer, la démarche d’appui et
d’accompagnement proposé par les SUP semble plus adaptée aux besoins et logiques
universitaires ;
– l’évaluation : enfin la clé du problème réside probablement en grande partie dans la nécessaire
réévaluation de l’investissement pédagogique dans l’avancement de carrière et la promotion des
enseignants-chercheurs, aujourd’hui exclusivement fondés sur leurs résultats de recherche.
C’est devenu une banalité de le dire, mais rien n’a pour autant changé sur ce plan.
L’IST et les politiques de site
Du fait du numérique, les questions d’IST sont plus que jamais au coeur des processus de
recherche. À l’université, ces questions, si l’on excepte ce qui touche à l’acquisition de ressources
électroniques, restent d’une manière générale très mal connues des décideurs, qui en somme
demandent bien moins aux professionnels de la documentation que la contribution que ces
derniers pourraient apporter. Les organismes de recherche ont dans ce domaine une petite
longueur d’avance, comme en atteste le récent séminaire organisé par le CNRS à Meudon, autour
de sa stratégie pour l’IST : http://www.cnrs.fr/dist/z-outils/documents/STRATEGIE.pdf
Trois axes de travail et de progrès, intimement liés, doivent être rapidement pris en considération
aujourd’hui. Ils sont au sens plein du terme stratégiques, et au coeur des bouleversements
profonds introduits par le numérique dans la manière de faire de la science (ce que John Taylor,
alors Directeur général de l’Office of Science and Technology britannique désignait en 1999 du
terme de e-science) :
• il y a tout d’abord la question de l’évaluation et du pilotage de la recherche. Un enjeu majeur,
très fortement corrélé à la problématique des publications. Dans ce dernier domaine, le débat
fait rage depuis plusieurs années entre partisans du tout open access, et ceux qui n’y croient
guère, ou à moitié. C’est un débat qui apparaît de plus en plus comme un luxe aujourd’hui, et
qui a été tranché dans un nombre croissant de pays ou dans le cadre du programme H2020,
avec la mise en place d’obligations de publier en open access dès lors que la recherche est
effectuée sur financements publics : avec l’apparition de produits comme SciVal (Elsevier) ou
Incites (Thomson Reuters), le risque est désormais tout proche que les outils de pilotage des
stratégies scientifiques et des politiques publiques de recherche dépendent entièrement du
secteur de l’édition privée, et non des financeurs. La question n’est donc plus de savoir s’il serait
ne serait-ce que possible de se passer d’éditeurs commerciaux pour publier de la science. La
question est : l’État, principal financeur de la recherche, et l’ensemble de ses opérateurs dans
ce domaine, veulent-ils conserver leur capacité d’analyse quant à leur stratégie scientifique ? Si
oui, il faut bâtir un écosystème d’évaluation le plus fiable possible, et cela implique que la
production scientifique soit librement accessible, donc en open access, et qu’une réflexion soit
engagée, au niveau national, sur les outils d’évaluation et de pilotage de la science dans le
contexte technologique et de production massive actuel. Dans ce domaine, les bibliothécaires
ont une expertise à apporter, complémentaires de celles des services de la recherche, toutes
compétences qu’il conviendrait de décloisonner, là encore, et de mutualiser, au sein de cellules
bibliométriques qui pourraient être constituées, avec le concours des organismes, au niveau des
COMUE ;
• l’autre grande évolution, c’est ce qu’on appelle désormais la data driven science. Les données
sont en effet partout aujourd’hui, et dans des quantités inouïes. L’instrumentation scientifique en
produit des masses phénoménales (par exemple en astronomie, en aéronautique, ou en
physique des hautes énergies et des particules), qui constituent une grande part de ce qu’on
appelle les données brutes de la recherche. Dans le domaine des sciences humaines, les
humanités numériques (digital humanities) renouvellent l’approche des textes et des corpus. La
science recourt aussi de plus en plus, dans certains secteurs comme les études relatives à la
biodiversité, aux données issues du crowdsourcing, via la mise en place de véritables plans de
collecte par le grand public. Le text and data mining (TDM) quant à lui, dont on débat beaucoup
ces derniers mois, en offrant la possibilité de fouiller, de manière croisée, d’énormes quantités
de données, souvent issues de plusieurs bases hétérogènes, ouvre des possibilités inédites à la
plupart des disciplines, de la génomique à la sociologie, en passant par la littérature ou la
linguistique, dans une économie de moyens inimaginable jusqu’alors : la recherche médicale ou
pharmaceutique sont par exemple très friandes de l’analyse de comptes rendus d’expériences
ratées (« les résultats négatifs de la science ») afin d’éviter d’engager des moyens dans des
voies sans issues. Enfin, toutes ces évolutions ont pour fond la construction d’un Web de
données, dit aussi Web sémantique, qui en étendant sa logique réticulaire jusqu’à la liaison
entre elles des plus petites unités d’information disponibles, les données, et en recourant pour
ce faire à un formalisme de niveau supérieur, porte la promesse de pouvoir les relier entre elles,
quel que soit leur contexte de production, et sans nécessité d’un format-pivot ni
appauvrissement de l’information (linked open data). Là encore, à condition de disposer de
moyens humains suffisants et d’être intégrés aux processus de recherche, les professionnels de
la documentation, dont les données constituent le coeur de métier, ont beaucoup à apporter ;
• enfin, il y a le cadre juridique du droit de l’information et de la propriété intellectuelle, qui ne
prend pas assez en compte en France les intérêts et les besoins de l’ESR (ceux de la Culture
ne sont pas moins légitimes, mais ils ne peuvent être les seuls qui vaillent) : l’exception
enseignement et recherche de la loi DADVSI (droit d’auteur et droits voisins dans la société de
l’information) par exemple, étique et inutilement restrictive, n’offre pas le cadre approprié au
développement d’une science (et d’une pédagogie) intégrant le numérique. La question du text
and data mining (15) examinée récemment en France par le CSPLA dans 15 le cadre du projet de
révision de la directive 2001/29/CE dite copyright de l’Union européenne, l’absence d’une loi
française imposant, moyennant un embargo raisonnable (celui adopté par le programme H2020
semble adapté), le dépôt en open access de toute publication issue d’un travail de recherche
financé sur fonds publics constituent d’autres exemples de questions juridiques stratégiques et
urgentes, qui faute de traitement, constituent des freins pour la recherche et l’innovation, en
décalage avec les initiatives prises à l’étranger où ces questions, sur lesquelles là encore les
professionnels de la documentation ont une expertise, reçoivent les réponses nécessaires (16). Le
risque de décrochage compétitif de l’appareil de recherche français est réel.
Les questions relatives à l’IST sont difficiles à appréhender : elles sont souvent très techniques, y
compris sur le plan juridique, et les intérêts en jeu imposent que certaines initiatives soient prises à
un niveau a minima national. Ce qui ne signifie pas que rien ne puisse ni ne doive être fait au
niveau local. Pour résumer grossièrement, l’on pourrait dire que dans le domaine de l’IST, les
questions relatives aux collections relèvent aujourd’hui majoritairement d’un niveau national (les
programmes ISTEX et Licences nationales, le projet COLLEX à venir, en sont un bonne
illustration (17) ) , et celles des services aux chercheurs, du niveau local (celui des sites peut être
pertinent même cherche sa substance), même si l’articulation entre les différents plans
d’intervention est toujours de mise (18).
Cette complexité suppose de porter une attention accrue aux volets documentaires des contrats
de site, et d’intégrer plus avant les professionnels de la documentation à la réflexion des
établissements quant à leurs stratégies de recherche. Là encore, le décloisonnement des métiers,
qui n’est jamais dilution mais enrichissement réciproque, doit être promu et encouragé : les
exemples étrangers, notamment en Europe du Nord ou au Québec, doivent pouvoir offrir de bons
guides, transposables, en la matière.
“8
1 http://www.bibliothequescientifiquenumerique.fr
2 http://www.istex.fr
3 http://www.licencesnationales.fr
4 Voir par exemple : http://www.aef.info/abonne/depeche/474815
5 Un exemple très banal de décloisonnement possible, encore très rare en France : la mise en relation des
contenus pédagogiques et des bibliographies des plateformes TICE avec les documents de la bibliothèque
numérique gérée par le SCD.
6 http://www.ccomptes.fr/content/download/1832/18376/version/1/file/Reussite_en_licence.pdf
7 La présence en permanence, dans les espaces de la bibliothèque, d’une équipe d’informaticiens rodés aux
techniques d’accueil des publics est banale dans les pays du Nord de l’Europe (IT desk) : outre la
maintenance du parc informatique, ces personnels sont chargés d’action de formation, sous forme de TD ou
sur le vif, à destination des usagers.
8 Et qui colore encore nettement par exemple le récent projet d’introduction d’une formation systématique en
informatique dès les débuts de la scolarité.
9 Pour une étude française sur cette question : http://bibliotheques.univ-toulouse.fr/fichiers/etude-emprunten-
bu-et-reussite-en-licence20121221.pdf (bonne synthèse sur http://www.franceinfo.fr/emission/question-deducation/
2013-2014/bibliotheques-universitaires-et-reussite-en-licence-tu-t-es-vu-sansbu-
03-26-2014-13-45), que corroborent les premiers résultats d’études étrangères de plus grande ampleur,
en cours : http://www.eua.be/eua-work-and-policy-area/building-the-european-higher-education-area/
projects/tracking-learners-and-graduates-progression-paths.aspx
10 Seuls, ce peut être aussi avec l’appui de différents outils technologiques, pour acquérir des
connaissances (consultation d’un contenu pédagogique en ligne) ou pour s’entraîner (training) : exercices en
ligne autocorrigés, serious games, recours à l’outil audiovisuel pour travailler à améliorer ses prestations
orales, etc. Ces outils sont toujours conçus en accompagnement de la formation en présentiel. La
dématérialisation complète des formations, très coûteuse contrairement à l’idée encore trop souvent
répandue, n’est véritablement adaptée que dans des contextes de formation tout au long de la vie, où
l’apprenant est professionnellement environné, motivé, soutenu. En formation initiale, ce type de dispositif a
toutes les chances d’échouer, pour des raisons inverses, auxquelles il faut ajouter la surcharge cognitive
qu’entraîne la manipulation de nombreux outils numériques, dont les digital natives ne sont pas davantage
familiers que leurs aînés, quoi qu’on dise.
11 Pour un exemple particulièrement réussi de ce type de service, voir par exemple le Saltire Centre de
Glasgow, dont l’aboutissement est le résultat d’un fort soutien politique et d’un pilotage managérial au plus
haut niveau : http://www.gcu.ac.uk/library/services/thebase/
12 L’évolution du modèle du subject librarian vers un liaison librarian, concomitante de la mise en place des
learning centres, est une autre illustration, cette fois dans le domaine de l’IST, de la complémentarité de ces
approches : http://eprints.nottingham.ac.uk/33/2/JOLIS.txt
13 Le JISC est un groupement d’intérêt informel britannique sans équivalent en France. Ce serait une sorte
d’articulation informelle et réussie entre RENATER, l’AMUE, Couperin, l’INIST, l’ABES, et tous les acteurs
des TICE et de l’IST. Pour une description du fonctionnement et du périmètre du JISC, voir par exemple
l’étude consacrée par l’ADBU à cet objet aussi enviable qu’étrange : http://adbu.fr/wp-content/uploads/
2011/07/rapport_jisc_2009.pdf
14 http://www.jisc.ac.uk/uploaded_documents/JISClearningspaces.pdf
15 Il est symptomatique que sur des questions aussi cruciales pour la recherche, ni la CPU ni le MESR, en
France, n’aient pris position. Pour un résumé de l’intervention du consortium Couperin et de l’ADBU devant
le CSPLA : http://adbu.fr/wp-content/uploads/2014/04/Audition_CSPLA_TDM_2014_04_04_final.pdf
16 La Grande-Bretagne doit encore être citée, où le gouvernement a déposé un projet de loi sur la question,
suite au rapport Hargreaves de 2011 : http://www.legislation.gov.uk/ukdsi/2014/9780111112755
17 Pourtant, ce qui est généralement demandé aux professionnels de la documentation dans le cadre des
contrats de site, c’est précisément de mutualiser des achats documentaires. Or, ce n’est pas le bon niveau
d’intervention dans ce domaine. En effet, la commercialisation des abonnements aux ressources
électroniques repose très souvent sur des tranches tarifaires, fonction du nombre d’utilisateurs potentiels de
ces ressources, et par ailleurs jouent les effets du monopole légal que constitue le droit de la propriété
intellectuelle, qui permet aux éditeurs académiques d’imposer leurs prix. Quel que soit le cas de figure
considéré, le gain pour les établissements n’est pas à la hauteur des coûts de transaction de telles
opérations :
– soit tous les établissements concernés accèdent déjà à la ressource : au mieux l’éditeur se contentera
d’additionner les chiffres d’affaires réalisés avec chacun d’eux, pour déterminer un chiffre d’affaire
global, et le gain sera nul ; au pire (et c’est le cas le plus fréquent), la somme des utilisateurs potentiels
de chaque établissement conduira à souscrire au global l’abonnement sur la base d’une tranche
tarifaire supérieure, et la mutualisation aura pour effet en apparence seulement paradoxal que chacun
paiera davantage ;
− soit seuls certains établissements accèdent déjà à la ressource : dans la plupart des cas, la constitution
d’un groupement local incluant les non encore abonnés aura là encore pour effet le passage à une
tranche tarifaire supérieure, sans aucun avantage en termes de coûts, au contraire ; dans certaines
circonstances, il sera néanmoins possible de réaliser quelques économies, lorsque par exemple les
nouveaux abonnés sont de taille suffisamment faible (écoles par exemple) pour qu’il n’y ait pas de
changement de tranche tarifaire. Mais il y a généralement de bonnes raisons aux choix des
établissements non clients de ne pas s’abonner, soit que la ressource n’ait pas d’utilité pour eux, soit
qu’elle soit trop coûteuse. Dans tous les cas, les gains de la mutualisation, s’il y en a, seront donc très
faibles (et probablement peu pérennes : l’on peut compter sur les éditeurs pour identifier les manques à
gagner et réajuster leurs grilles tarifaires lors du contrat pluriannuel suivant) ;
− soit aucun des établissements n’est abonné à la ressource : il y a généralement de bonnes raisons à
cela (ressource inutile ou trop coûteuse), et la mutualisation au niveau local ne changera rien à la
donne.
18 L’ADBU et EPRIST, association soeur regroupant les directeurs IST des organismes de recherche, doivent
rendre des propositions précises quant à l’articulation des niveaux nationaux et locaux sur ces questions,
début juin 2014, au MESR. Ce document pourra être communiqué, s’il le souhaite, au Comité STRANES.