Accueil » Actualités » Stratégie nationale de l’enseignement supérieur (STRANES) : contribution de l’ADBU

Stratégie nationale de l’enseignement supérieur (STRANES) : contribution de l’ADBU

stranes.original_650

 

L’ADBU a été auditionné par le comité STRANES le 16 avril 2014. Les échanges avec les membres du comité ont été nourris

et les pilotes de ce comité, Sophie Béjean et Bertrand de Monthubert, nous ont invité à leur remettre une contribution écrite

afin de préciser notre propos.

Vous trouverez ci-dessous l’intégralité de la contribution ADBU.

Elle s’organise en trois points :

Des freins à lever dans l’ESR pour prendre enfin le tournant du numérique

Pédagogie et innovation

L’IST et les politiques de site

—————————————————

 

Des freins à lever dans l’ESR pour prendre enfin le tournant du numérique

Depuis le milieu des années 1990, le numérique constitue dans de nombreux secteurs une

innovation disruptive majeure. Dans le domaine de l’enseignement supérieur et de la recherche, il

n’a pourtant pas fait l’objet, en France, d’une élaboration programmatique systématique et

suffisamment englobante. La cause en est souvent en grande partie imputée aux caractéristiques

du paysage national de l’ESR, dispersé entre écoles, universités et organismes. Dans le domaine

de l’information scientifique et technique (IST), l’initiative BSN (Bibliothèque scientifique

numérique (1)) tente ainsi, avec un certain succès (projets ISTEX (2) et Licences nationales (3)) de mettre

en cohérence et faire converger l’action des différents opérateurs. Toutefois, en dehors de ce

secteur circonscrit, la France, contrairement à la plupart des pays comparables, n’a toujours pas

adopté une feuille de route nationale pour le numérique dans l’enseignement supérieur et la

recherche. Pour l’ADBU, c’est que les raisons de ces difficultés sont plus profondes. Elles ne

tiennent pas seulement à la complexité du paysage institutionnel français mais plus profondément

à des représentations et des réflexes intellectuels issus de cultures professionnelles en cours

d’adaptation :

– les dirigeants des universités sont ainsi trop souvent insuffisamment au fait des évolutions

technologiques, sociétales, juridiques, économiques, etc. liées au numérique : ces questions

sont considérées comme essentiellement techniques dans une opposition excessive avec les

plans politiques et stratégiques. Or, si elle est abordée au niveau pertinent, toute question

technique est une question politique. À l’instar des pays comparables, il serait logique

d’impliquer systématiquement les professionnels du numérique, non dans la prise de décision

(ils ne le revendiquent certainement pas), mais dans l’élaboration des orientations stratégiques

soumises au vote des instances décisionnaires ;

– corollaire inévitable du point précédent : le numérique a tendance à être confondu avec

l’informatique. Là où les usages (donc les usagers) et les contenus (culturels, informationnels,

pédagogiques, scientifiques, etc.) sont au coeur des questions soulevées par le numérique, les

projets destinés à négocier le tournant des « nouvelles technologies » (le terme n’est pas neutre)

dans les établissements de l’ESR répondent la plupart du temps outils, systèmes d’information,

infrastructures réseau. L’expansion du parc de tableaux blancs interactifs (TBI) dans les

établissements d’enseignement supérieur constitue un exemple emblématique de cette

approche : l’outil est censé porter en lui-même une rénovation des pratiques d’enseignement,

sans que soit, la plupart du temps, posée la question de l’intérêt pédagogique de cet objet

nouveau, ni celui du renouvellement des méthodes d’apprentissage en lien avec les besoins des

étudiants d’aujourd’hui. Ainsi, la plupart du temps, le TBI est simplement utilisé comme un

tableau noir de luxe. De la même manière, le projet FUN a essentiellement été présenté comme

une plateforme. C’est certes médiatiquement parlant, mais ne permet pas de saisir comment un

outil pourrait à lui seul répondre à la légitime question de la compétitivité et de l’attractivité du

système d’enseignement supérieur français, voire, comme cela a pu être parfois évoqué,

participer d’une rénovation des pratiques pédagogiques ;

– cette approche techniciste et partielle des questions soulevées par le numérique entraîne bien

souvent une confusion très préjudiciable entre maîtrise d’ouvrage et maîtrise d’oeuvre. L’on

gagnerait beaucoup à systématiquement clarifier cette distinction lorsqu’il est envisagé de lancer

un projet intégrant une forte composante numérique. Cela suppose que les directions des

établissements soient à même de se saisir de ces dossiers. Cela implique également la claire

conscience que tout projet lié au numérique, du fait de l’extension des questions soulevées,

implique systématiquement la collaboration étroite de différents métiers : enseignants,

chercheurs, informaticiens, professionnels des TICE et de la documentation, voire juristes et

économistes, doivent être encouragés à travailler ensemble. Il y a à décloisonner, et les

structures organisationnelles, et les barrières mentales des différents acteurs impliqués

dans les projets numériques, particulièrement celles organisées autour de la distinction

administrative entre BIATSS et enseignants-chercheurs. L’on peut, sans confusion des

rôles ni des métiers, travailler ensemble dans des logiques où l’apport de chacun est

essentiel à la réalisation du projet commun. Avec le numérique, il s’agit d’une ardente

nécessité.

Pédagogie et innovation

Vu ce qui vient d’être pointé, l’on ne s’étonnera pas que l’ADBU pose comme préalable à sa

réflexion sur la pédagogie universitaire une claire distinction entre innovation et numérique : les

TICE peuvent être l’instrument d’une pédagogie innovante, elles n’en sont la condition ni

nécessaire, ni suffisante.

Trois éléments retiennent l’attention des professionnels de la documentation dans leur réflexion

sur la pédagogie universitaire :

– les exigences du marché du travail : au-delà de la formation académique délivrée par les

établissements d’enseignement supérieur, les employeurs attendent de plus en plus des

diplômés toute une série de compétences de l’ordre des savoirs-faire et savoirs-être.

Autonomie, capacité à gérer des projets, à travailler en équipe, à encadrer, à conduire le

changement, à utiliser l’outil informatique, à communiquer en usant de canaux divers : même si

les mentions de spécialité des diplômes continuent à avoir en France un poids bien plus

important que dans les pays anglo-saxons, les compétences opérationnelles et relationnelles

revêtent aujourd’hui aux yeux des employeurs une importance croissante, souvent déterminante

pour départager des candidatures académiquement équivalentes. À l’instar des écoles, dont les

pratiques pédagogiques font traditionnellement une place plus importante à l’acquisition de

méthodes de travail et de codes de comportement professionnel, les universités ont aujourd’hui

à intégrer ces apprentissages à leurs cursus : plus que jamais, elles sont loin de ne former que

de futurs chercheurs. Une pédagogie active, conduisant l’étudiant à produire, seul ou en groupe,

des travaux, à mener des projets, à construire son autonomie, est aujourd’hui un impératif

absolu si l’on tient à garantir l’employabilité des diplômés, et une employabilité durable : parmi

les compétences les plus nécessaires, la capacité à mettre à jour ses savoirs dans une logique

d’autoformation permanente constitue un élément essentiel de la formation tout au long de la

vie, à côté des divers dispositifs d’accompagnement visant à acquérir de nouvelles

compétences ou développer celles que l’on possède, telle que la formation continue, le tutorat

ou le coaching ;

– les effets de la massification de l’accès à l’enseignement supérieur : les étudiants qui entrent

aujourd’hui à l’université ne maîtrisent pas forcément les compétences méthodologiques

nécessaires à leur réussite. Or la pédagogie universitaire fait encore trop peu de place à

l’apprentissage des savoirs-faire. L’essentiel des maquettes horaires proposées font la part belle

à l’acquisition des connaissances, et suffisent souvent à peine à accueillir toutes les ambitions

des enseignants dans ce domaine. Pour l’ADBU, ce dilemme doit trouver sa solution en

s’inspirant de l’exemple des pays anglo-saxons, germaniques, scandinaves : la salle de cours

n’a pas à être le lieu essentiel de l’acquisition des connaissances, la valeur ajoutée de

l’enseignant résidant davantage dans l’efficacité des dispositifs pédagogiques qu’il conçoit et

met en oeuvre pour favoriser l’appropriation des connaissances par ses étudiants que dans le

temps passé à mettre en forme le contenu à transmettre. Du reste, à proprement parler, les

contenus ne se transmettent pas : la réflexion de l’ADBU prend résolument place dans une

perspective constructiviste. Comme dans les pays comparables, il est possible d’imaginer des

dispositifs pédagogiques très simples dans lesquels la majeure partie de l’acquisition des

connaissances prend place en amont (lectures préalables) et en aval (travaux à réaliser par les

étudiants) de la séance avec l’enseignant. Dans ce type de dispositif, qui n’exclut nullement

quand nécessaire le recours au mode magistral, le cours joue essentiellement un rôle de

médiation ou de remédiation vis-à-vis des savoirs à acquérir. L’enseignant anime des séances

dans lesquelles les étudiants sont placés dans une position plus active que pour une simple

prise de notes, et peuvent éclaircir, approfondir, discuter avec lui les points difficiles, obscurs ou

polémiques des contenus dont ils ont pris connaissance au cours de leurs lectures préalables

(lectures elles aussi actives, qui ont donné lieu à une première appropriation des savoirs par

l’établissement de notes, de fiches, etc.). Cette approche dynamique de la séance de cours est

en outre tout à fait compatible avec des effectifs importants (4).

– le régime d’infobésité introduit par le Web et la mondialisation de l’information : l’étudiant

d’aujourd’hui n’est plus dans le régime que connaissaient ses prédécesseurs il y a 20 ans. De

ce fait, l’apprentissage de la maîtrise informationnelle a changé de figure : dans les années

1980 et 1990, l’information était difficile à trouver, l’interrogation des bases de données

informatiques exigeait la maîtrise de langages spécifiques ou du fonctionnement d’index

souvent éloignés du langage naturel. Aujourd’hui, le problème est inverse : prévaut un régime

d’infobésité. La difficulté n’est donc plus de trouver l’information, mais de se repérer dans un

déluge informationnel multiforme, face auquel les digital natives ou la génération Y (à supposer

que ces découpages un peu rapides soient un tant soit peu opératoires), ne sont pas mieux

armés, et peut-être même moins, que leurs aînés. Or la capacité à trier l’information, c’est-à-dire

à identifier l’information pertinente, mais aussi et surtout à l’évaluer, à l’exploiter, à la synthétiser,

à la réutiliser dans des situations décontextualisées constituent des compétences essentielles,

que l’on se destine à la recherche ou à d’autres activités professionnelles, que l’on ait un point à

faire sur un sujet ou que l’on doive tenir à jour ses connaissances dans un domaine.

L’apprentissage de ce type de compétences opératoires n’a pas de sens coupé des

enseignements disciplinaires : l’y intégrer suppose, au sein d’un cursus, de réfléchir en amont

avec les enseignants au cours, à la période, au dispositif les plus propices à son insertion

naturelle dans la progression pédagogique. Par exemple : intégration sur plusieurs séances de

TD d’un travail de recherche à réaliser sur un thème ou une problématique précis définis par

l’enseignant, et en correspondance étroite avec le cours. Ce travail de recherche est encadré

par les bibliothécaires et le chargé de TD à travers un dispositif pédagogique plaçant l’étudiant

dans une position active (TD essentiellement tutoré par exemple), et idéalement, exploitant son

utilitarisme, lorsque la production finale doit être évaluée. Contrairement à la pratique

actuellement majoritaire, les séances de TD ne sont dès lors plus dévolues à la remédiation,

celle-ci ayant eu lieu en cours avec l’enseignant expert de sa discipline : elles ont pour objet tout

à la fois des apprentissages méthodologiques et disciplinaires, sur un mode à même de

développer l’autonomie de l’étudiant (et du futur professionnel). Cela suppose, en amont des

séquences d’enseignement, un échange pédagogique entre les différents professionnels

impliqués (dans notre exemple, le bibliothécaire, l’enseignant, le chargé de TD, mais l’on

pourrait également songer à l’ingénieur pédagogique lorsque le dispositif recourt aux TICE(5)) : ce

type d’approche impose sans ambiguïté de décloisonner les métiers et de travailler selon des

logiques d’équipes pédagogiques encore trop peu répandues en France. C’est moins coûteux

que le Plan Réussir en Licence, mais l’on pense que cela peut être plus efficace (6).

Sans exclure le moment magistral, qui a indéniablement son utilité si la situation d’apprentissage

l’impose, les pays d’Amérique du Nord et du Nord de l’Europe pratiquent depuis parfois longtemps

ces approches pédagogiques.

S’y ajoute en outre une confiance plus importante accordée à l’apprentissage entre pairs (social

learning) : de même qu’un chercheur en déplacement pour un colloque apprend autant sinon plus

des échanges entre pairs permis par les interstices de la manifestation scientifique proprement

dite (pauses café, social events, etc.), de même il n’y a pas à négliger les apprentissages que

peuvent réaliser les étudiants lors de travaux collaboratifs, que ceux-ci soient tutorés ou conduits

en autonomie : les compétences techniques liées à l’outil informatique par exemple peuvent pour

une grande part être acquises dans ce cadre (non-exclusif d’autres modalités (7)), à rebours de

l’approche exclusivement techniciste qui a prévalu pour le C2i, avec la réussite très mitigée que

l’on connaît (8). En somme, ce type de modèle pédagogique privilégie un apprentissage par le

numérique, et tissé avec les compétences disciplinaires, plutôt que des formations au numérique,

« hors sol », et coupées des enseignements.

Attention portée, à côté des savoirs, aux compétences opérationnelles et relationnelles, et

notamment à la maîtrise de l’information, pédagogie active et participative, place de la lecture (des

lectures) dans l’apprentissage (9), logiques d’équipes pédagogiques et décloisonnement des métiers,

accent mis sur le travail collaboratif et l’apprentissage entre pairs : tous ces éléments manifestent

une approche « user-centric », qui place l’étudiant au coeur de l’organisation des enseignements.

Adossé à cette logique, le paradigme de nouvelle bibliothèque connu sous le nom de learning

centre (première réalisation en 1996 à l’Université de Sheffield) s’est construit à rebours du modèle

de l’ancienne teaching library. L’opposition des termes, classique en anglais, dit assez pourquoi il

n’existe pas encore d’équipement de ce type en France, à proprement parler : au-delà des aspects

bâtimentaires, qui ont beaucoup frappé mais sont induits par les logiques pédagogiques et non

l’inverse, un learning centre est avant tout, comme son nom l’indique, un carrefour des

apprentissages, permettant aux étudiants de travailler seuls (10) , en groupe, en mode tutoré (ce qui

suppose de faire cohabiter harmonieusement des niveaux sonores différents), avec des

amplitudes d’ouverture au public très larges (logique centrée sur l’usager, qui a là encore des

conséquences sur la conception du bâtiment : présence de boutiques, de lieux de vie et de

restauration, d’espaces d’animation culturelle, possibilité de n’ouvrir que certaines parties du

bâtiment, avec un minimum de personnel). Souvent aussi, le learning centre opère comme un

guichet unique pour toute une série de démarches administratives ou de services (bourses,

logement, orientation, etc.) nécessaires à l’étudiant, au-delà des traditionnels IT desks (11). Enfin, il

peut être également un centre de ressources pour l’enseignement, par la fusion ou l’articulation

des services documentaires, TICE, voire informatiques, et des structures en charge du

développement et du soutien pédagogique (l’équivalent des SUP français actuellement

émergents) : encore une logique de guichet unique, mais cette fois à destination des enseignants.

 

On a pu considérer que ce modèle du learning centre, malgré sa rapide diffusion et son succès

manifeste en Amérique du Nord et dans le Nord de l’Europe, arrivait trop tard par rapport aux défis

posés par le numérique : pourquoi en effet concentrer dans un bâtiment, aussi emblématique soitil,

l’essentiel des dispositifs d’innovation pédagogique des campus, à un moment où le nomadisme

permis par l’outil numérique devrait conduire à un modèle plus réparti, plus réticulaire ?

On a ainsi opposé un peu rapidement learning centres et learning networks. En fait ces deux

approches procèdent d’une logique commune (12), et ont été pensées très vite en complémentarité

plutôt qu’en opposition, comme l’illustre par exemple le document programmatique du JISC (13)

Designing spaces for effective learning – A guide to 21st century learning space design (14). Les

learning centres ne sont pas exclusifs d’autres dispositifs, bien au contraire. Ils se sont rapidement

imposés du fait de la nécessité de concentrer certaines ressources dans un contexte optimisation

forcée des moyens (comment ouvrir tous les bâtiments universitaires sur de grandes amplitudes

horaires, par exemple ?). Mais ils ne sont qu’une illustration, au niveau des bibliothèques, de

démarches pédagogiques plus globales, réellement centrées sur les étudiants, et impliquant un

véritablement décloisonnement des métiers impliqués, à différents niveaux, dans les processus de

formation.

Ces méthodes pédagogiques sont-elles transposables en France ? Sans doute, mais les pratiques

doivent évoluer. Pour l’ADBU, si l’on considère que les questions de sélection à l’entrée de

l’université et de montants des droits acquittés par les étudiants sont trop politiquement sensibles

pour être discutées, quatre leviers peuvent néanmoins concourir à progresser :

– la contractualisation et l’expérimentation : les contrats quinquennaux pourraient être l’occasion

de soutenir, dans des établissements volontaires, des stratégies globales de refondation

pédagogique, dans une logique de démonstrateurs. La médiatisation des expériences réussies

et des bonnes pratiques qui en seraient tirées serait assurément à même de créer un certain

effet d’entraînement ;

– la formation : si les Espé ont probablement un rôle à jouer, la démarche d’appui et

d’accompagnement proposé par les SUP semble plus adaptée aux besoins et logiques

universitaires ;

– l’évaluation : enfin la clé du problème réside probablement en grande partie dans la nécessaire

réévaluation de l’investissement pédagogique dans l’avancement de carrière et la promotion des

enseignants-chercheurs, aujourd’hui exclusivement fondés sur leurs résultats de recherche.

C’est devenu une banalité de le dire, mais rien n’a pour autant changé sur ce plan.

L’IST et les politiques de site

Du fait du numérique, les questions d’IST sont plus que jamais au coeur des processus de

recherche. À l’université, ces questions, si l’on excepte ce qui touche à l’acquisition de ressources

électroniques, restent d’une manière générale très mal connues des décideurs, qui en somme

demandent bien moins aux professionnels de la documentation que la contribution que ces

derniers pourraient apporter. Les organismes de recherche ont dans ce domaine une petite

longueur d’avance, comme en atteste le récent séminaire organisé par le CNRS à Meudon, autour

de sa stratégie pour l’IST : http://www.cnrs.fr/dist/z-outils/documents/STRATEGIE.pdf

Trois axes de travail et de progrès, intimement liés, doivent être rapidement pris en considération

aujourd’hui. Ils sont au sens plein du terme stratégiques, et au coeur des bouleversements

profonds introduits par le numérique dans la manière de faire de la science (ce que John Taylor,

alors Directeur général de l’Office of Science and Technology britannique désignait en 1999 du

terme de e-science) :

• il y a tout d’abord la question de l’évaluation et du pilotage de la recherche. Un enjeu majeur,

très fortement corrélé à la problématique des publications. Dans ce dernier domaine, le débat

fait rage depuis plusieurs années entre partisans du tout open access, et ceux qui n’y croient

guère, ou à moitié. C’est un débat qui apparaît de plus en plus comme un luxe aujourd’hui, et

qui a été tranché dans un nombre croissant de pays ou dans le cadre du programme H2020,

avec la mise en place d’obligations de publier en open access dès lors que la recherche est

effectuée sur financements publics : avec l’apparition de produits comme SciVal (Elsevier) ou

Incites (Thomson Reuters), le risque est désormais tout proche que les outils de pilotage des

stratégies scientifiques et des politiques publiques de recherche dépendent entièrement du

secteur de l’édition privée, et non des financeurs. La question n’est donc plus de savoir s’il serait

ne serait-ce que possible de se passer d’éditeurs commerciaux pour publier de la science. La

question est : l’État, principal financeur de la recherche, et l’ensemble de ses opérateurs dans

ce domaine, veulent-ils conserver leur capacité d’analyse quant à leur stratégie scientifique ? Si

oui, il faut bâtir un écosystème d’évaluation le plus fiable possible, et cela implique que la

production scientifique soit librement accessible, donc en open access, et qu’une réflexion soit

engagée, au niveau national, sur les outils d’évaluation et de pilotage de la science dans le

contexte technologique et de production massive actuel. Dans ce domaine, les bibliothécaires

ont une expertise à apporter, complémentaires de celles des services de la recherche, toutes

compétences qu’il conviendrait de décloisonner, là encore, et de mutualiser, au sein de cellules

bibliométriques qui pourraient être constituées, avec le concours des organismes, au niveau des

COMUE ;

• l’autre grande évolution, c’est ce qu’on appelle désormais la data driven science. Les données

sont en effet partout aujourd’hui, et dans des quantités inouïes. L’instrumentation scientifique en

produit des masses phénoménales (par exemple en astronomie, en aéronautique, ou en

physique des hautes énergies et des particules), qui constituent une grande part de ce qu’on

appelle les données brutes de la recherche. Dans le domaine des sciences humaines, les

humanités numériques (digital humanities) renouvellent l’approche des textes et des corpus. La

science recourt aussi de plus en plus, dans certains secteurs comme les études relatives à la

biodiversité, aux données issues du crowdsourcing, via la mise en place de véritables plans de

collecte par le grand public. Le text and data mining (TDM) quant à lui, dont on débat beaucoup

ces derniers mois, en offrant la possibilité de fouiller, de manière croisée, d’énormes quantités

de données, souvent issues de plusieurs bases hétérogènes, ouvre des possibilités inédites à la

plupart des disciplines, de la génomique à la sociologie, en passant par la littérature ou la

linguistique, dans une économie de moyens inimaginable jusqu’alors : la recherche médicale ou

pharmaceutique sont par exemple très friandes de l’analyse de comptes rendus d’expériences

ratées (« les résultats négatifs de la science ») afin d’éviter d’engager des moyens dans des

voies sans issues. Enfin, toutes ces évolutions ont pour fond la construction d’un Web de

données, dit aussi Web sémantique, qui en étendant sa logique réticulaire jusqu’à la liaison

entre elles des plus petites unités d’information disponibles, les données, et en recourant pour

ce faire à un formalisme de niveau supérieur, porte la promesse de pouvoir les relier entre elles,

quel que soit leur contexte de production, et sans nécessité d’un format-pivot ni

appauvrissement de l’information (linked open data). Là encore, à condition de disposer de

moyens humains suffisants et d’être intégrés aux processus de recherche, les professionnels de

la documentation, dont les données constituent le coeur de métier, ont beaucoup à apporter ;

• enfin, il y a le cadre juridique du droit de l’information et de la propriété intellectuelle, qui ne

prend pas assez en compte en France les intérêts et les besoins de l’ESR (ceux de la Culture

ne sont pas moins légitimes, mais ils ne peuvent être les seuls qui vaillent) : l’exception

enseignement et recherche de la loi DADVSI (droit d’auteur et droits voisins dans la société de

l’information) par exemple, étique et inutilement restrictive, n’offre pas le cadre approprié au

développement d’une science (et d’une pédagogie) intégrant le numérique. La question du text

and data mining (15) examinée récemment en France par le CSPLA dans 15 le cadre du projet de

révision de la directive 2001/29/CE dite copyright de l’Union européenne, l’absence d’une loi

française imposant, moyennant un embargo raisonnable (celui adopté par le programme H2020

semble adapté), le dépôt en open access de toute publication issue d’un travail de recherche

financé sur fonds publics constituent d’autres exemples de questions juridiques stratégiques et

urgentes, qui faute de traitement, constituent des freins pour la recherche et l’innovation, en

décalage avec les initiatives prises à l’étranger où ces questions, sur lesquelles là encore les

professionnels de la documentation ont une expertise, reçoivent les réponses nécessaires (16). Le

risque de décrochage compétitif de l’appareil de recherche français est réel.

Les questions relatives à l’IST sont difficiles à appréhender : elles sont souvent très techniques, y

compris sur le plan juridique, et les intérêts en jeu imposent que certaines initiatives soient prises à

un niveau a minima national. Ce qui ne signifie pas que rien ne puisse ni ne doive être fait au

niveau local. Pour résumer grossièrement, l’on pourrait dire que dans le domaine de l’IST, les

questions relatives aux collections relèvent aujourd’hui majoritairement d’un niveau national (les

programmes ISTEX et Licences nationales, le projet COLLEX à venir, en sont un bonne

illustration (17) ) , et celles des services aux chercheurs, du niveau local (celui des sites peut être

pertinent même cherche sa substance), même si l’articulation entre les différents plans

d’intervention est toujours de mise (18).

Cette complexité suppose de porter une attention accrue aux volets documentaires des contrats

de site, et d’intégrer plus avant les professionnels de la documentation à la réflexion des

établissements quant à leurs stratégies de recherche. Là encore, le décloisonnement des métiers,

qui n’est jamais dilution mais enrichissement réciproque, doit être promu et encouragé : les

exemples étrangers, notamment en Europe du Nord ou au Québec, doivent pouvoir offrir de bons

guides, transposables, en la matière.

« 8

 

 

1 http://www.bibliothequescientifiquenumerique.fr

2 http://www.istex.fr

3 http://www.licencesnationales.fr

4 Voir par exemple : http://www.aef.info/abonne/depeche/474815

5 Un exemple très banal de décloisonnement possible, encore très rare en France : la mise en relation des

contenus pédagogiques et des bibliographies des plateformes TICE avec les documents de la bibliothèque

numérique gérée par le SCD.

6 http://www.ccomptes.fr/content/download/1832/18376/version/1/file/Reussite_en_licence.pdf

7 La présence en permanence, dans les espaces de la bibliothèque, d’une équipe d’informaticiens rodés aux

techniques d’accueil des publics est banale dans les pays du Nord de l’Europe (IT desk) : outre la

maintenance du parc informatique, ces personnels sont chargés d’action de formation, sous forme de TD ou

sur le vif, à destination des usagers.

8 Et qui colore encore nettement par exemple le récent projet d’introduction d’une formation systématique en

informatique dès les débuts de la scolarité.

9 Pour une étude française sur cette question : http://bibliotheques.univ-toulouse.fr/fichiers/etude-emprunten-

bu-et-reussite-en-licence20121221.pdf (bonne synthèse sur http://www.franceinfo.fr/emission/question-deducation/

2013-2014/bibliotheques-universitaires-et-reussite-en-licence-tu-t-es-vu-sansbu-

03-26-2014-13-45), que corroborent les premiers résultats d’études étrangères de plus grande ampleur,

en cours : http://www.eua.be/eua-work-and-policy-area/building-the-european-higher-education-area/

projects/tracking-learners-and-graduates-progression-paths.aspx

10 Seuls, ce peut être aussi avec l’appui de différents outils technologiques, pour acquérir des

connaissances (consultation d’un contenu pédagogique en ligne) ou pour s’entraîner (training) : exercices en

ligne autocorrigés, serious games, recours à l’outil audiovisuel pour travailler à améliorer ses prestations

orales, etc. Ces outils sont toujours conçus en accompagnement de la formation en présentiel. La

dématérialisation complète des formations, très coûteuse contrairement à l’idée encore trop souvent

répandue, n’est véritablement adaptée que dans des contextes de formation tout au long de la vie, où

l’apprenant est professionnellement environné, motivé, soutenu. En formation initiale, ce type de dispositif a

toutes les chances d’échouer, pour des raisons inverses, auxquelles il faut ajouter la surcharge cognitive

qu’entraîne la manipulation de nombreux outils numériques, dont les digital natives ne sont pas davantage

familiers que leurs aînés, quoi qu’on dise.

11 Pour un exemple particulièrement réussi de ce type de service, voir par exemple le Saltire Centre de

Glasgow, dont l’aboutissement est le résultat d’un fort soutien politique et d’un pilotage managérial au plus

haut niveau : http://www.gcu.ac.uk/library/services/thebase/

12 L’évolution du modèle du subject librarian vers un liaison librarian, concomitante de la mise en place des

learning centres, est une autre illustration, cette fois dans le domaine de l’IST, de la complémentarité de ces

approches : http://eprints.nottingham.ac.uk/33/2/JOLIS.txt

13 Le JISC est un groupement d’intérêt informel britannique sans équivalent en France. Ce serait une sorte

d’articulation informelle et réussie entre RENATER, l’AMUE, Couperin, l’INIST, l’ABES, et tous les acteurs

des TICE et de l’IST. Pour une description du fonctionnement et du périmètre du JISC, voir par exemple

l’étude consacrée par l’ADBU à cet objet aussi enviable qu’étrange : http://adbu.fr/wp-content/uploads/

2011/07/rapport_jisc_2009.pdf

14 http://www.jisc.ac.uk/uploaded_documents/JISClearningspaces.pdf

15 Il est symptomatique que sur des questions aussi cruciales pour la recherche, ni la CPU ni le MESR, en

France, n’aient pris position. Pour un résumé de l’intervention du consortium Couperin et de l’ADBU devant

le CSPLA : http://adbu.fr/wp-content/uploads/2014/04/Audition_CSPLA_TDM_2014_04_04_final.pdf

16 La Grande-Bretagne doit encore être citée, où le gouvernement a déposé un projet de loi sur la question,

suite au rapport Hargreaves de 2011 : http://www.legislation.gov.uk/ukdsi/2014/9780111112755

17 Pourtant, ce qui est généralement demandé aux professionnels de la documentation dans le cadre des

contrats de site, c’est précisément de mutualiser des achats documentaires. Or, ce n’est pas le bon niveau

d’intervention dans ce domaine. En effet, la commercialisation des abonnements aux ressources

électroniques repose très souvent sur des tranches tarifaires, fonction du nombre d’utilisateurs potentiels de

ces ressources, et par ailleurs jouent les effets du monopole légal que constitue le droit de la propriété

intellectuelle, qui permet aux éditeurs académiques d’imposer leurs prix. Quel que soit le cas de figure

considéré, le gain pour les établissements n’est pas à la hauteur des coûts de transaction de telles

opérations :

– soit tous les établissements concernés accèdent déjà à la ressource : au mieux l’éditeur se contentera

d’additionner les chiffres d’affaires réalisés avec chacun d’eux, pour déterminer un chiffre d’affaire

global, et le gain sera nul ; au pire (et c’est le cas le plus fréquent), la somme des utilisateurs potentiels

de chaque établissement conduira à souscrire au global l’abonnement sur la base d’une tranche

tarifaire supérieure, et la mutualisation aura pour effet en apparence seulement paradoxal que chacun

paiera davantage ;

− soit seuls certains établissements accèdent déjà à la ressource : dans la plupart des cas, la constitution

d’un groupement local incluant les non encore abonnés aura là encore pour effet le passage à une

tranche tarifaire supérieure, sans aucun avantage en termes de coûts, au contraire ; dans certaines

circonstances, il sera néanmoins possible de réaliser quelques économies, lorsque par exemple les

nouveaux abonnés sont de taille suffisamment faible (écoles par exemple) pour qu’il n’y ait pas de

changement de tranche tarifaire. Mais il y a généralement de bonnes raisons aux choix des

établissements non clients de ne pas s’abonner, soit que la ressource n’ait pas d’utilité pour eux, soit

qu’elle soit trop coûteuse. Dans tous les cas, les gains de la mutualisation, s’il y en a, seront donc très

faibles (et probablement peu pérennes : l’on peut compter sur les éditeurs pour identifier les manques à

gagner et réajuster leurs grilles tarifaires lors du contrat pluriannuel suivant) ;

− soit aucun des établissements n’est abonné à la ressource : il y a généralement de bonnes raisons à

cela (ressource inutile ou trop coûteuse), et la mutualisation au niveau local ne changera rien à la

donne.

18 L’ADBU et EPRIST, association soeur regroupant les directeurs IST des organismes de recherche, doivent

rendre des propositions précises quant à l’articulation des niveaux nationaux et locaux sur ces questions,

début juin 2014, au MESR. Ce document pourra être communiqué, s’il le souhaite, au Comité STRANES.