CERCLES OPENEDITION : UN ALGORITHME POUR AUTOMATISER LES LIENS 7XX

Le chantier CERCLES OpenEdition

CERCLES_Sarah8Klocars_Clauser_via_OpenPhoto

Sarah Klocars Clauser (via OpenPhoto)

Lancé en 2015 par le SCD de l’Université François Rabelais de Tours – l’un des établissements ayant activement milité pour la création du dispositif –   le chantier CERCLES OpenEdition consiste principalement à l’enrichissement des notices bibliographiques du corpus OpenEdition (3959 notices au 01/07/2017), un travail réalisé par une équipe de catalogueurs du SCD, sous la responsabilité de Véronique Lacan, coordinatrice Sudoc.

Étapes à la loupe

Pour le traitement des notices d’e-books, il convient de  procéder dans un premier temps à la visualisation de 2 notices : celle de l’e-book à enrichir et celle de la manifestation imprimée, quand celle-ci existe. Pour cela, l’option « multifenêtrage » de WinIBW est activée.

Image1

Menu Fenêtre > Mosaïque verticale

En plus de la relecture complète, l’attention est ensuite portée sur les zones à vérifier et/ou enrichir particulièrement :

  • 035 : vérification du code source à partir du site Open Edition Books (OEB)
  • 010 : vérification de l’ISBN à partir du site OEB
  • 1XX : vérification des données codées, dont les dates
  • 200 : vérification du titre et des mentions de responsabilité (nombreux contributeurs reportés en 314)
  • 307 : ajout de la pagination de l’édition imprimée (si elle existe)
  • 310 : vérification des modalités d’accès et mise en cohérence de cette information dans les zones 856 ou 859
  • 452 : lien vers la notice de l’édition imprimée et lien réciproque
  • 6XX : complétude de l’indexation matière
  • 70X : lien à la notice d’autorité du contributeur (le plus souvent :  zones 701)

C’est principalement  l’enrichissement de cette zone 70X qui peut s’avérer complexe : soit la notice d’autorité n’existe pas encore, soit un choix doit être effectué entre plusieurs notices d’autorité, en cas d’homonymie par exemple :

  CERCLES_doublon_autorite

De plus, ce traitement peut s’avérer long et fastidieux, les notices d’e-books proposant de nombreux contributeurs, comme par exemple  :

CERCLES_contributeurs

Une vingtaine de contributeurs pour cette notice : autant de liens à créer

L’intérêt du traitement automatique

CERCLES_hula_hoop_by_Lars_Plougmann_via_Flickr_CC_BY_SA_2_0

Un algorithme au service du CERCLE…

Menée au SCD de l’université Picardie Jules Verne dans le cadre d’un autre chantier CERCLES comportant également de nombreux accès Auteurs à créer (voir le billet à ce sujet), une première expérimentation a démontré la capacité du programme de traitement automatique mis au point par les équipes de l’Abes.  A l’aide de cet algorithme conçu pour rechercher puis lier automatiquement les points d’accès 70X aux notices d’autorité correspondantes, un lien 7XX a été ajouté automatiquement à 749 notices sur 987, soit un taux d’erreur d’à peine 0,5 %. Une expérimentation globalement positive dont l’Abes a fait la promotion, notamment lors de l’atelier  « Aligner, le signalement augmenté » présenté par Yann Nicolas lors des Journées Abes 2017.

Saisissant cette opportunité, le SCD de Tours a sollicité les équipes de l’Abes pour bénéficier d’un traitement similaire sur le corpus OpenEdition, expérimentation lancée lors de la rencontre de travail avec un membre de l’équipe OpenEdition. Ainsi, en juin dernier, l’algorithme a  tourné sur le dernier fichier d’import de notices OpenEdition chargé dans le Sudoc. Les résultats  sont tout aussi satisfaisants : le programme est parvenu à lier automatiquement 733 sur 977 points d’accès, soit 75 % de réussite. Ce sont donc des notices avec des zones 7XX liées et validées qui ont été importées dans le Sudoc, facilitant considérablement le travail du SCD de Tours et bénéficiant à tous les établissements du réseau.

L’aide à la décision

Autre avantage de ce traitement :  pour les notices n’ayant pu bénéficié du traitement automatiquement, un rapport d’aide à la décision – résultat d’une analyse et d’un décryptage – est fourni au responsable du chantier CERCLES,  coupe de pouce bien utile pour organiser le travail de correction et témoignage que l’Abes respecte son engagement dans le dispositif CERCLES : « contribuer aux enrichissements, par un travail d’expertise préalable, par la fourniture d’outils automatisés et enfin par l’analyse et le conseil pour organiser le travail d’enrichissement« .

Ainsi, la responsable du chantier OpenEdition a disposé d’une grille de corrections à effectuer sur une partie des 244 points d’accès non traités,  pour lesquels des suggestions de liens ont été exprimées :

  • sur la base de rapprochement avec des titres similaires (73 cas)
  • sur la base de rapprochement avec des éditeurs similaires (33 cas)
  • sur la base de rapprochement avec des co-contributeurs similaires (2 cas)

Dans 10 cas seulement, aucune proposition n’a pu être opérée par le programme, les notices d’autorités potentiellement liables comportant des erreurs de catalogage, à corriger au préalable.

Image2

Extrait de l’analyse du traitement et sa grille de lecture

A partir de ce traitement automatisé, les catalogueurs du chantier CERCLES OpenEdition disposent donc d’un guide de corrections, de listes de PPN toutes prêtes sur lesquels ils peuvent intervenir. Ainsi, l’essentiel de leur travail peut se concentrer sur l’analyse et le choix de liens « problématiques », plutôt que sur la tâche purement technique et répétitive, de liages « indiscutables » aux autorités.

C’est en effet dans ce travail d’analyse et de choix complexes que s’exercent véritablement les compétences des catalogueurs, et non dans l’acte technique de simple liage qui peut être, sans remords, délaissé aux machines.

 

Autorités vs référentiels : 3 questions aux experts de l’Abes

arabesques85Autorités, identifiants, entités : L’expansion des référentiels. Tel est le titre du dossier de la revue Arabesques n°85 consacré aux référentiels d’autorités.

Le volume et la diversité des métadonnées en circulation dans les systèmes d’information – de l’enseignement supérieur, de la recherche, de la culture-  exigent de repenser le rôle des référentiels d’autorité. Considérés comme données de confiance au service du développement de l’open data et du web sémantique, ils constituent un capital précieux, une garantie d’indépendance, tout en interrogeant en profondeur les pratiques catalographiques classiques.

Le comité de rédaction  a souhaité apporter un éclairage terminologique en posant 3 questions aux experts de l’Abes en ce domaine : François Mistral, responsable IdRef, Yann Nicolas, expert Métadonnées, Philippe Le Pape, mission Normalisation, Olivier Rousseaux, chef du service Métadonnées. Voici  leurs réponses in extenso.

1 – En tant que professionnel de la documentation, quelles distinctions faites-vous entre « référentiel » et « base d’autorités » ?

François Mistral : Afin d’éviter toute confusion par omission, ajoutons un troisième terme dans ce jeu des distinctions : celui de « nomenclature ». En catalogage, ce seront les données codées – comme par exemple les codes de pays, nomenclature internationale maintenue officiellement par l’ISO 3166 Maintenance Agency (ISO 3166/MA).

Par « référentiel », je retiens surtout l’idée de données de référence et de repère. Cela signifie qu’un référentiel est un jeu de données,  suffisamment vraies, justes, certaines pour être utilisées en confiance afin d’en produire ou d’en agréger d’autres. De fait, ces données de référence sont des points de repère à partir desquelles en situer d’autres avec économie.

Par  « données d’autorité », je retiens la double dimension de contrôle et de légitimité à assurer ce contrôle : ces données font autorité en ce qu’elles contrôlent des données bibliographiques, ce qui met en évidence la nécessaire qualité des données d’autorité, la pratique des sources constituant une de leur plus-value essentielle.

Cependant, outre les différences entre ces termes, je voudrais mettre en évidence l’horizon de leur convergence.  Que les bibliothécaires se persuadent qu’eux-mêmes et les données qu’ils produisent ont la légitimité de coloniser de nouveaux espaces de l’information au profit d’un intérêt tant professionnel que général.

Yann Nicolas :  Selon moi, quand on parle référentiel à l’Abes, on entend « des données qui permettent de décrire nos documents en minimisant le recours à du texte libre », de type listes fermées de « termes » (ex : code pays…) ou listes d’entités (ex :  entité de type Pays)

Décrire les entités de type « Document » étant notre cœur de métier, les entités qui gravitent autour sont considérées comme des entités secondaires « pour nous », comme des moyens et non des fins. Ce qui est tout relatif : un système de gestion des chercheurs français prendra nos documents pour entités secondaires, le Sudoc ou theses.fr devenant un référentiel « pour eux ». Bref, les référentiels des uns peuvent être les données centrales des autres. Ce qui ne veut pas dire que tout peut devenir référentiel.

La tendance actuelle est de transformer les référentiels « liste de termes ou de codes » en référentiels d’entités clairement identifiées : autrement dit, en langage Web sémantique, on passe de « littéraux » (chaînes de caractères simples, ou bien typées) à des « ressources », possédant une URI pour identifiant,  ces ressources pouvant elles-mêmes avoir des attributs, être décrites, succinctement ou longuement, ici ou ailleurs. Connecter nos données à ces référentiels, c’est indirectement enrichir nos données des attributs de ces entités secondaires, et, par transitivité, de proche en proche, à beaucoup d’autres informations.

Traditionnellement, une notice d’autorité remplit ces deux fonctions : identifier clairement une entité grâce à un identifiant précis ; mais également associer à cette entité un nom, un libellé, une étiquette linguistique, un « littéral », un nom propre à retenir comme son nom de référence. En effet, les autorités, de plus en plus ouvertes, vivent dans différents contextes (langues, cultures, types d’application, etc.) et le « bon » terme à afficher peut ne pas être toujours le même. De ce fait, la fonction « terme retenu » est de moins en moins centrale … même s’il faut bien de la chair attachée au squelette de l’entité : des attributs, et parmi eux, des libellés, multiples, qualifiés.

Bref, nos autorités traditionnelles se normalisent : rejoignent d’autres référentiels en tant que liste d’entités clairement identifiées, possédant des attributs et des relations (qualifiées) avec d’autres d’entités (de même type ou non, de même référentiel ou non). Cette normalisation est à la fois intellectuelle et technique. Le paradigme « web sémantique » constitue le vecteur principal de cette normalisation : tout devient Ressource, identifiée de manière univoque à l’échelle universelle grâce à sa (ou ses !) URIs, et ce sont les triplets RDF qui en parlent le mieux…

Philippe Le Pape : Les deux termes s’appliquent à des jeux de données « de référence », statut consacré soit par une labellisation (ex : norme ISO 3166 Codes des noms de pays ; norme ISO 80000-3 Système international de grandeurs, espace et temps ; standard RDA ; standard Unimarc) soit par l’usage (ex : données de theses.fr, de la Bibliographie nationale française). Il s’agit selon moi avant tout d’une distinction d’ordre technique, opérante dans le cadre d’un système de production et d’administration d’un ensemble de métadonnées complexes et organisées.

On nommera « référentiel », l’ensemble de données « outils » auquel on recourt pour garantir la qualité des métadonnées administrées, leur interopérabilité et leur conformité à un standard partagé. Dans cette catégorie entrent les modèles de données, les règles de catalogage, les formats, les nomenclatures (noms et codes de pays, de langue, unités de mesure, coordonnées géographiques..).

Dans un système bibliographique classique, fondé sur le modèle du fichier de notices descriptives dont certains  points d’accès sont contrôlés, les données d’autorité servent à normaliser, unifier et documenter certains de ces points d’accès.  Les données d’autorité ont donc vocation à faire référence pour des tiers, ce qui revient à dire que, dans le cadre d’un système de production de métadonnées, on utilise des référentiels pour produire des données d’autorité.

On remarque que les modèles conceptuels FRBR, FRAD et FRSAD – qui ont ouvert la voie à une conception nouvelle des systèmes bibliographiques, utilisent encore cette terminologie. En revanche, pour le modèle LRM, l’ancienne distinction entre données bibliographiques et  données d’autorité n’existe plus : le modèle ne reconnaît que des entités fonctionnelles en relation les unes avec les autres.

Olivier Rousseaux : « Référentiel : Ensemble auquel doivent appartenir les éléments, les solutions d’un problème posé » (dictionnaire Larousse).

Dans le contexte de l’Abes, les fichiers d’autorités, de même que les listes de données codées, servent à contrôler la cohérence des métadonnées bibliographiques. Ils participent à un ensemble plus vaste qui organise et contraint les métadonnées produites et qui comprend les modèles de données, les formats de saisie, les règles normatives de description, le tout s’inscrivant dans un cadre international – Principes internationaux de catalogage, modèle IFLA LRM (successeur des modèles conceptuels FRBR, FRAD et FRSAD) ou code de catalogage RDA. Des éléments de référence qui s’ajoutent comme autant de « briques », indispensables pour rendre des services tels que le partage de données entre applications, la fourniture à des tiers ou l’exposition.

J’appliquerais donc plutôt le terme de référentiel à cet ensemble qui fonctionne comme un tout avec des règles d’interdépendance et d’interopérabilité de ses constituants. Il permet tout à la fois la cohérence des métadonnées produites, la communication entres les applications documentaires de l’Abes mais également les services de fourniture et d’exposition associés à ces métadonnées.

2 – Ces dernières années, on assiste à la montée en puissance du rôle des référentiels. Comment cela impacte-t-il concrètement votre travail auprès des réseaux de l’Abes / les pratiques de catalogage des professionnels des réseaux ?

François Mistral : En tant que responsable IdRef depuis mon arrivée à l’Abes en 2014, mon activité consiste à encourager cette montée en puissance et à accompagner les professionnels des réseaux en ayant une démarche systémique reposant sur 3 piliers :

  • l’animation du réseau des catalogueurs et notamment des Correspondants autorité, interlocuteurs experts ;
  • l’amélioration de l’outillage professionnel visant à accroître la maîtrise de la production par les producteurs ;
  •  la dissémination multi-canaux et multi-formats des données d’autorité dans et « hors les murs ».

Il reste  encore beaucoup à faire pour informer sur le rôle des référentiels et convaincre des considérables bénéfices attendus et plus encore constatés de leur utilisation dans les Systèmes d’Information, documentaires, de recherche ou autres. Valoriser les données produites par nos réseaux depuis plus de vingt ans et de convaincre de leur capacité à rendre service, sont une source de motivation quotidienne. Nous avons pu étoffer l’offre de service d’IdRef – notamment en matière d’alignements –  afin de la rendre plus attractive. Cette offre est un levier pour démarcher des nouveaux partenaires et intégrer des nouveaux projets, dans lesquels l’un de nos apports spécifiquement «ABES» consiste à promouvoir l’idée centrale et précieuse de « mutualisation ».

Yann Nicolas : Je ne pense qu’à ça !  Ces dernières années, certains collègues et moi avons travaillé sur deux projets : Qualinca et le Hub de métadonnées.
Qualinca est un projet de recherche ANR qui vient de se terminer. L’idée était de produire des algorithmes qui auscultent et améliorent la qualité des liens entre notices bibliographiques et notices d’autorité. Entre Sudoc et IdRef, par exemple. Mais il faut penser plus générique, moins nombriliste : au-delà des données bibliographiques Sudoc et au-delà des autorités IdRef.

Côté hub de métadonnées, on récupère des données hétérogènes en provenance des éditeurs. Notre boulot est d’homogénéiser tout ça, mais aussi de l’enrichir, notamment grâce aux référentiels de toutes sortes : langues, auteurs, sujets, types de document… Il s’agit bien de remplacer (ou compléter) des mots par des identifiants : remplacer un nom d’auteur par un lien vers une URI (IdRef, ISNI, ORCID…) ou remplacer le code « J63 », non pas par le terme « Turnover » du thésaurus JEL (Journal of Economic Literature), mais par un lien vers l’URI de ce concept dans la version Web sémantique de ce thésaurus multilingue – voir : https://punktokomo.abes.fr/2016/05/16/mettre-nos-donnees-en-reseau-un-demonstrateur-4b-les-revues-doxford-up-et-la-classification-jel-economie/
Dans les deux cas, il s’agit de connecter l’information bibliographique à des référentiels, pour mieux la structurer et mieux la connecter, non seulement à l’échelle d’un catalogue, -même collectif ou national, mais à l’échelle du Web !

Philippe Le Pape : On assiste plutôt à une prise de conscience du rôle des référentiels. Dans des systèmes de production partagée de métadonnées tels que le Sudoc, le rôle de la normalisation – qui intègre l’emploi de référentiels – a toujours été crucial. Mais avec la mise en application de RDA, le recours à des vocabulaires contrôlés s’accroît encore – « type de contenu », « type de médiation », « type de support » en sont des exemples.

Olivier Rousseaux : L’Abes est confrontée à ces questions pour avoir posé comme principe, lors de la mise en place même du Sudoc, la réutilisation de référentiels existants : RAMEAU ou FMeSH pour les accès matière, fichiers d’autorités « personnes, collectivités, titres » de la BnF pour les accès auteur ou titre uniforme ; listes de codes ISO (langues, pays) ou Unimarc (codes fonctions pour les auteurs).

Les évolutions les plus importantes : l’accès – foisonnant dans le contexte du web de données – aux métadonnées d’autres référentiels bibliographiques, administratifs ou autres de type  VIAF , base SIRENE de l’INSEE ou Répertoire des structures de recherche au niveau national  (RNSR)  ainsi que les évolutions techniques qui permettent de se projeter dans leur exploitation (solutions d’alignement et/ou d’enrichissement des métadonnées).

A l’Abes, la réflexion porte donc sur les manières d’appréhender les métadonnées de référentiels tiers pour bénéficier de leurs apports potentiels. A minima, il s’agit d’une opportunité d’améliorer, dans nos bases de production, les méthodes de liage automatique  entre notices bibliographiques et autorités de manière à diminuer cette activité pour les catalogueurs. En ce qui concerne le travail de catalogage au quotidien, les perspectives sont également d’exploiter les référentiels afin de développer des outils d’aide à la décision (ex : projet de recherche Qualinca)

3 – Comment envisagez-vous/imaginez-vous le rôle des référentiels dans le paysage de l’IST / au-delà ?

François Mistral : Selon moi, les référentiels actuels laissent entrevoir certaines des évolutions à venir du métier de catalogueur. Les données produites par les bibliothécaires sont promises à un grand avenir, tout l’enjeu étant dans leur structuration. A ce titre, les référentiels vont continuer de croître en importance. En conséquence, le rôle et l’expertise des producteurs de données structurées et structurantes doivent être au centre de nos préoccupations prospectives.

Un point délicat réside dans le fait que « nous autres catalogueurs » devons prendre conscience que nous sommes, aux premières loges, à la fois spectateurs et acteurs de ce phénomène qui dépasse largement notre secteur professionnel. Avec ou malgré nous, les choses se jouent dans notre communauté.

A ce titre, on pourrait imaginer que les référentiels jouent, comme pour les données, un rôle structurant pour l’IST. Ils pourraient amener une reconfiguration plus rationnelle des missions de ses opérateurs, reconfiguration façonnée à leur image : toute entière de spécialisation et de coopération pour un service rendu de haut niveau.

Yann Nicolas  : Vu de l’Abes, en caressant du regard le paysage un peu cacophonique de l’IST en France, j’espère encore une politique publique des référentiels claire. Que chacun joue sa partition, c’est-à dire maintienne et mette à disposition les référentiels qui sont de son ressort. Qu’on évite les doublons où plusieurs font plus ou moins correctement la même chose. Mieux vaudrait qu’un seul le fasse, et de manière excellente ! Par exemple, que le Référentiel national des structures de recherche (RNSR) administré par le MENESR soit, de droit et de fait, reconnu comme LE service public national qui fournit identifiants et attributs de référence pour les laboratoires français. Ce qui n’empêche en rien des clients – comme STAR ou theses.fr – de gérer leurs propres attributs complémentaires, en sus des attributs RNSR, à des fins propres, bibliographiques ou pas. Si possible, gérons nos propres attributs de laboratoires, mais pas nos propres identifiants : accrochons nos attributs aux identifiants RNSR. Même chose pour les autorités de type Entreprise : le référentiel SIRENE de l’INSEE est désormais ouvert !
L’Abes doit être un bon client des référentiels des autres, en même temps qu’un bon fournisseur de référentiels pour les autres, dès lors que son positionnement, son organisation et son capital de données la rendent légitime. C’est le cas, sans conteste, du référentiel des thèses françaises ou celui des chercheurs français.

Philippe Le Pape : On va vers une importance grandissante des identifiants de confiance dans lesquels le « nom », la « forme d’autorité », les données elles-mêmes se trouvent de plus en plus ramassés : le passage des métadonnées bibliographiques de systèmes fermés au Web renforce la nécessité de les normaliser et de les étiqueter en fonction des standards du Web, selon des systèmes d’identification qui pour être efficaces doivent jouir d’une large reconnaissance.

Olivier Rousseaux : Je ne vois pas leur rôle évoluer radicalement dans l’immédiat car leur nature et leurs fonctions perdurent sans être remises en question. J’envisage plutôt une tendance à des rapprochements – entre alignements et fusion- de référentiels existants.
Cependant, pour chaque rapprochement envisagé, les mêmes questions devront être examinées, tout référentiel tiers visé fonctionnant dans un contexte défini et circonscrit qui lui est propre : à quels objectifs répond-il ? à quelles contraintes ? sur quel modèle de données est-il fondé ? quelles en sont les règles d’alimentation ? nos besoins sont-ils couverts par ce référentiel en termes de granularité des données, d’évolutivité et de traçabilité des évolutions apportées ? quels risques et quels avantages y aurait-il à fusionner avec ce référentiel tiers? quelle gouvernance en résultera (technique comme scientifique) et sera-t-elle adaptée à notre contexte ?

Un référentiel tiers est donc à aborder avec prudence afin de mesurer le degré de rapprochement optimal qu’on peut en espérer. De ce point de vue, le projet de « Fichier national des entités » amorcé en mars 2017 entre la BnF et l’Abes répond à ces questions en se positionnant résolument dans la recherche d’une solution de fusion des « traditionnels » fichiers d’autorités existants de part et d’autre au profit d’un fichier national unique géré en co-production.

 

 

Identifier les auteurs de HAL avec IdRef

logo-idref   C’est une histoire déjà ancienne à l’Abes que celle de l’identification automatique des Personnes impliquées dans des ressources documentaires. Du moins, est-ce un sujet qui, depuis plusieurs années, aiguillonne des études et aboutit progressivement à des réalisations intéressantes. En voici une illustration avec des corpus extraits de HAL.

Corpus SHS – 2011

Entre octobre 2010 et novembre 2011, dans le cadre du projet SudocAd, un premier prototype a été développé avec pour objectif l’enrichissement des métadonnées du moteur de recherche ISIDORE par l’ajout de lien aux autorités Sudoc (IdRef). Le prototype exploita un échantillon de 13 444 notices d’articles issues du portail Persée – domaine «Économie » – en identifiant, quand elle existait, l’autorité IdRef correspondant à chacun des auteurs. Une fois traitées, les notices furent livrées à ADONIS et à l’équipe Persée. Côté performance, le prototype SudocAD atteignait un très bon niveau : sur un échantillon vérifié de 150 notices Persée, 80% étaient estimées comme de « bonnes décisions » (liage ou non liage), et surtout, le taux d’erreur (création de liens erronés) était inférieur à 2%.

Corpus SHS – septembre 2015

Depuis, le projet Qualinca a repris le flambeau, avec une approche plus globale. En septembre 2015, une nouvelle expérimentation d’identification automatique est menée sur un corpus de HAL : 1 900 documents du domaine SHS sont puisés dans l’entrepôt OAI-PMH. Après traitement, 3 200 formes-auteurs sont extraites et passées à la moulinette du prototype. Lors du développement de l’outil, seuls 2 critères de matching -appelés également dans ce cadre « heuristiques »- sont utilisés (« co-auteur » et « unica »). Sur la base de ces critères,  1 100 entités – soit 34% des formes-auteurs – seront matchées, puis rattachées à une notice d’autorité dûment identifiée.

Corpus Astrophysique – avril 2016

Les disciplines ayant des pratiques de publication fort diverses, le choix s’est porté sur le traitement de 300 articles issus du domaine « Astrophysique » et leurs 1 242 formes-auteurs.  L’astrophysique étant un domaine dans lequel les publications sont hautement internationalisées, la proportion d’auteurs étrangers y est importante. De plus, l’interdisciplinarité y étant élevée, on trouvera parmi les auteurs des chercheurs physiciens, biologistes, ingénieurs, océanographes, chimistes, mathématiciens…

La qualité de l’identification finale dépendant largement de la qualité des données de départ, on notera que les données en entrée sont majoritairement de qualité basse, un aspect amplifié par l’absence de normalisation dans l’écriture des appellations. Quelle sera l’incidence de ces variantes orthographiques sur la couverture du corpus par IdRef ?

Le corpus comportait : 406 appellations d’auteur avec nom + prénom (soit 33%) et 836 appellations d’auteur avec nom + initiale du prénom (soit 66%). Les 1 242 formes-auteurs ont d’abord été ramenées à 1 156, suite à la suppression de 43 doublons évidents (avec accent vs. sans accent ; initiale du Prénom vs. Prénom développé).

Premier  constat : le prototype a appris à gérer de façon très satisfaisante ce paramètre de variabilité des graphies. Ainsi, 467 appellations (soit 37,6%) ont été identifiées avec les heuristiques «co-auteur», «titre» et «unica» – pour ce dernier critère, les appellations « Nom, P. » furent mises de côté. Second constat : sur les 775 appellations restantes, 57 -soit 4,6%- correspondaient à des auteurs dont des homonymes ont été correctement écartés par la machine. Afin de tester la couverture d’IdRef, une deuxième passe a ensuite été effectuée, sous forme d’une recherche manuelle rapide, qui a permis d’identifier 95 auteurs supplémentaires.
En valeur absolue,  autant d’auteurs avec « Nom, Prénom » qu’avec « Nom, P. » ont été identifiés. En valeur relative, le résultat est évidemment en faveur des auteurs avec « Nom, Prénom » – 66 % – contre 33% pour les auteurs avec « Nom, P. »  Dans ce cas également, le fait de disposer de notices d’autorité est très intéressant puisque dans la majorité des cas d’appellations avec « Nom, P. »,  le prénom développé a été retrouvé. Ces éléments permettent d’estimer le potentiel de clusterisation apportée par une notice d’autorité grâce aux variantes de formes.

Au final, ce sont 561 auteurs qui ont été identifiés, soit 45% d’identification des auteurs du corpus Astrophysique de HAL. A titre de comparaison, on remarquera que les requêtes lancées sur AuréHAL  sur les formes-auteurs présentes, en demandant pour chacune si elle correspondait à une forme présente dans un idHal, a donné un résultat de seulement 3,5 % des appellations du corpus « Astrophysique ».

Corpus idHal – janvier 2017

Le corpus idHal – identifiants uniques gérés dans HAL- en progression continue, constitue un nouvel enjeu majeur en termes d’alignement d’identifiants – notamment sur fond de projet Conditor. L’exploitation de ce service de HAL est importante à plusieurs égards : outre la sensibilisation auprès des chercheurs quant à la question de l’identification pérenne et unique, idHal permet de tirer parti du travail de validation d’attribution de publication réalisés par les chercheurs eux-mêmes.
Récemment,  un alignement vers IdRef des auteurs – publiant dans HAL et disposant d’un idHAL- a été tenté. En 5 étapes, cela a donné :
1)    identifier tous les auteurs HAL ayant un idHal
2)    récupérer les documents liés à ces idHal
3)    les convertir et les charger dans la base RDF de l’Abes
4)    lancer les heuristiques d’alignements
5)    extraire les premiers résultats : 11 000 auteurs à lier pour 6 400 alignés ( soit 58,2 %)

Ainsi, grâce aux puissants algorithmes d’alignement élaborés en interne, une bonne partie du chemin semble parcourue. Mais aller plus loin – beaucoup plus loin !-  est envisageable. En effet, il est désormais tout à fait possible de lancer les heuristiques sur l’intégralité de HAL.

De belles perspectives

Depuis 2010 à l’Abes, les avancées de la réflexion et des outils en matière de données d’autorité ont construit une approche intellectuellement et technologiquement performante, ce qui permet  de promouvoir, désormais preuves à l’appui, l’offre de service d’IdRef auprès des opérateurs de l’IST en France.
En effet, si le taux de couverture des auteurs de publications de recherche est proche de 50%, il est de l’ordre de 90% pour les auteurs français – ce qui confirme la portée réelle d’IdRef en termes de référentiel des auteurs de l’Enseignement Supérieur et de la Recherche.
Dans les mois à venir, le programme de travail ira en ce sens. La consolidation des process constitue l’axe prioritaire : il s’agira tout d’abord de les automatiser intégralement afin de moissonner de très gros volumes de données. La redistribution de ces alignements constitue le second axe.

Sur le même concept que le web service de récupération des alignements – idref2id,  le stock d’alignements disponibles va s’accroitre  pour mettre en vitrine tout ce que nous avons déjà en « arrière-boutique ». De belles perspectives donc.

François Mistral, responsable IdRef

STAR : les statistiques 2016

starDepuis l’ouverture en 2006 de l’application nationale STAR, développée suite à l’arrêté du 7 août 2006  relatif aux modalités de dépôt, de signalement, de reproduction, de diffusion et de conservation des thèses électroniques, outre la garantie d’un signalement et d’un archivage numérique fiable,  c’est bien également in fine la valorisation et la diffusion des thèses françaises que le dispositif mis en œuvre par l’Abes soutient. Un dispositif qui devrait se renforcer suite à la parution de l’arrêté du 25 mai 2016  rendant obligatoire le dépôt de la thèse dans sa version électronique  pour tous les établissements à partir du 1er septembre 2016. 

Outre un éclairage original sur la richesse de la production et sur la dynamique de diffusion des « documents Thèses », la publication des statistiques 2016 se veut un indicateur d’activité au service des établissements membres du réseau Star.

Volumétrie de la base de données STAR

Au 1er janvier 2017,  56 287 thèses déposées et archivées  sont recensées dans la base de données STAR/CINES. On constate que, depuis 3 ans, le volume de thèses traitées annuellement tend à se stabiliser autour de 10 000 thèses par an – 11 258 en 2016 pour être précis. Il est prévisible que cette moyenne augmente sensiblement en fonction du nouvel arrêté rendant le dépôt électronique des thèses obligatoire.

depot-annuel

Indicateurs d’activité dans STAR

Calculée en fonction du nombre de thèses traitées, l’activité dans l’application STAR se caractérise par un relatif lissage tout au long de l’année. Cependant, tout comme en 2015, on constate un léger pic d’activité lors du premier trimestre de l’année civile.

Le délai de traitement moyen d’une thèse dans STAR, donnée statistique présente dans l’application de pilotage Webstats, est calculé en fonction de l’écart entre  la date de soutenance et la date de validation finale.  Alors qu’en 2015 ce délai de traitement était en moyenne de 293 jours,  il est de 317  jours en 2016.

ration-mensuel

delai-traitement

Diffusion des thèses : l’accès libre largement privilégié

Illustration d’une belle dynamique d’ouverture et de libre accès,  le pourcentage de thèses déposées dans STAR diffusées sur Internet, stable depuis 2013, est évalué à 75%. On note qu’est privilégiée la diffusion des thèses sur plusieurs plateformes en simultané, cette diffusion s’appuyant sur la plateforme Thèses-en-Ligne (TEL) du CCSD, la plateforme des établissements de soutenance et la plateforme ABES.

Signe que les automatisations introduites entre les différents systèmes -et notamment entre STAR et TEL –  favorisent la politique de dépôt en open access ?  Quoiqu’il en soit, comme l’indiquent les statistiques publiées récemment par le CCSD, en 2016, on peut se réjouir que 72% des thèses déposées dans TEL – soit 5 731 thèses – l’aient été à partir de l’application STAR.  En 2014,  cela ne représentait que 39% des cas…

Type de diffusion

diffusion

plate-forme

Olivier CIAN, responsable fonctionnel de l’application STAR

 

Calames : les statistiques 2016

calamesTout en inaugurant la prise de relais entre le blog Calames, qui cesse ses publications en ce début d’année, et  Punktokomo, blog technique de l’ABES, ce billet vise prioritairement à fournir aux établissements membres du réseau Calames des éléments complémentaires aux statistiques générales accessibles via l’application Webstats.

Les statistiques présentées ici  fournissent des tendances et des indicateurs, mais ne prétendent pas donner d’information sur la qualité, la précision, la pertinence des encodages adoptés, ni sur la part de travail récurrent ou rétrospectif touchant des niveaux descriptifs pré-existants. En effet, le caractère hybride de l’instrument de recherche EAD – partagé entre la volonté de mettre en forme des documents et la tendance à l’usage de référentiels et autres données destinés aux traitements informatiques –  explique en partie cette difficulté à prendre tout le recul souhaitable sur ces ensembles de fichiers : bien souvent, seul un regard humain est à même de juger complètement de la qualité des encodages. Ces diagrammes sectoriels sont néanmoins des témoins sûrs de l’implication des établissements dans le signalement de leurs archives et manuscrits, de leur importance dans le paysage patrimonial de l’ESR en général et dans la vie du réseau Calames en particulier.

État de la base publique Calames au 31 décembre 2016

Répartition du 3/4 de million de composants publiés dans Calames par établissements

repartition-c-publies-fin-2016-par-rcr

Répartition des composants publiés dans Calames par origine (rétroconversions nationales originelles ou production/ attribution d’ID par l’outil)

originedonneescalames2016

Répartition  des composants publiés dans Calames par cercles de déploiement (1er cercle déployé en 2008, 7e et 8e cercles en 2014)

repartition-c-publies-fin-2016-par-cercles

Nouvelles données publiées dans Calames en 2016

La quantité de données nouvellement publiées est restée notablement élevée en 2016, bien que le surcroît soit moins spectaculaire qu’en 2015 et qu’il soit beaucoup plus également réparti entre une bonne dizaine de sources de signalement. origine-surcroit-c-publies-courant-2016

Neuf ans après son lancement, Calames dépasse ainsi les trois quarts de million de niveaux descriptifs publiés :

evolution-c-publies-2007-2016

Travaux de catalogage dans l’outil Calames Prod en 2016

La quantité de <c> nouvellement identifiés par l’outil Calames est très proche du niveau de l’année précédente : environ 126.000 composants ont été créés courant 2016 par le réseau Calames.

On constate que très peu d’établissements dérogent à la recommandation de cataloguer en-dehors de la base de production (env. 4000 <c> répondent à ce cas de figure après analyse), et le cas n’échoit que pour de bonnes raisons (emplois d’exports spécifiques ou volonté de faire des publications tests notamment).
Les 5 établissements ayant créé la plus grande quantité de niveaux descriptifs dans Calames depuis son origine sont ceux-là mêmes qui représentent à eux seuls plus de 60% des données actuellement publiées : Muséum National d’Histoire Naturelle (158067 <c> créés dans l’outil depuis 2008), BDIC (110203), Institut de France (86941), Bibliothèque Littéraire Jacques Doucet (65668) et Académie de Médecine (60648).

catalogage-dans-calames-2016

Depuis l’an dernier, nous disposons d’une statistique certes un peu complexe, mais complémentaire à la précédente, qui nous renseigne sur la fréquence du recours à l’outil de catalogage Calames Prod (au-delà du seul nombre de nouveaux <c> créés). Le graphique ci-dessous doit être ainsi lu : en 2016, la BLJD a effectué 839 interventions quotidiennes sur fichiers EAD unitaires (ou 839 « jours-fichiers »).

L’existence pour un même établissement d’un grand nombre de fichiers EAD favorise certes l’élévation des chiffres, quelques établissements ayant à gérer des dizaines d’instances distinctes. Le graphique témoigne aussi, en comparaison de 2015, d’un recours à la fois plus intense et fréquent à l’outil Calames Prod (plus de 1100 jours-fichiers supplémentaires pour une quantité de composants créés équivalente) ainsi que d’une part non négligeable de travaux rétrospectifs (retours sur des instances dont l’architecture au moins avait été créée les années précédentes).

temps-frequence-catalogage-calames-2016

Ventilation de 9  années de catalogage -aussi bien en production qu’en publication/indexation- dans Calames

production-c-2008-2016

Le décalage entre ces deux représentations des composants créés via l’outil Calames (<c> publiés / <c> créés) est une donnée structurelle depuis plusieurs années : de l’ordre de 100.000 composants présents mais n’ayant jamais connu de première publication. Les <c> créés en base de formation ont été « purgés » au maximum des rebuts, données de tests, et doublons de fait (ID différents mais données identiques à des niveaux descriptifs publiés en base de production). A noter aussi, une forte tendance à l’accélération des publications d’inventaires, puisque seuls 1/4 des <c> créés en 2016 n’ont pas connu de première indexation à la fin de leur année de naissance.

Statistiques de consultation 

Comme en 2015, la hausse continue de la quantité de données exposées, ainsi que plusieurs épisodes de popularité liés aux recherches ponctuelles de certains mots-clés sur les moteurs de recherche généralistes, se sont soldés par un nombre de visites sur le catalogue public en sensible accroissement.

Ainsi, la moyenne annuelle est de l’ordre de 16 000 visites/mois (soit 5.000 de plus qu’en 2013-2014) ; un phénomène corollaire est la recrudescence du « zapping » des internautes (durées moyennes de visites raccourcies), mais en restant bien loin des niveaux liés au sur-référencement que la nouvelle interface Calames avait connu dans ses premiers mois d’existence.

Jean-Marie Feurtet, responsable Calames

Webservice AlgoLiens : remédier à l’absence de liens dans les données du Sudoc

imagealogoliens

Expo Asterix BNF / Manuel F. Picaud / CC BY-NC-SA 2.0, via Flickr

L’Abes vient de mettre en production un nouveau web service, baptisé AlgoLiens. Ce dernier détecte les notices du Sudoc dans lesquelles une zone de liens aux autorités n’est pas liée. En mettant à la disposition de leurs créateurs les notices présentant une telle anomalie afin de les amener à la corriger, l’objectif est d’atteindre à un signalement documentaire total.

A l’origine d’AlgoLiens, nouvel outil à la disposition des catalogueurs du réseau Sudoc, se trouve une question que, plus d’une fois, nous nous sommes collectivement posée : comment améliorer les données du Sudoc ? Cette question à peine énoncée, le doute s’instille. Finalement, est-ce tout simplement possible ? Écrasante, la recherche de la réponse est repoussée à un horizon de pieuse espérance habité par de dociles machines… Pourtant, insistons car le jeu en vaut la chandelle et répond à quatre enjeux majeurs :

  • l’exhaustivité du signalement catalographique
  • la valorisation scientifique de l’IST
  • la valorisation patrimoniale des BU
  • la contribution des données Sudoc au Web de données liées.

Commençons par rendre la question moins effrayante : comment approcher la notion de qualité du catalogue Sudoc et prendre à bras le corps les anomalies qu’immanquablement les données contiennent ? Avec le webservice Algoliens, la porte d’entrée retenue concerne les zones de liens aux notices d’autorité. En effet, les notices d’autorité ont pour fonction de normaliser les points d’accès autorisés des notices – bibliographiques et d’autorités. De plus, elles recensent les variantes de formes. Enfin, elles ont vocation, dans les notices bibliographiques comme dans les notices d’autorité, à être liées à tous les points d’accès.

Conçu sous forme d’un web service, AlgoLiens détecte les notices dans lesquelles une zone de lien n’est pas liée. Ce service permet de générer à la demande un « rapport d’absence de liens dans les zones de lien du Sudoc » qui se présente sous forme d’un fichier .csv contenant les résultats des tests de l’algorithme.

L’algorithme porte, en premier lieu, sur la présence d’un lien situé dans les zones de lien des notices. Mais il fait bien plus en permettant de croiser de nombreux critères. Il est ainsi possible de filtrer les résultats souhaités par établissement, depuis une date fixée, pour un type de document précis, pour les unicas uniquement.

Voici par exemple la requête qui permet de remonter les notices des documents imprimés créées et modifiées par l’ILN 100 depuis le 10 mars 2015 dans lesquels des zones d’indexation ne sont pas liées :

http://www.idref.fr/AlgoLiens?typdoc=Aa&iln=100&code=B60X&date=20150310

Pour chaque PPN en anomalie, le catalogueur est invité à corriger la notice dans WinIBW ou IdRef. Le rapport dynamique lui suggère d’intervenir à tel ou tel endroit de la notice :

Algoliens_rapport

Aujourd’hui, des dizaines de milliers d’anomalies sont détectées. Face à l’ampleur de la tâche, il est nécessaire d’organiser le travail de correction. En utilisant des paramètres dans l’url de génération du rapport dynamique, il est possible de définir des lots personnalisés.

La documentation de ce webservice est disponible à cette adresse. Le J-e.cours de présentation de ce service qui a eu lieu le 1er décembre 2016 est accessible sur notre plateforme de formation.

Nous espérons que ce webservice sera l’occasion pour les établissements de mettre en place des chantiers de corrections ciblés, à l’instar de la démarche CERCLES. Et si vous ne savez pas par où commencer, songez à vos corpus préférés, vos petits trésors documentaires ou vos unicas… et testez des requêtes !!!

De son côté, l’Abes utilisera AlgoLiens pour suivre l’avancement des corrections de manière globale. De même, elle s’en servira pour déterminer des corpus pertinents sur lesquels l’apport d’algorithmes correctifs s’avérerait pertinent.

Enfin, un jour – que nous espérons le plus proche possible, ce webservice deviendra inutile car l’algorithme ne détectera plus aucune anomalie. Ce jour, nous pourrons être encore plus fiers du travail collectif accompli.

François Mistral, responsable du référentiel IdRef

Récit d’une immersion. Traiter les ebooks Dalloz avec les données Sudoc, les données de l’éditeur et les outils du hub

Ce billet relate à la première personne l’immersion effectuée par Catherine Storne (Université de Strasbourg) au sein de l’équipe hub de l’ABES, entre le 1er et le 5 février 2016. Catherine a eu l’occasion de partager cette expérience aux dernières journées ABES. Merci pour tout, Catherine !

Placée en face de la nouvelle « Metadaten Weltanschauung » au travers de la réflexion locale sur l’abonnement à un outil de découverte (discovery tool) ou sur les réalisations de la plateforme ISTEX sur les licences nationales, je ressentais le besoin de monter en compétences sur la manipulation des métadonnées. J’ai donc souhaité faire une immersion à l’ABES pour mieux comprendre les projets de l’établissement tournant autour des métadonnées dont les noms parvenaient aux confins de nos bibliothèques : BACON, hub de métadonnées, CERCLES, ainsi que les liens entre eux. Mon objectif étant de travailler au rapprochement, au sein du SCD de Strasbourg, des équipes de la documentation électronique et du catalogage, la participation à un projet concret, au travers d’un chantier CERCLES me semblait de nature à y contribuer.

Après discussion avec quelques collègues, il est apparu que le corpus d’e-books de la bibliothèque numérique Dalloz était mal-traité, i.e mal catalogué au SCD, qu’un catalogage de qualité de ce corpus dans le Sudoc était attendu et profiterait à l’ensemble des bibliothèques du réseau.

Pour l’ABES, l’immersion devait permettre d’avancer dans la réflexion sur le rôle que certains établissements pourraient jouer dans la chaîne de traitement des métadonnées fournies par les éditeurs, avant même leur traitement par le hub de métadonnées.

Avec un peu (beaucoup) d’appréhension à l’idée de me retrouver dans l’antre de « Winnie » [WinIBW] sans savoir réellement cataloguer et sans avoir retenu de mes lectures sur RDF tout ce que j’aurais dû, je quittais mon grand Est natal pour rejoindre le temps d’une semaine Montpellier, la surdouée.

1.  Les données sur la bibliothèque numérique Dalloz

La plateforme de Dalloz http://www.dalloz-bibliotheque.fr/ , permet une recherche sur les e-books de cet éditeur par titre, auteur, domaines ou collections. La liste complète des titres sous la forme d’un tableau est quant à elle disponible à  http://www.dalloz-bibliotheque.fr/listing.php (appelée par la suite « Tableau-Dalloz »).

Par ailleurs, Dalloz met à disposition un entrepôt OAI : http://logistic.book-vision.com/services/oai/act68.php?verb=ListRecords&metadataPrefix=onix_dc (appelé par la suite « OAI-Dalloz ».)

1.1  Premier constat

Les deux sources ne comportent pas un nombre identique de titres (1939 pour Tableau-Dalloz, 1626 pour OAI-Dalloz) ni les mêmes données.

Tableau-Dalloz contient l’ISBN électronique, l’ISBN papier correspondant, le titre, le n° de l’édition, la collection. Pas même l’URL de consultation. Les données d’OAI-Dalloz sont plus riches ; parmi elles : titre, auteur, sujet, résumé, éditeur, date d’édition, ISBN électroniques, les informations pour la reconstitution d’une URL de consultation, etc.

1.2  Deuxième constat, dû à l’œil expert des collègues de l’ABES

Tous les titres, ou presque, sont catalogués dans le Sudoc, pour la version papier du livre. Le web service isbn2ppn de l’ABES permet, à partir des ISBN-papier du tableau-Dalloz d’obtenir la liste des ppn (de la version papier) correspondants ; une extraction du Sudoc de ces titres à partir de la liste des ppn (de la version papier) constitue la troisième source de données (appelée Sudoc-Dalloz),

1.3  Directions de travail

A partir de ces deux constats, s’esquissent quelques lignes de travail :

  • vérifier la qualité des notices du Sudoc, pour s’assurer que les liens sont présents (6XX et 7XX, collection)
  • comparer les 3 sources entre elles.

Pour les notices Sudoc :

  • tous les 7XX ont un lien vers un ppn autorités
  • tous les 410 ont un lien vers le ppn de la collection

Sur les 1939 du Tableau-Dalloz :

  • 38 titres ne sont pas catalogués dans le Sudoc dans leur version papier
  • 38 autres titres sont déjà catalogués dans le Sudoc dans leur version électronique
  • 1 titre du Tableau-Dalloz contient une erreur d’ISBN électronique
  • 31 ppn sont écartés car il faut vérifier s’ils sont des doublons

Au final, il reste 1832 titres qui ne posent aucun problème.

En règle générale, le hub de métadonnées part des données des éditeurs pour créer les notices d’e-books. Dans le cas du corpus Dalloz, la réflexion est différente car la pré-existence dans le Sudoc des notices des documents papier, complètes, constitue une base de départ fiable.Il est donc décidé de créer les notices des e-books dans le Sudoc à partir des notices correspondantes des livres-papier puis d’utiliser les données venues des sources Dalloz pour enrichir ou corriger les notices créées dans le Sudoc en utilisant pour cela des outils développés dans le cadre du Hub de métadonnées.

2.  Création par copie de notices d’e-books dans le Sudoc

Pour chaque ppn indiqué, le script de création de notices a dupliqué la notice du livre imprimé en y apportant les modifications du tableau ci-dessous :

Notice papier Notice d’e-book correspondante
001 Non repris
002 Non repris
003 Non repris
008 Par défaut :

$aOax3

010 Non repris
020 Non repris
021 Non repris
033 Non repris
034 Non repris
035 Remplacé par défaut par :

##$aBNDalloz

073 Non repris
106 Non repris
135 Ajout par défaut :

##$av$br$cm$e#$gm$ia$ja

181 Ajout par défaut :

##$P01$ctxt

182 Ajout par défaut :

##$P01$cc

215 Non repris
225 Non repris
230 Ajout par défaut :

##$aDonnées textuelles

337 Ajout par défaut :

##$aNécessite un logiciel capable de lire un fichier au(x) format(s)Widelook ou Widelook Flash

410 Non repris
452 Ajout par défaut :

##$0″ + ancienPpn

801 Non repris
802 Non repris
830 Non repris

 

3.  Les enrichissements du hub de métadonnées (ABES)

Les notices d’e-books ont été enrichies par le hub de métadonnées.

Pour ce faire, le fichier « Tableau-Dalloz » a été complété via l’outil Openrefine (téléchargeable à openrefine.org/), des données suivantes :

  • ppn papier (obtenu grâce au web service isbn2ppn)
  • ppn électronique (équivalence p-ppn/e-ppn obtenue par le compte-rendu du script de création)

Il a ensuite été transformé en RDF.

Par ailleurs, les données « OAI-Dalloz » ont été converties en RDF/XML et chargées dans la base XML Oracle de l’ABES. Plusieurs notices étant en doublon dans le moissonnage OAI, le nombre final d’e-books distincts est de 1566.

3.1  RDF

3.1.1  En trois mots

RDF est le langage du web sémantique.

« RDF (Resource Description Framework) est un modèle de représentation de données élaboré sous l’égide du W3C (World Wide Web Consortium). Il attribue à des ressources, identifiées par des URI, des propriétés et des classes (ou catégories), permettant de les définir, les décrire, ou d’établir des relations entre elles. […]

Les données sont découpées en entités élémentaires pour former des triplets : <sujet> <prédicat> <objet>

  • le sujet est l’identifiant de la ressource ;
  • le prédicat est une propriété ou une relation, elle-même identifiée par une URI (le plus souvent représentée par un préfixe) ;
  • l’objet est l’identifiant d’une autre ressource en relation avec la première, une valeur ou un littéral. »

Définition trouvée dans : http://documentation.abes.fr/sudoc/manuels/pdf/sudoc-rdf.pdf (consulté 06/03/2016)

3.1.2  Choix de construction des URI

Pour que les sujets, prédicats, éventuellement objets puissent être identifiés de manière unique, il faut leur attribuer des identifiants, construits sous forme d’URI.

Voici les choix qui ont été faits dans le cas de la bibliothèque numérique Dalloz pour construire un modèle de création des URI pour les œuvres et les manifestations.

  • Pour l’œuvre :
  • Pour la manifestation :
    • Manifestation électronique :
      • champs attribués à la manifestation électronique : issn (électronique), ppn (électronique), numéros permettant de reconstituer l’url de consultation (n° puc, n° nu), date de publication
      • identifiant choisi : ISBN électronique
    • Exemple : http://www.hub.abes.fr/bndalloz/ebook/9782247103713/m/web (/m pour préciser qu’il s’agit d’une manifestation ; /web pour préciser qu’elle est électronique)
    • Manifestation imprimée (papier) :
      • champs attribués à la manifestation électronique : issn (papier), ppn (papier), date de publication
      • identifiant choisi : ISBN électronique
    • Exemple : http://www.hub.abes.fr/bndalloz/ebook/9782247103713/m/print (/m pour préciser qu’il s’agit d’une manifestation ; /print pour préciser qu’elle est imprimée)

3.1.3  Exemples de triplets

<http://www.hub.abes.fr/bndalloz/ebook/9782247103713/w> dcterms:title "50 droits contre l'exclusion " ;

<http://rdaregistry.info/Elements/w/P10072> <http://www.hub.abes.fr/bndalloz/ebook/9782247103713/m/web>, <http://www.hub.abes.fr/bndalloz/ebook/9782247103713/m/print> .

Signifie : L’oeuvre dont l’identifiant (l’ISBN électronique) est 9782247103713 a pour titre « 50 droits contre l’exclusion » ; elle a deux propriétés dont on retrouve la définition dans rdaregistry : P10072 correspond à « has manifestation of work ; donc, l’oeuvre a deux manifestations : l’une  électronique, l’autre imprimée.

<http://www.hub.abes.fr/bndalloz/ebook/9782247103713/m/web> <http://purl.org/ontology/bibo/isbn> "9782247103713" ;

<http://www.hub.abes.fr/namespaces/ppn> "191163120" ;

dcterms:isPartOf <http://www.hub.abes.fr/bndalloz/collection/asavoir> ;

<http://purl.org/ontology/bibo/edition> "1" .

Signifie : la manifestation électronique a pour ISBN électronique 9782247103713 et  pour ppn (défini dans le vocabulaire du hub) 191163120 ; elle appartient à la collection « asavoir » (A savoir) et en est à la première édition

<http://www.hub.abes.fr/bndalloz/ebook/9782247103713/m/print> <http://purl.org/ontology/bibo/isbn> "9782247070602" ;
<http://www.hub.abes.fr/namespaces/ppn> "134600878"

Signifie : la manifestation papier a pour ISBN papier 97822470706020 et pour ppn 134600878.

RDF, par les déclarations  et les triplets, décrit des relations. Ces relations peuvent être décrites sous forme de représentations graphiques, composées d’ovales, flèches, rectangles.

dalloz_graphe

 

3.1.4  Les graphes

On obtient deux sous-ensembles séparés dans la base RDF (ce qu’on appelle des « graphes ») :

  • celui des données du « Tableau-Dalloz » enrichi :

<http://www.hub.abes.fr/dalloz/DALLOZ_4FEV2016/tableaudalloz>

  • celui des données « OAI-Dalloz :

<http://www.hub.abes.fr/dalloz/DALLOZ_4FEV2016/>

Les URI des documents étant dans chacun d’eux construits sur l’ISBN électronique, les données peuvent être fusionnées facilement.

3.2  Le programme MARCEDMOD

L’ABES a récemment développé un programme expérimental de modification de notices du Sudoc, répondant au doux nom de MARCEDMOD [pour Marc-édition-modification ? eux, comme ils veulent toujours créer du lien, l’appellent plutôt Marc et Maud ! Il faudra quand même leur demander la source de leur inspiration !].

Ce programme interroge les données auparavant converties en RDF, avec des requêtes SPARQL (SPARQL n’est rien d’autre que le langage de requête des données en RDF). Ces requêtes permettent de sélectionner les triplets correspondant aux critères choisis. Ensuite, pour chaque type de modification à faire dans le Sudoc, un script va chercher les notices correspondantes dans le Sudoc et opérer la transformation souhaitée en remplaçant la donnée présente dans le Sudoc par celle issue de RDF.

Par exemple, pour ajouter la Dewey issue de OAI-Dalloz sur les notices du Sudoc qui n’en ont pas, MARCEDMOD fait ce qui suit :

select distinct ?eppn

# Je sélectionne tous les ppn électroniques

from <http://www.hub.abes.fr/dalloz/DALLOZ_4FEV2016/tableaudalloz>
from <http://www.hub.abes.fr/dalloz/DALLOZ_4FEV2016>

# à la fois dans les données Tableau-Dalloz et OAI-Dalloz désormais présentes en RDF dans la base du hub

where {

?work <http://rdaregistry.info/Elements/w/P10072> ?manif.

?manif <http://iflastandards.info/ns/isbd/elements/P1003> <http://iflastandards.info/ns/isbd/terms/mediatype/T1002>.

?manif <http://www.hub.abes.fr/namespaces/ppn> ?eppn.

# pour lesquels une œuvre a une manifestation, manifestation qui est de type électronique et qui a dans le hub un ppn électronique

} LIMIT 1000

Script :

J’injecte cette liste de ppn électroniques dans le Sudoc :

Node zone=Notice.find("676");

Je recherche toutes les zones « 676 »

if (zone == null)
{
Notice.Insert("676","#","#","a","340");

S’il n’y a pas de Dewey présente, j’insère 676##a340

}
else
{
Notice.alert("la zone existe dejà");
}

Sinon, je ne fais rien et je dis que « la zone existe déjà »

3.3  Enrichissements faits par le hub

  • Résumé : prévu, sera bientôt fait
  • ISBN électronique (tirés du tableau-Dalloz)
  • Dates d’édition : dates du tableau-Dalloz ajoutées en 100$a et 210$d (par écrasement de celles éventuellement présentes)
  • Edition : pour les titres du tableau-dalloz ayant un numéro d’édition autre que 1, ce numéro d’édition a remplacé celui présent dans le Sudoc
  • Dewey : pour les notices sans 676, ajout d’un 676 avec le code dewey 340 tiré d’OAI-Dalloz
  • URL : le champ 859 a été créé pour les seules les notices de OAI-Dalloz ont pu être traitées car les numéros permettant de reconstituer l’URL ne sont pas présents ailleurs.
  • Editeur : seules les notices de OAI-Dalloz ont pu être traitées

4.  Le programme de travail du chantier CERCLES

Récapitulatif des travaux catalographiques (vérifications ou corrections) à faire dans le Sudoc par le SCD de Strasbourg :

  • Catalogage des notices qui n’ont de ppn papier : 38 titres
  • Vérification et enrichissement des notices d’e-book qui existaient déjà dans le Sudoc : 35 titres
  • Vérification d’1 titre du Tableau-Dalloz qui contient une erreur d’ISBN électronique
  • Catalogage des 31 ppn écartés car il faut vérifier s’ils sont des doublons
  • Vérification des notices pour lesquelles la date d’édition entre le Sudoc et le tableau-Dalloz sont différentes : 59 titre
  • Enrichissement manuel des notices ne figurant pas dans OAI-Dalloz : 382 titres
    • ajout de l’url
    • modifier l’année
    • modifier l’éditeur
    • ajouter le code Dewey “340” si aucun Dewey n’est présent dans la notice
  • Titres présents dans OAI-Dalloz mais absents de tableau-Dalloz : 29 titres à traiter dans un second temps
  • Travail sur les notices d’e-books créées par l’ABES :
    • collections numériques : récupération du ppn ou demande de création
    • Envoi à l’ABES des ppn des collections numériques, en regard des URI fournis par l’ABES
    • Vérifier nécessité de créer et comment les champs 303,304,305,307,339
    • Vérifier les 13 notices signalées par l’ABES pour lesquelles plusieurs urls de consultations sont associées (liste fournie par l’ABES)

Conclusion

La durée de l’immersion n’a pas encore permis de répondre aux questionnements de l’ABES sur une implication d’établissements volontaires dépassant le cadre du catalogage et s’attachant  à des manipulations préparatoires sur les données soit pour participer à la mise à jour régulière des corpus  soit pour alimenter aussi BACON . Cette réflexion est encore en cours et fera l’objet vraisemblablement d’un autre billet.
Il nous faudra également revenir sur le chantier CERCLES en cours et et sur la question du fichier KBART, qui dépend de l’action de l’éditeur lui-même.

 

Catherine STORNE,

Responsable du département du système d’information documentaire,

SCD de l’université de Strasbourg