Ce billet a été rédigé par Emma Lavallée et Abigaelle Guttierez. Il s'agit d'un travail réalisé dans le cadre de l’enseignement "Gestion de l’information et de la documentation numérique (GED, GEIDE, ERP)" du master 1 MAVINUM .
Emma Lavallée est diplômée de l’université de Limoges avec une Licence d’Histoire et une Licence Professionnelle Design de l’Information et Rédaction Technique. Elle poursuit actuellement le Master 1 MAVINUM à l’université Paul Valéry Montpellier 3 en alternance. Elle réalise cette alternance à Safran Landing Systems, entreprise d’aéronautique, dans le service de documentation technique.
Abigaelle Guttierez est diplômée de l'Université Paul Valéry Montpellier III d'un master en Histoire de l'art moderne. Après une année de césure, elle poursuit actuellement ses études en Master 1 MAVINUM en distanciel au sein de la même université. Elle est stagiaire au sein de l'équipe de gestion de Numerev, un incubateur scientifique et portail de science ouverte, où elle conçoit et réalise des tests utilisateurs.
Dans un monde où le volume des données croît de manière exponentielle et où les technologies évoluent à une vitesse fulgurante, les entreprises et les organisations font face à des défis croissants en matière de gestion de l'information.
La gestion électronique des documents (GED) se présente comme une solution adaptée à ces enjeux. Elle facilite la conservation et l'organisation des documents, mais aussi leur accessibilité et leur sécurité. Pour explorer ces enjeux, nous proposons une synthèse analytique et réflexive autour du Guide pratique 74 d’Archimag, intitulé “ECM, Ged : la gestion de contenu en évolutions”.
Nous examinerons comment les nouvelles tendances de la GED redéfinissent les pratiques et préparent les organisations à être plus agiles, sécurisées et conformes aux normes. Nous chercherons à comprendre comment les organisations peuvent tirer parti des systèmes de GED, tout en abordant les défis de ces technologies. Cette réflexion nous permettra de saisir les perspectives futures de la GED ainsi que son rôle essentiel dans le cadre de la transformation numérique des entreprises.
Dans le cadre de la GED, l'intégration de l'intelligence artificielle (IA) représente un tournant majeur. L’article de Texier montre comment l'IA facilite amplement la capture et le traitement des données à grande échelle, tout en réduisant les coûts associés.
On constate que l'automatisation avancée des processus grâce à l'IA permet une classification précise des documents, une extraction intelligente des métadonnées et la suggestion de corrections ou d'améliorations en temps réel. Par exemple, Google propose Document AI, qui aide à automatiser la saisie des données et à les rendre accessibles pour d'autres applications.
C’est une solution cruciale pour les plateformes utilisant des solutions ECM (Enterprise Content Management). L'IA améliore l'expérience utilisateur en automatisant le marquage des documents et en facilitant les opérations de recherche grâce à des systèmes de reconnaissance. Ce processus enrichit les systèmes de GED et ouvre la voie à des analyses plus complexes et prédictives, essentielles à la prise de décision stratégique dans les environnements d'affaires actuels.
La conformité réglementaire est un enjeu central pour les systèmes de GED, notamment à l'ère du Règlement Général sur la Protection des Données (RGPD). Les systèmes de GED doivent garantir la sécurité et la confidentialité des données, mais aussi leur intégrité et leur accessibilité.
Comme le souligne Texier dans son article, cela inclut des mesures telles que la justification de la collecte de données, le consentement des utilisateurs, le droit à l'oubli et la détection de contenus sensibles. Cette mise en conformité découle aussi de la flexibilité des systèmes à s'adapter aux évolutions législatives.
Cela comprend la gestion avancée des métadonnées et la capacité à tracer l'audit complet des documents pour répondre aux exigences de transparence et de responsabilité.
Enfin, les politiques internes, la formation des utilisateurs et la mise en place de procédures sont cruciales pour assurer que les systèmes soient utilisés conformément aux lois et règlements. Cette approche holistique est essentielle pour minimiser les risques légaux et renforcer la confiance des utilisateurs dans le système de GED.
L'adaptation au modèle de télétravail, abordé dans l’article de Buscal, souligne l'importance d'un système de GED flexible et sécurisé face à l'évolution des modes de travail. Les organisations doivent repenser leurs stratégies de GED pour s'adapter à une main-d’œuvre plus dispersée géographiquement, impliquant une accessibilité sans faille et des mesures de sécurité renforcées.
Pour répondre à ces défis, l’intégration de solutions de chiffrement avancé et de gestion des identités doivent être appliquées. De plus, la formation continue des utilisateurs est cruciale pour une transition efficace vers le télétravail. Il est impératif que les employés soient sensibilisés aux meilleures pratiques de sécurité et de collaboration à distance.
Cette démarche assure que la productivité et la collaboration ne soient pas compromises, même en dehors de l'environnement de travail traditionnel. La gestion adaptative des documents, dans un contexte de télétravail, n'est pas seulement une réponse à une crise, mais une évolution nécessaire vers un modèle de travail plus flexible et résilient, préparant les entreprises pour l'avenir du travail.
L'automatisation des processus métiers et documentaires est devenue un axe majeur de développement pour les systèmes de GED, comme l’explique Carré son article. Il met en évidence une tendance marquée vers la digitalisation complète des processus, motivée par des gains de productivité et une réduction significative des coûts de traitement des documents. L'impact de l'automatisation se manifeste particulièrement dans les processus tels que : les workflows, la gestion des achats, et les interactions avec les clients et fournisseurs ; l'efficacité opérationnelle peut être grandement améliorée par la réduction des tâches manuelles et l'utilisation de l'IA pour le traitement des données.
Cette transformation numérique est facilitée par des technologies telles que le Business Process Automation (BPA) et le Business Process Management (BPM). Ce sont des solutions de gestion intelligente des documents, qui permettent une gestion plus fluide et intégrée des documents. En réduisant la dépendance aux documents physiques, les entreprises améliorent leur efficacité opérationnelle et répondent aux exigences de durabilité et de responsabilité environnementale.
Ainsi, la GED automatisée se présente comme une solution à des défis immédiats, et s'inscrit dans une perspective stratégique à long terme, visant à transformer les pratiques de travail et soutenir les entreprises dans leur transition vers un environnement de travail plus numérisé et écologiquement responsable.
L’article de Buscal explique comment les stratégies de sécurité doivent être intégrées dès la conception des systèmes de GED pour protéger contre les accès non autorisés et les violations de données.
Cette approche est essentielle dans un environnement où les risques de cyberattaques sont croissants, exacerbé par la diversité et la quantité de données gérées. Les systèmes de GED modernes doivent offrir des niveaux de sécurité adaptés aux types de contenus qu'ils gèrent, impliquant des méthodes de cryptage avancées, la gestion des droits d'accès et des profils d'utilisateurs, ainsi que la mise en place de protocoles de traçabilité et d'auditabilité des accès et des modifications.
Selon l’auteur, ces mesures ne se limitent pas à la protection des données contre les intrusions externes, mais englobent également la prévention des fuites internes et la garantie de l'intégrité des données au fil du temps. De plus, la mise en œuvre de politiques de sécurité efficaces nécessite une collaboration étroite entre les départements informatiques et les utilisateurs finaux pour s'assurer que les règles de sécurité ne compromettent pas l’usabilité et l'efficacité des processus métier.
On souligne ici l'importance de formations régulières pour les utilisateurs afin de les sensibiliser aux pratiques de sécurité et de renforcer la culture de la protection des données au sein de l'organisation.
Le dossier met l'accent sur l'importance de renforcer la collaboration et la communication au sein des organisations via des systèmes de GED.
Cependant, malgré les avancées technologiques, un grand nombre d'organisations continuent de s'appuyer sur des méthodes traditionnelles comme l'email pour le partage de documents internes, ce qui pose des défis significatifs en termes de sécurité et de traçabilité.
De plus, il est avancé que les besoins en partage externe sécurisé des informations sont souvent entravés par des contraintes telles que le volume des données et un contrôle insuffisant des informations partagées. Pour surmonter ces défis, Le Ven propose la création d'espaces collaboratifs dédiés et sécurisés.
Ces espaces, configurés pour être temporaires ou permanents selon les besoins, permettent de centraliser les échanges documentaires et de les sécuriser. Ils offrent une gestion des droits d'accès précise, ce qui garantit que seules les personnes autorisées peuvent accéder aux informations, et facilitent le suivi des modifications et des interactions avec les documents.
Une des suggestions particulièrement mise en avant est l'adoption de technologies permettant une traçabilité accrue des actions entreprises sur les documents partagés. Ceci est essentiel pour une gouvernance efficace des données et pour répondre aux préoccupations de conformité et de sécurité. En effet, environ 53 % des professionnels interrogés dans le cadre de la publication de ce dossier expriment le besoin d'améliorer la définition des règles et des processus.
Ceci témoigne d'une forte demande pour des solutions de GED qui renforcent la collaboration, la sécurité et la responsabilité. En intégrant de telles solutions, les organisations peuvent améliorer leur efficacité opérationnelle, tout en renforçant la sécurité des données et en promouvant une culture de collaboration ouverte. Ces espaces collaboratifs, enrichis de fonctionnalités avancées de GED, représentent une opportunité prometteuse pour les entreprises souhaitant optimiser la gestion de leurs documents dans un environnement évoluant vers le numérique et l’interconnectabilité.
Pour conclure, ce dossier met en lumière l'évolution rapide et significative de la GED dans un contexte professionnel de plus en plus axé sur la digitalisation et l'automatisation.
La nécessité d'intégrer l'intelligence artificielle pour optimiser les processus de classement et d'indexation, la conformité réglementaire renforcée pour répondre aux normes de sécurité et de protection des données, ainsi que l'adaptation aux nouveaux paradigmes de travail comme le télétravail, sont des thèmes qui définissent l'avenir de la GED.
L'automatisation continue de réduire la dépendance aux documents physiques, facilitant des opérations plus écologiques et efficaces, tandis que la sécurité des données devient une priorité incontournable pour protéger les informations sensibles et garantir la confiance des utilisateurs. Les auteurs offrent une perspective approfondie sur les défis et les opportunités de la GED dans le cadre de la transformation numérique des entreprises.
Ils soulignent l'importance d'une approche proactive et bien informée pour exploiter pleinement les potentialités de ces technologies.
On en conclut que les organisations doivent donc rester vigilantes et agiles, prêtes à intégrer de nouvelles solutions pour améliorer leurs systèmes de gestion documentaire, tout en restant attentives aux exigences réglementaires et aux besoins changeants de leur main-d’œuvre.
Ce billet a été rédigé par Armelle Paquier. Il s'agit d'un travail réalisé dans le cadre de l’enseignement "Edition savante et communication scientifique" assuré par Anne-Laure Fischer et Hans Dillaerts.
Armelle Paquier est diplômée d'un Master 2 en droit humanitaire et droits de l'homme à l'Université Paris 2. Après avoir travaillé dans le domaine social en milieu associatif, puis exercé la profession d'avocate pendant trois ans, elle décide de se reconvertir et intègre le "Master 1 Information-Documentation : Gestion de l'information et médiation documentaire - Métiers des bibliothèques et de la documentation" au sein de l'Université Paul Valéry Montpellier 3.
La synthèse proposée ci-dessous répond aux objectifs énoncés dans le sujet d'évaluation :
Finalité de l'exercice : Rédaction d'une synthèse (3-4 pages) d'un article de recherche portant sur des questionnements autour des pratiques de dépôt sur HAL. Il s'agit d'un travail d'écriture et de rédaction personnelle qui devra proposer un regard analytique sur l'article proposé ci-dessous.
Modalités de travail : Travail individuel ou en groupe (2 personnes).
L'article à analyser : Joachim Schöpfel, Florence Thiault, Hélène Prost, Bernard Jacquemin et Éric Kergosien, « L’utilisation de HAL par les laboratoires de recherche », Balisages [En ligne], 6 | 2023, mis en ligne le 21 septembre 2023, consulté le 14 décembre 2023. URL : https://publications-prairial.fr/balisages/index.php?id=1166
Dans le cadre d’une politique nationale française de développement de la science ouverte, les archives ouvertes sont devenues des outils indispensables. En effet, les archives ouvertes sont définies par l’article étudié comme des « bases de données documentaires accessibles librement et gratuitement sur Internet dans lesquelles les chercheurs peuvent y déposer un document scientifique ou technique dont ils sont l’auteur et dont ils détiennent les droits de diffusion pour rendre ce document librement accessible ».
Dans ce contexte, l’archive ouverte HAL, créée en 2001, s’est positionnée comme l’outil de référence d’un point de vue institutionnel et étatique. La pratique du dépôt en auto-archivage a également évolué vers une pratique de dépôt par des intermédiaires et notamment les laboratoires.
Ainsi, l’article étudié, intitulé « L’utilisation de Hal par les laboratoires de recherche », vise à présenter les résultats d’une enquête quantitative menée à la suite d’autres études menées entre 2019 et 2022, afin de les compléter et préciser l’analyse de la pratique des laboratoires concernant l’archive ouverte HAL. Elle a été menée en 2023 par Joachim Schöpfel, Florence Thiault, Hélène Prost, Bernard Jacquemin et Eric Kergosien dans le cadre du projet HAL/LO.
Plusieurs questions préalables à l’enquête se sont posées pour étudier la manière dont les laboratoires utilisent HAL et portent sur le nombre de laboratoires utilisant HAL ou non, le nombre et le type de documents déposés, ainsi que la création de collections ou non.
Dans cet article, les auteurs exposent tout d’abord un état de l’art. Ils expliquent ensuite leur méthodologie d’enquête et notamment leur méthode pour définir un échantillon significatif de laboratoires à étudier et leur manière de procéder à l’enquête pour répondre aux questions. Ils présentent ensuite les résultats obtenus quantitativement avant de procéder à une discussion de ceux-ci.
Plusieurs aspects principaux sont relevés par les auteurs qu’il conviendra d’examiner successivement : le rôle des laboratoires dans l’utilisation de HAL (I), l’impact des différences disciplinaires (II) et la transformation de HAL d’une archive ouverte vers un dispositif de suivi et d’évaluation de la production scientifique (III).
Afin d’étudier un échantillon significatif, les auteurs ont choisi d’étudier les pratiques des laboratoires des dix universités membres de l’association Udice, correspondant ainsi à l’identification de 1.246 laboratoires. En effet, ils ont pu établir que ces laboratoires produisent 45% des publications françaises et représentent un tiers de l’ensemble des dépôts sur HAL, ce qui parait représentatif. Ces laboratoires ont été recensés à travers un certain nombre d’informations et notamment leur nom, domaine de recherche et discipline.
Des limites sont apportées à la pertinence de cet échantillon en raison de « l’absence d’un identifiant fiable pour les structures et organisations scientifiques ». Ainsi, des doublons ou des erreurs et imprécisions dans les descriptions ont pu être commis, relativisant la portée des résultats.
Lors de précédentes enquêtes, il a pu être constaté que les laboratoires ont un rôle important dans la pratique de dépôt sur HAL, à travers plusieurs aspects. Tout d’abord, les laboratoires ont un impact d’un point de vue de la communication autour de l’archive ouverte et de la médiation pour inciter les chercheurs à déposer leurs documents et les aider à leur permettre concrètement de le faire. Par ailleurs, ils ont un impact d’un point de vue du soutien de la plateforme, à travers la création de collections. Enfin, il a pu être constaté que les laboratoires présentent des inégalités face à l’utilisation de HAL par les différences d’équipements et de ressources disponibles.
Par ailleurs, il avait été constaté l’existence de pratiques très différentes et notamment trois grands types d’utilisation de HAL par les laboratoires : comme une vitrine c’est-à-dire avec beaucoup de publications et d’accès libre aux entiers documents ; comme un gestionnaire de références bibliographiques, c’est-à-dire avec beaucoup de notices, mais peu de textes intégraux ; et enfin, sans stratégie.
Lors de la présente enquête, les auteurs ont également mis en avant le rôle important des laboratoires. Ils ont tout d’abord pu constater que 99% des laboratoires étudiés utilisent HAL d’une manière ou d’une autre, confirmant ainsi l’utilisation généralisée de cette plateforme.
Par ailleurs, la moitié de ces laboratoires ont procédé à la création d’une collection sur HAL, démontrant le soutien important apporté à la plateforme. Enfin, l’enquête a confirmé l’existence de pratiques très diversifiées par les laboratoires concernant tant le nombre de dépôts et le pourcentage de documents en plein texte que la typologie des documents ou encore les modalités d’alimentation.
Les auteurs ont ainsi développé une nouvelle analyse des pratiques de dépôt par les laboratoires à travers deux grandes tendances et non plus trois : une tendance d’un nombre restreint de laboratoires représentant la majorité des publications, soit environ 20% de laboratoires avec 67% de publications considérés comme les « meilleurs laboratoires », et une autre de la majorité des laboratoires représentant une minorité de publications, soit environ 70% des laboratoires représentant 20% des publications et renommés « la longue traîne ». Le groupe des « meilleurs laboratoires » présente en revanche moins de publications en texte intégral et davantage de notices que ceux de la « longue traîne ».
Afin de déterminer les raisons des différences d’utilisation de HAL constatées entre laboratoires, les enquêtes ont tenté d’examiner les facteurs potentiels distinctifs et notamment l’impact ou non des disciplines sur les pratiques d’utilisation.
Lors des précédentes enquêtes, les facteurs potentiels évoqués étaient multiples. Certains facteurs étaient ainsi rattachés à des critères distincts de la discipline de recherche elle-même, par exemple le nombre de chercheurs, les ressources humaines disponibles et notamment la présence ou non d’un documentaliste ou encore le statut de l’unité et la tutelle.
D’autres variables semblaient en revanche rattachées à la discipline et au domaine scientifique et notamment le choix délibéré du laboratoire, la politique d’établissement ou encore les pratiques individuelles. En effet, certains domaines semblaient plus enclins à soutenir HAL et notamment les mathématiques, la physique, l’informatique et les SHS. D’autres, au contraire, paraissaient beaucoup moins actifs, tels que la médecine, la biologie et les sciences de la vie.
Lors de la présente enquête, une distinction est observée au sein de la catégorie des « meilleurs laboratoires », en corrélation notamment avec les disciplines. Ainsi, au sein de cette catégorie, on trouve un groupe de laboratoires qui publient beaucoup de textes intégraux, principalement dans les domaines de l’informatique, les mathématiques et la physique. Ces domaines présentent une communauté acquise à la science ouverte et une tradition forte de dépôt.
L’autre groupe est celui des laboratoires qui présentent peu de textes intégraux, mais publient beaucoup de notices et qui relèvent plus généralement des domaines des SHS, de la biologie, de la chimie et du génie civil. Pour ces domaines, le signalement semble plus important que la communication directe des documents. Cependant, à nouveau, les auteurs constatent que la discipline n’explique pas toutes les variétés de comportements dans l’utilisation de HAL. Par ailleurs, environ un tiers des laboratoires sont des laboratoires mixtes couvrant plusieurs disciplines.
Enfin, les auteurs constatent une transformation de HAL par l’utilisation qui en est faite, notamment de la part des laboratoires. En effet, les auteurs rappellent que la plateforme HAL a été originellement conçue comme une plateforme d’auto-archivage généralisée et ouverte à toutes les disciplines pour la mise à disposition de textes scientifiques intégraux.
Cependant, ils constatent que l’objectif n’a pas été atteint puisque toutes les disciplines ne sont pas représentées de la même façon, il y a peu de textes intégraux et également peu d’auto-archivage. La majorité des documents sont des notices publiées par des intermédiaires. Certains le décrivent ainsi comme une « dérive bibliométrique des archives ouvertes ».
Mais ils constatent également que ce mouvement participe d’une évolution générale des archives ouvertes dans cette direction et qu’il a pour objectif une évaluation des résultats et un suivi de la productivité de la recherche. Les laboratoires qui publient beaucoup, mais peu de textes intégraux visent ainsi l’exhaustivité du contenu et la communication du texte intégral devient secondaire. Cette recherche permet alors de « produire des connaissances fiables sur la recherche et d’aider les institutions scientifiques à assurer le suivi des projets scientifiques ».
Par ailleurs, les auteurs relèvent que la particularité de HAL dans ce domaine est celle de son niveau d’utilisation. La plateforme semble en effet être la seule à disposer d’une aura nationale et faire ainsi l’objet d’une demande de la part des établissements et laboratoires, mais également de l’administration centrale de l’État français.
Cela implique également une incitation renforcée pour l’utilisation de HAL puisqu’elle est appuyée par l’administration centrale et le CNRS. De nouveaux procédés apparaissent également en lien avec ce niveau d’utilisation et notamment des mécanismes automatisés de collecte ciblée des publications afin de mieux référencer d’autres publications.
Ainsi, l’objectif des auteurs était d’étudier, de manière quantitative et auprès d’un échantillon représentatif de laboratoires, les différents types de pratiques d’utilisation de HAL par ces derniers, en complément d’autres enquêtes réalisées précédemment. Ils ont pu confirmer certains constats comme celui de l’utilisation généralisée de HAL par les laboratoires et préciser certaines conclusions concernant, par exemple, les différents comportements dans l’utilisation de HAL entre « meilleurs laboratoires » et « longue traîne » et l’impact des différences disciplinaires dans cette utilisation.
Ils ont également pu constater une évolution évidente de l’utilisation de HAL « d’un dispositif à usage individuel (auto-archivage) vers un dispositif à destination des institutions (suivi, évaluation) », amenant de nouvelles questions telles que la provenance et la qualité des données, leur interopérabilité ou encore la professionnalisation documentaire des déposants. Enfin, les auteurs montrent que cette enquête devra elle-même être complétée pour poursuivre l’étude de ce sujet. Une nouvelle enquête qualitative, à partir d’entretiens auprès de 50 laboratoires est en cours et aura pour but d’affiner les axes relevés et mieux appréhender les variables de comportements qui n’ont pas encore pu être expliqués.
Une proposition d’analyse longue sur plusieurs années est également présentée par les auteurs pour permettre d’étudier l’impact des politiques publiques auprès des différentes communautés et disciplines.
Ce billet a été rédigé par Lauriane Cottel, Emeline Dolet et Pierre Verschave. Il s'agit d'un travail réalisé dans le cadre de l’enseignement "Représentation de l'information et des documents" assuré entre autres par Hélène Bert et Hans Dillaerts.
Lauriane Cottel, dotée d’un diplôme d’ingénieur en aménagement du territoire, a été chargée de projet en santé publique pour une collectivité locale pendant treize ans. En 2023, dans le cadre d’un projet de reconversion professionnelle, elle intègre la licence professionnelle « Métiers du livre : documentation et bibliothèques » au sein de l’université Paul-Valéry Montpellier III.
Emeline Dolet est diplômée de l’Université d’Avignon d’une licence de lettres modernes. Elle poursuit actuellement ses études en licence professionnelle « Métiers du livre : documentation et bibliothèques » en distanciel au sein de l’université Paul-Valéry Montpellier III.
Pierre Verschave, titulaire d’un BTS de design, a travaillé dans l’animation sociale, plus particulièrement dans le domaine du jeu de société, pendant six ans, dans l’agglomération de Lyon. Illustrateur indépendant depuis 2013, il poursuit un travail d’animation d’ateliers dessin dans différentes structures : écoles, collèges, centres sociaux… et en parallèle l’accompagnement d’élèves en situation de handicap en collège depuis 2017. Actuellement en formation à distance en licence professionnelle « Métiers du livre : documentation et bibliothèques » au sein de l’université Paul-Valéry Montpellier III.
Le documents mis à votre disposition ci-dessous répond aux objectifs énoncés dans le sujet d'évaluation :
Finalité du travail : Il faut procéder à une étude fonctionnelle comparative de deux SIGB. Modalités de travail. Travail individuel ou en groupe (max. 3 personnes). L'analyse fonctionne comparative doit comprendre les dimensions et les périmètres suivants :
Afin de réaliser ce travail, nous vous conseillons de lister de manière exhaustive l'ensemble des fonctionnalités relatives aux quatre thématiques évoquées. Il sera nécessaire d'élaborer une méthodologie (une grille d'analyse) pour produire le cahier des tests fonctionnel (ou autrement dit cahier de recette fonctionnelle) que vous avez à rendre dans le cadre de ce devoir.
Le travail réalisé : https://blogs.infodocs.eu/etu/fichiersuploads/2024/COTTEL-DOLET-VERSCHAVE.pdf
Ce billet a été rédigé par Marie-Mathilde Barcelli et Marie Jansana. Il s'agit d'un travail réalisé dans le cadre de l’enseignement "Représentation de l'information et des documents" dispensé entre autres par Hélène Bert et Hans Dillaerts.
Marie-Mathilde Barcelli est diplômée d'une Licence d'histoire et d'un Master 2 Recherche en Littérature anglaise XIXème à l'Université Lyon 2. Après avoir enseigné pendant près de 15 ans en France et à l'étranger, elle choisit de se reconvertir dans les métiers de la documentation en rejoignant la Licence professionnelle "Gestion des ressources documentaires et de l'information spécialisée" à l'université Montpellier III. Adresse électronique : mmbarcelli@orange.fr
Marie Jansana a effectué une carrière de journaliste en presse écrite pendant quinze ans avant de se reconvertir dans les métiers des bibliothèques. Diplômée d'un DUT information-communication option journalisme, puis d'une licence professionnelle Activités et techniques de communication, spécialité journalisme, elle étudie à l'université Paul-Valéry Montpellier III, en licence professionnelle "Gestion des ressources documentaires et de l'information spécialisée". Adresse électronique : mjansana@yahoo.fr
Les documents mis à votre disposition ci-dessous répondent aux objectifs énoncés dans le sujet d'évaluation.
Finalité du travail : Il faut procéder à une étude fonctionnelle comparative de deux SIGB. Modalités de travail. Travail individuel ou en groupe (max. 3 personnes). L'analyse fonctionne comparative doit comprendre les dimensions et les périmètres suivants :
Afin de réaliser ce travail, nous vous conseillons de lister de manière exhaustive l'ensemble des fonctionnalités relatives aux quatre thématiques évoquées. Il sera nécessaire d'élaborer une méthodologie (une grille d'analyse) pour produire le cahier des tests fonctionnel (ou autrement dit cahier de recette fonctionnelle) que vous avez à rendre dans le cadre de ce devoir.
Le travail réalisé :
Ce billet a été rédigé par Anna Koleva et Romain LURTZ. Il s'agit d'un travail réalisé dans le cadre de l’enseignement "Document numérique : formats et langages".
Anna Koleva a bénéficie d’une expérience de 15 ans en qualité de responsable de la communication et des éditions en agence de communication. Elle est actuellement missionnée par la plateforme numérique en science ouverte, NumeRev, pour la mise en place d’une stratégie de communication à 360°. Parallèlement, elle poursuit des études en Master 1 « Information-Documentation : Management et Valorisation de l’Information Numérique » au sein de l’université Paul-Valéry Montpellier III. Adresse électronique : anna.koleva@mac.com
Romain Lurtz est chargé de communication et créateur de contenu pédagogique en alternance au sein de la Direction des Services d’Information au conseil départemental de l’Hérault depuis octobre 2023. Diplômé d’un BTS en communication et d’une Licence en « Sciences du Langage », il étudie au sein de l’université Paul-Valéry Montpellier III, Master 1 « Information-Documentation : Management et Valorisation de l’Information Numérique ». Adresse électronique : romain.lurtz@hotmail.fr
La définition de la notion d'interopérabilité, dans un contexte numérique en constante évolution ne cesse de s’inviter dans le débat public. Car l’interopérabilité n’est pas qu’une question technique. Elle touche aux questions de vocabulaire, de concepts métiers, de principes d’architecture et d’organisation, de réglementation, de droit, de politiques, raisons pour lesquelles, il apparaît évident que pour cerner les contours du concept, il faut s’appuyer sur une définition globalisante et transversale.
C’est partant de ce constat que la Commission Européenne [1] définit dans le Référentiel Général d’Interopérabilité (RGI) la notion d’interopérabilité comme étant
« L'aptitude d’organisations disparates et diverses à interagir en vue de la réalisation d’objectifs communs mutuellement avantageux, arrêtés d’un commun accord, impliquant le partage d’informations et de connaissances entre ces organisations à travers les processus métiers qu’elles prennent en charge, grâce à l’échange de données entre leurs systèmes de TIC respectifs ». (Pierre-Dit-Mery, s. d.)
Par ailleurs, l’Association Francophone des Utilisateurs de Logiciels Libres (AFUL) stipule que :
« L’interopérabilité est la capacité que possède un produit ou un système, dont les interfaces sont intégralement connues, à fonctionner avec d’autres produits ou systèmes existants ou futurs et ce sans restriction d’accès ou de mise en œuvre. »
Dans son article L’interopérabilité, principe incontournable des libertés numériques, Franck Macrez, Maître de conférences au CEIPI, Université de Strasbourg, précise que :
« L’interopérabilité doit impliquer : une interopérabilité sémantique (« savoir se comprendre »), syntaxique (« savoir communiquer ») » et technique (« pouvoir communiquer »). » (Macrez & Duflot, s. d.)
Par ailleurs, le RGI précise trois autres niveaux d’interopérabilité qui sont : le niveau organisationnel, juridique et politique.
Sur le Web, l’interopérabilité sémantique repose sur l'utilisation de langages de représentation du savoir, tels que le RDF (Resource Description Framework) ou le OWL (Web Ontology Language). Ces langages offrent une structure formelle pour décrire la signification des données, favorisant ainsi une communication riche en informations et dénuée d’ambiguïtés.[3] Au-delà de son rôle dans les échanges de données, l'interopérabilité sémantique se distingue par sa contribution significative au principe FAIR (Findable, Accessible, Interoperable, Reusable). En effet, en rendant les données compréhensibles pour les systèmes informatiques, elle favorise leur repérage, leur accès, et leur exploitation, contribuant ainsi à une utilisation plus efficiente et réutilisable de l’information.[4]
L’interopérabilité sémantique concerne tous les domaines d’activité. En particulier, celui de la santé qui a de quoi donner du fil à retordre aux scientifiques, mais aussi aux professionnels et usagers du secteur.
« La santé est un langage à part entière, ambigu, plein d’éponymes, d’homonymes, de synonymes, d’acronymes et d’abréviations. Elle est vaste et riche en détails, très dépendante du contexte, utilise un jargon particulier, est truffée de localismes et manque souvent de définitions rigoureuses. »
explique l’Organisation panaméricaine de la Santé, dans son Introduction à l’Interopérabilité Sémantique [5].
Quels sont les réels enjeux dans la gestion des données en santé ? Quelles sont les ontologies de référence au service de l’interopérabilité dans ce domaine et en quoi leur adoption constituerait un progrès majeur en matière de santé humaine ? Nous tenterons de répondre à cette question en nous appuyant sur différentes études et initiatives en la matière, conduites en France et à l’étranger.
En 2009, l'ex-ministre de la Santé et des Sports en France, Mme Roselyne Bachelot, mettait en avant l'importance de l'interopérabilité sémantique dans le système médical. Dans une lettre [6] adressée au professeur Marius Fieschi, elle soulignait la nécessité que :
« Les informations produites par chaque professionnel de santé puissent être communiquées et comprises par les autres acteurs du système de santé, ce qui suppose notamment l’emploi de terminologies médicales communes. » (Bachelot, 2009)
Par demande de la ministre de la Santé, le rapport La gouvernance de l’interopérabilité sémantique est au cœur du développement des systèmes d’information en santé (Fieschi, 2009) a vu le jour et a été mené par le professeur de physiopathologie à l’université de Marseille, Monsieur Marius Fieschi. Ce rapport visait à démontrer l'importance des systèmes terminologiques communs dans l'efficacité des soins aux patients et dans la facilitation des analyses épidémiologiques.
Le rapport établit dans un premier temps l'importance d'une terminologie commune en santé, puis se penche sur les résultats de l'acquisition par l'Agence du Numérique en Santé (ANS) de la version francophone de la nomenclature médicale internationale SNOMED (Systematized Nomenclature of Medicine), ontologie de référence pour les terminologies médicales. Le professeur illustre l'impact de cette ontologie en prenant l'exemple d'un clinicien qui peut proposer des diagnostics initiaux grâce à la richesse descriptive de la nomenclature. De plus, l'interopérabilité est renforcée par la mise en commun d'informations (appelés DMR pour Data and Model Resources) provenant d’expériences et d’études issues des professionnels d’un grand champ de domaines scientifiques.
Dans les métiers de la santé, tels que la biologie, l’informatique biomédicale, la pharmacologie et bien d’autres, chaque jour, sont produits des centaines, voire des milliers de données (DMR) à faire transmettre et communiquer avec leurs confrères dans les domaines. Que ce soit des données scientifiques, expérimentales, voire des guides pratiques des laboratoires, les données sont rendues accessibles par différentes méthodes parmi lesquelles on retrouve l’utilisation de langages en Markup comme le SBML (Systems Biology Markup Language) et le CellML (Cell Markup Language); des images, des signaux ou tout simplement des annuaires de données et des modèles. Ainsi pour reprendre les mots du docteur en physiologie, et professeur à l'Université Paris-Sud 11, Stephen Randall Thomas :
« Les ontologies sont le « liant » de cet ensemble : mises en cohérence, elles constituent le langage commun qui permet que ces espaces puissent former une unité explorable informatiquement. » (Stephen Randall Thomas, 2014)
La multiplicité d'acteurs dans les domaines médicaux engendre une myriade de désignations pour des concepts similaires, rendant dès lors les recherches automatisées complexes et difficiles. Les différentes communautés de professionnels tendent à nommer et à décrire les mêmes faits ou situations de façon non uniforme. Il existe des vocabulaires et des ontologies contrôlés nommés CVO (Controlled Vocabulary and Ontology), mais ils sont utilisés de manière inégale et dissemblable conduisant à un chevauchement d’ontologies.
Face à cette situation, le projet RICORDO mis en œuvre par la communauté du VPH (Virtual Physiological Human) en France émerge pour répondre à la question « Comment la documentation pour des projets et des bases de données est-elle réalisée actuellement, et comment peut-on faire mieux ? » [7]
Le projet réunit ainsi plusieurs acteurs industriels (pharmacie, dispositifs médicaux) et académiques ainsi qu’un certain nombre de bases de données clés provenant d’instituts et de laboratoires du monde entier afin de développer des outils d'interopérabilité en anatomie et en physiologie. Les objectifs ont été les suivants :
Ce dernier point important semble difficile à réaliser pour des concepts complexes comme des processus physiologiques. Il est alors nécessaire de les définir à partir des termes figurants dans des ontologies de référence. Ils peuvent également compter sur la création d’une boîte à outils sur le web afin de permettre aux professionnels d’apporter leur pierre à l’édifice pour créer des termes complexes, annoter des données et stocker des métadonnées.
L’État français mène une politique volontariste pour faire appliquer les référentiels d’interopérabilité. Il a mis en place une nouvelle gouvernance de l’interopérabilité des SI (Systèmes d’Information) de santé et du médico-social à travers un comité de pilotage. [8]
La France a initié de nombreux autres projets. Chaque domaine de la santé semble se doter d’une ontologie spécifique. C’est le cas du domaine de la cancérologie qui, pour coder des diagnostics de cancer, va utiliser le NCI Thesaurus, un thésaurus international des cancers et le CIM-03 (Classification Internationale des Maladies pour l’Oncologie).[9]
L'INRAE de son côté a œuvré pour la création d’un thésaurus de référence structuré en 12 domaines (dont la santé humaine), construit comme une ressource terminologique pour l’interopérabilité sémantique. La version 1.4 basée sur des standards, offre une richesse lexicale avec des synonymes, un vocabulaire pivot pour la recherche d’informations sur une diversité d’objets numériques (textes, données, images...). Cette démarche permet de répondre à des enjeux d’automatisation face à des volumes importants et des ressources humaines en diminution. [10]
Depuis 2009, l’ANS (l'Agence du Numérique en Santé) a défini le CI-SIS (Cadre d’Interopérabilité des Systèmes d’Information de Santé) qui vise à créer des règles de formatage pour la création et le transfert de données. Ce dernier englobe l’ensemble des processus liés directement et/ou indirectement à la prise en charge des patients, des professionnels médicaux, administratifs et du social. S’appuyant sur des normes et standards internationaux, l’ANS propose également des normes et standards qui s'adaptent aux contextes nationaux. [11] [12]
À noter également la création, en 2019, d’un Centre de gestion des Terminologies de santé (CGTS). Il s’agit d’une instance de gouvernance responsable de la gestion opérationnelle de la publication des ressources sémantiques utilisées par les professionnels de santé et du médico-social pour structurer leurs échanges.
Le CGTS doit favoriser l'interopérabilité sémantique grâce à l’usage de vocabulaires contrôlés opérationnels et partagés par tous en publiant les différentes ressources sémantiques (terminologies, jeux de valeurs, alignements). Il garantit la cohérence de ce corpus sémantique et répond aux besoins des utilisateurs en mettant à leur disposition une gamme d'outils opérationnels.
Par ailleurs, le CGTS est partenaire de l’Organisation Mondiale de la Santé (OMS) et soutient les projets européens de l'ANS qui visent à harmoniser les normes utilisées en France et en Europe.
Afin d'accompagner les acteurs du secteur dans la santé dans leur compréhension des enjeux de l’interopérabilité et le bien-fondé du CI-SIS, l’ANS propose des webinaires, dont le dernier a eu lieu en 2020 :
L’Espagne se caractérise par la décentralisation de son système de santé. Sa singularité réside dans le fait que les compétences en matière de santé sont transférées aux Communautés autonomes. Elles possèdent leur propre législation sur la santé et ont développé divers outils pour la gestion des données de santé. La séparation des responsabilités en matière de santé entre l’État et les Communautés autonomes espagnoles a conduit à la mise en place de dossiers informatisés ou « histoire clinique partagée » (historia clinica digital) du patient (dossier médical électronique) dans chaque Communauté autonome.
En dépit d’une évolution positive de l’interopérabilité globale du système national de santé espagnol, de nombreuses Communautés autonomes sont en retard. L’inégal niveau d’informatisation du dossier personnel du patient, ainsi que les déplacements de la population sur le territoire national génèrent forcément des problèmes en termes d’interopérabilité. (Biedma, J. & Bourret, C., 2015) [13]. Garantir la sécurité de l’information pose une question délicate.
En ce sens, Renau et Pérez (2000) [14] mentionnent que, bien que l’utilisation du système des « histoires cliniques partagées » des patients présente des avantages certains, Romero (2012) [15] considère que les informations sur les dossiers médicaux électroniques devront être partagées dans un environnement sûr, accessible et fiable ; de plus, elles devront être supportées par divers systèmes, qui partageront quelques structures de données communes. La terminologie utilisée entre les différents systèmes devra également être partagée sans changement de sens pour assurer l’interopérabilité sémantique. F. Macary souligne que :
« L’interopérabilité est dite sémantique si elle garantit que l’information échangée est interprétée à l’identique par les systèmes d’information destinataires et émetteurs : préservation du sens dans l’espace et dans le temps. »
Il fait également remarquer que :
« En abusant de sigles, abréviations, et anglicismes, ceux-là mêmes qui sont chargés d’établir la compréhension entre les systèmes perdent la compréhension de leurs pairs, compromettant ainsi leurs chances d’aboutir à une véritable interopérabilité. »
La condition de l’interopérabilité sémantique réside donc dans le choix d’une syntaxe commune respectée par chacun des systèmes participants à l’échange. Elle est indispensable à différents niveaux : la prise en charge des patients, la coordination et la continuité des soins, la veille sanitaire en santé publique, la recherche scientifique.
Ayant pris pleinement la mesure du problème, le Système national de santé espagnol a de nombreuses démarches dans le but d’atteindre l’interopérabilité globale entre les Communautés autonomes. Ainsi, grâce au projet Historia Clinica Digital del Sistema Nacional de Salud (HCDSNS), les services de santé ont développé et implanté les systèmes automatisés de collecte et de gestion des données individuelles de santé des personnes supports des processus d’assistance, prévention, etc., des patients, en favorisant une augmentation du niveau de qualité des services fournis aux citoyens. Les résultats sont encourageants, même si l’interconnexion complète entre les Communautés autonomes n’a pas été encore obtenue.
Le projet epSOS (Système d'Information Européen sur la Santé) s’est fait à l’initiative de l'Union européenne (20 pays de l’Union européenne et 3 pays non-membres de l’Union) dans le but d’améliorer l'interopérabilité des systèmes de santé numériques entre les pays membres. Il fixait plusieurs objectifs ambitieux :
Le projet epSOS a permis de développer des solutions techniques pour faciliter l'échange d'informations médicales entre les différents acteurs de la santé, telles que les médecins, les hôpitaux et les pharmacies. Les principaux résultats du projet ont été la création d'une infrastructure de communication sécurisée et la mise en place de normes communes pour l'échange de données de santé. Ces avancées ont contribué à une meilleure coordination entre les systèmes de santé européens, tout en respectant les normes élevées de protection des données personnelles.
Ce projet a succédé au projet EpSOS. Son objectif a consisté à consolider les avancées en matière d'interopérabilité des données de santé au niveau européen, en prenant appui sur les standards préalablement établis. [18]
Ses objectifs principaux étaient :
Le projet e-SENS a débuté en avril 2013 et s'est achevé en mars 2017. Il a joué un rôle crucial dans la promotion de l'agenda numérique européen et a posé les bases pour des initiatives futures dans le domaine de l'e-gouvernance et de l'interopérabilité des services publics à l'échelle européenne. [19]
La Commission européenne et l’OMS/Europe se sont engagées dans un nouveau partenariat d’envergure visant à renforcer les systèmes d’information sanitaire et à stimuler la gouvernance et l’interopérabilité des données de santé dans la Région européenne de l’OMS. Le projet de 12 millions d’euros, financé par la Commission européenne, soutiendra les services de soins de santé pour les quelques milliards d’habitants des 53 pays que compte la Région. Le projet approuvé soutiendra les objectifs de la stratégie de l’UE en matière de santé mondiale, ainsi que la Stratégie mondiale de l’OMS pour la santé numérique 2020-2025 et le Plan d’action régional pour la santé numérique dans la Région européenne de l’OMS 2023-2030 et la Stratégie mondiale de l’OMS pour la santé numérique 2020-2025. [20]
Le Plan d’action régional pour la santé numérique [21] dans la Région européenne de l’OMS 2023-2030 vise à orienter et à accélérer l'adoption de la santé numérique dans les États membres de la Région européenne de l'OMS. Ses objectifs stratégiques sont ambitieux :
Ce plan représente une étape clé dans l'adoption et l'intégration de la santé numérique en Europe, avec pour but ultime d'améliorer la santé globale et le bien-être des populations au sein de la région.
Les nouvelles technologies de l’information et de la communication (TIC) sont un facteur clé d’amélioration des performances du secteur de la santé, au bénéfice des patients et des professionnels, mais posent un défi à relever à savoir le partage des données et de l’interopérabilité sémantique des systèmes d’information d’où l’importance d’une politique publique en matière de terminologies médicales.
Les impacts de l’interopérabilité sémantique au niveau santé sont significatifs et multidimensionnels. L'interopérabilité sémantique garantit le fait que les différents systèmes de santé communiquent entre eux de manière efficace, en s'assurant que les données partagées sont comprises de manière uniforme et cohérente. Ainsi les professionnels de la santé peuvent accéder rapidement et avec précision aux dossiers médicaux des patients, ce qui permet de réduire le risque d'erreurs médicales, contribue à la prise de décision rapide et informée sur le traitement du patient.
Par ailleurs, un échange de données de santé cohérent et normalisé facilite la recherche médicale. Les chercheurs peuvent accéder à des données plus larges et plus fiables, ce qui peut conduire à de meilleures compréhensions des maladies et à l'élaboration de traitements plus efficaces.
Enfin, l'interopérabilité sémantique est gage d’amélioration en matière de santé publique. Elle constitue une aide précieuse dans la surveillance et la gestion des épidémies de maladies et les crises sanitaires. En offrant une meilleure analyse des données de santé à grande échelle, elle permet une réponse plus rapide et plus ciblée aux problèmes de santé. Les pouvoirs publics ont pris la pleine mesure des enjeux. De nombreuses initiatives et projets entrepris par les instances administratives, les États, l’Union européenne, ainsi que par les acteurs du secteur de la santé ont permis des avancées significatives en matière d’interopérabilité. La gouvernance se fait de manière pluridisciplinaire en impliquant les professionnels du secteur dans un pilotage basé sur un dialogue constructif, l’échange de connaissances et un processus décisionnel collaboratif.
Ainsi, l’interopérabilité sémantique, bien au-delà de sa complexité technique et sa mise en œuvre exigeante, façonne l’avenir de la médecine mondiale et participe de manière incontestable à l’amélioration de la santé humaine.
Ce billet a été rédigé par Julie de Suremain et Lauranne Fougère. Il s'agit d'un travail réalisé dans le cadre de l’enseignement "Document numérique : formats et langages".
Julie de Suremain : Après avoir étudié les Sciences économiques et sociales à la Sorbonne, elle se spécialise dans le secteur de l’audiovisuel, où elle occupe notamment le poste de programmatrice cinématographique pour plusieurs festivals internationaux. Souhaitant se reconvertir, elle intègre le "Master 1 Information-Documentation : Gestion de l'information et médiation documentaire - Métiers des bibliothèques et de la documentation" (GIMD) au sein de l'université Paul-Valéry Montpellier.
Lauranne Fougère est diplômée d’un Master 2 recherche, spécialité cultures et sociétés étrangères. Après avoir étudié à l’université de Poitiers, elle obtient le Capes d’anglais en 2011. Elle enseigne actuellement au lycée et elle a également repris ses études en enseignement à distance au sein du Master 1 GIMD à l'université Paul-Valéry Montpellier.
Introduction
Les logiciels de traitement de texte ont été conçus pour créer, éditer et imprimer des documents, tout en les enregistrant au format électronique. Cependant, les études et les pratiques ont confirmé leur inadaptabilité à des travaux de recherche, en particulier lors de collaborations collectives et dans le milieu scientifique. L’emprise des outils et des formats propriétaires constitue un frein à la pérennité des documents qu’ils génèrent. Les obstacles techniques rencontrés, tels que la compatibilité des formats, entravent la libre circulation des productions. Le choix croissant de modèles économiques visant à rendre payante l'accessibilité aux documents ne garantit pas leur libre consultation. De plus, la difficulté d’intégration des productions sur les sites rend les outils de traitement de texte inadaptés à la production web. Leur faiblesse en matière de gestion lors de l’intégration d’images et de graphismes, ainsi que l’utilisation répétée du « copier/coller », engendrent des documents lourds et énergivores, ne répondant pas aux critères écologiques et aux aspirations de low-tech.
Le Markdown, qui est un langage de balisage dit léger, permet de structurer simplement et rapidement un document, garantissant un rendu intelligible pour l’homme et pour la machine. Les études menées par Marina Parra, Arthur Perret, Benoit Rou et Patrick Mpondo-Dicka offrent un éclairage approfondi sur ce code et ses possibilités d’utilisation. Les regards croisés d’une doctorante en littérature, d’un maître de conférences en sciences de l’information, d’un historien et d’un sémioticien, enseignant-chercheur en sciences de l'information et de la communication, offrent un aperçu riche de ce langage sous différents angles perceptifs : historique, philosophique, méthodologique, théorique et prospectif.
S’il semble incontestable qu’à travers une démarche réflexive, nous devons nous réapproprier nos environnements de travail et les outils que nous utilisons, le système de langage Markdown peut-il constituer un élément de réponse à cet enjeu ? Pour tenter de répondre à cette problématique, nous allons nous intéresser à trois documents :
Dans un premier temps, nous montrerons en quoi des langages de balisage (LBL) tels que le Markdown représentent une valeur ajoutée pour le document numérique. Puis, nous nous intéresserons à leurs limites et mettrons en évidence l’évolution inévitable du langage Markdown en tant qu’outil dédié à une pratique.
1- Markdown, une valeur ajoutée pour le document numérique
a. Une proposition de réponse aux évolutions technologiques
Bien qu’il ait des caractéristiques similaires au document traditionnel, le document numérique ne peut se définir comme un concept pleinement établi. L'évolution rapide et constante des technologies, la multiplication des fonctionnalités d'un document numérique, la possibilité d'intégrer des éléments multimédias et l'interactivité spécifique des utilisateurs face à ces nouveaux formats sont autant de facteurs qui rendent complexe l'élaboration d'une définition arrêtée. Si Stéphane Crozat s'efforce de donner les contours de ce concept[1], il souligne également la nécessité de le concevoir en tenant compte de ses spécificités, de ses usages et de ses potentialités dans un contexte numérique en constante évolution. Une étude approfondie et ciblée est essentielle, notamment pour la création d’outils appropriés répondant aux exigences de leurs utilisateurs et aux avancées technologiques.
Dans un contexte collaboratif, de production scientifique ou de diffusion web, l’utilisation de logiciels de traitement de texte pour la production de documents numériques ne répond pas à la nécessité de maniabilité du texte. La pluralité des outils et, de ce fait, des formats, complexifie l’intégration de ressources variées. Les caractéristiques high-tech de ces formats constituent une entrave à la circulation fluide dans la production écrite et induisent un temps de traitement et de mise en forme conséquent.
Enfin, comme mentionné précédemment, ils sont inadaptés à la production web. Les langages de balisages légers en tant que lieu même du dialogue humain machine, comme le souligne Patrick Mpondo-Dicka (2019), peuvent jouer un rôle de substitut.
b. Les caractéristiques de Markdown
L’expansion d’Internet et du Web, dans les années 2000, a favorisé la prolifération de productions numériques telles que les blogs et suscité le besoin de développer des outils simples pour la création de contenus. C’est dans ce contexte qu’en 2004, John Gruber, avec l’aide d’Aaron Swartz, conçoit Markdown, un langage permettant de rédiger et de mettre en forme des textes bruts à l’aide de balises simplifiées, tout en intégrant la possibilité de conversion vers d'autres formats, comme le HTML. Le développement de balisages légers permet de structurer simplement et rapidement une production, tout en garantissant un texte lisible par l’homme et la machine, même sous sa forme brute. La neutralité stylistique et sa simplicité langagière du Markdown augmente la flexibilité et la réutilisation des productions qu’il génère, répondant entre autres aux exigences du Web et à la loi de la moindre puissance (W3C)[2]. Compatible et léger, il profite à la collaboration et à l’organisation des différentes étapes d’avancement de recherches. Il est accessible sur différents supports, y compris ceux à faibles capacités telles que les téléphones, les tablettes.
Le choix d’une économie de balises associées à des caractères de ponctuations familiers tels que (#,-,*,=) rend ce langage accessible à un large public. Sa spécificité de code open source facilite son appropriation par ses utilisateurs. Markdown répond également au principe de « single-source », un fichier source unique pour des productions dans différents formats. Lors de corrections, seul le fichier source est corrigé permettant de régénérer les autres fichiers selon les besoins. Sa spécificité d’outils libre de droit et compatible avec n’importe quel éditeur de texte brut, assure la fluidité d’utilisation, sa maniabilité et la pérennité du document. De ce fait, il constitue un écosystème de travail global et intégré, un outil de production numérique adapté aux besoins des utilisateurs, dans une démarche low tech. Ces valeurs peuvent expliquer le succès toujours croissant de Markdown et son implémentation sur le site des développeurs.
c. Markdown et ses nombreuses variantes
De nombreux éditeurs de textes, open source, spécialisés dans son écriture ont été développés, offrant une large gamme d’options adaptées à des besoins spécifiques. La plupart d’entre eux proposent une interface qui distingue le fond et la forme, avec une visualisation du texte au format HTML ou PDF, ce qui favorise la concentration. Marp favorise la création de diapositives ; en mode Présentateur, le texte devient un prompteur, tandis que les éléments sélectionnés pour être affichés apparaissent sur les diapos avec une mise en page largement automatisée. D’autre part, iA Presenter permet un export qui se rapproche davantage d'un document traditionnel, intégrant texte et des illustrations. Certains éditeurs répondent aux exigences d’écritures particulières : Zettlr simplifie l’insertion de citations par rapport aux logiciels de traitement de texte classiques, tandis que Zotero facilite la gestion des bibliographies et des prises de notes. Zettlr offre également un espace de travail personnalisé permettant de structurer les connaissances grâce à une organisation non linéaire des notes étiquetées. En tandem Cosma, il permet de visualiser, naviguer et partager une base de connaissances constituée de fichiers Markdown interconnectés.
Par ailleurs, des outils tels que Stylo ont été conçus pour répondre aux différentes étapes de la chaîne éditoriale, permettant la conversion de texte en Markdown vers d’autres formats. Conçu pour le web, Markdown facilite la publication en ligne et certains outils ont été pensés de manière intégrée pour permettre d’envoyer directement le texte vers WordPress depuis l'éditeur. D’autres logiciels tels que écosystème R, Hugo et le tandem Make/ Pandoc intègrent également la création de blogs et de sites web.
La multitude de logiciels et outils intégrant le langage Markdown reflète sa notoriété et la place qu’il occupe dans les productions de documents actuels. Notoriété que le Markdown acquiert notamment avec son implantation sur Stackoverflow, (site de référence des développeurs conçu par Jeff Atwood [3]) et sur GitHub (plateforme de dépôt de code).
2- Markdown, un LBL en constante évolution
a. Les limites de Markdown
Cependant, bien que la simplicité soit l’un des fondements du langage Markdown, son utilisation croissante et variée engendre des inconvénients liés à son caractère peu expressif. La gestion d’éléments multimédias complexes, tels que les vidéos et les animations, s’avère limitée par rapport aux possibilités offertes par des outils comme le HTML ou des éditeurs WYSIWYG (logiciels permettant de créer et de modifier du contenu visuel avec un rendu final en temps réel). Dans le cadre de publications, la conversion de fichiers Markdown en d’autres formats peut alourdir le travail et nécessiter des mises à jour fréquentes.
Aussi, la rédaction de documents spécifiques peut s’avérer complexe. Comme le soulignent Marine Parra et Benoît Roux (2023), face aux exigences spécifiques d’un ouvrage, il est essentiel de s’approprier son propre environnement de travail afin d'acquérir toutes les fonctionnalités nécessaires pour le traitement du document. La sélection de ces outils implique une démarche réflexive. Des choix que nous n’avons pas toujours le temps de préciser ou conscientiser et qui peuvent alourdir la charge du travail engagé. Ainsi, la simplicité de Markdown n’est-elle pas altérée par la nécessité de multiples extensions qu’il faut associer aux outils initiaux ?
b. La simplicité de Markdown: force ou faiblesse?
La diversité des utilisateurs soulève la question des limites de Markdown. Son adaptation dépend en grande partie de son degré de standardisation. La flexibilité de Markdown, en tant que langage open source, a encouragé son appropriation par les utilisateurs, conduisant à la création de multiples variantes aux spécificités distinctes, telles que Pandoc Markdown pour l'écriture scientifique ou le R Markdown pour les statisticiens. Babelmark, un outil de test et de comparaison des différentes implémentations de Markdown, en recense vingt-deux versions. Cette multiplicité de versions engendre inévitablement des problèmes d’interopérabilité et complique le processus de standardisation. Jeff Atwood, accompagné d’une communauté de développeurs, a entrepris de mettre au point
donnant lieu en 2014 à une première ébauche de standardisation du langage, puis au CommonMark. Cependant l’IESG, organisme responsable du processus de normalisation, n’a pas entériné sa validité. Un processus en marche mais qui, de par sa complexité, n'a toujours pas été finalisé.
Certaines fonctionnalités, spécifiques à certaines versions, ne sont pas prises en charge par d’autres. C’est notamment le cas d’options proposant la gestion des notes de bas de page ou des tableaux, qui peuvent entraîner des erreurs de formatage ou des pertes d’information lors de la conversion entre différents outils.
De plus, la fiabilité du rendu est remise en question selon l’éditeur de texte choisi, ce qui ne garantit pas la fidélité de la mise en page initiale. Dans un environnement collaboratif, le manque de compatibilité entre les différents éditeurs Markdown entrave également le partage de documents et le travail collectif. Ainsi, bien que la compatibilité de Markdown avec divers outils de traitement de texte soit l’un des principes du langage, elle est désormais compromise.
Enfin, contrairement à l’idéologie initiale d’un code open source, certains outils développés récemment relèvent de la propriété privée. Ils sont accessibles uniquement en ligne et leur code est fermé. C’est le cas de nombreux outils pour l’élaboration de bases de connaissances. L’accès payant et restreint constitue un frein à l’accessibilité des données et ne garantit pas leur pérennité.
c. Les nécessaires adaptations de Markdown
La notoriété du langage Markdown l’a conduit à une transformation inévitable, remettant en question son statut "d’idiolecte numérique" (Mpondo-Dicka, 2019). Initialement considéré comme un outil répondant à des besoins spécifiques et utilisés dans des contextes particuliers, adopté par une large communauté, il est devenu un langage social véhiculaire servant de moyen de communication et d’échange d’informations entre les différents utilisateurs. En tant que "technolecte informatique" (Mpondo-Dicka, 2019), il tend à devenir un standard normalisé, le rendant plus fiable et accessible à tous. Il a perdu en souplesse ce qu’il gagne en interopérabilité, en individualité, ce qu’il gagne en cohérence bien qu’il rencontre encore des imperfections à améliorer. Les langages numériques sont le reflet de leurs utilisateurs, ils évoluent avec les nouveaux besoins rencontrés.
L’évolution technologique tend à complexifier les supports de communication et à accroître les exigences des utilisateurs. Dans ce contexte, les langages de balisage léger sont amenés à se perfectionner pour perdurer. Il en est ainsi pour Markdown qui, tout en gardant sa spécificité de langage léger, doit s’améliorer pour devenir plus complet. Des solutions doivent être apportées pour permettre notamment la fusion des cellules et l’intégration des images dans les tableaux, l’insertion de vidéo et d’audio et la possibilité de redimensionner les images.
De plus, l'association d’outils complémentaires peut favoriser une meilleure organisation de l’espace de travail et de son contenu. Par exemple, l'utilisation conjointe d'une mindmap (carte mentale) et de Markdown dans le cadre d’un projet peut améliorer l’organisation, la planification et la communication des idées. La recherche d’interactivité entre les outils pourrait être une voie d’amélioration.
Conclusion
Pour les futurs documentalistes, Markdown représente un outil précieux pour l’organisation des notes et l’élaboration de projets ou de tutoriels. Convertible en de nombreux formats, il permet la publication en ligne et l’impression ainsi que le partage de documents. Dans le cadre d’études collaboratives, des plateformes telles que GitHub facilitent la création participative en Markdown, tout en gardant une trace des modifications. Sa compatibilité et son caractère open source garantissent la pérennité des documents élaborés, qui est un élément essentiel pour les documents destinés à être archivés et réutilisés. À l’heure de l’urgence climatique, l’adoption d’une démarche low-tech est de mise. Par sa légèreté, Markdown répond à cette exigence.