Ce billet a été rédigé par Anna Koleva et Romain LURTZ. Il s'agit d'un travail réalisé dans le cadre de l’enseignement "Document numérique : formats et langages".
Anna Koleva a bénéficie d’une expérience de 15 ans en qualité de responsable de la communication et des éditions en agence de communication. Elle est actuellement missionnée par la plateforme numérique en science ouverte, NumeRev, pour la mise en place d’une stratégie de communication à 360°. Parallèlement, elle poursuit des études en Master 1 « Information-Documentation : Management et Valorisation de l’Information Numérique » au sein de l’université Paul-Valéry Montpellier III. Adresse électronique : anna.koleva@mac.com
Romain Lurtz est chargé de communication et créateur de contenu pédagogique en alternance au sein de la Direction des Services d’Information au conseil départemental de l’Hérault depuis octobre 2023. Diplômé d’un BTS en communication et d’une Licence en « Sciences du Langage », il étudie au sein de l’université Paul-Valéry Montpellier III, Master 1 « Information-Documentation : Management et Valorisation de l’Information Numérique ». Adresse électronique : romain.lurtz@hotmail.fr
La définition de la notion d'interopérabilité, dans un contexte numérique en constante évolution ne cesse de s’inviter dans le débat public. Car l’interopérabilité n’est pas qu’une question technique. Elle touche aux questions de vocabulaire, de concepts métiers, de principes d’architecture et d’organisation, de réglementation, de droit, de politiques, raisons pour lesquelles, il apparaît évident que pour cerner les contours du concept, il faut s’appuyer sur une définition globalisante et transversale.
C’est partant de ce constat que la Commission Européenne [1] définit dans le Référentiel Général d’Interopérabilité (RGI) la notion d’interopérabilité comme étant
« L'aptitude d’organisations disparates et diverses à interagir en vue de la réalisation d’objectifs communs mutuellement avantageux, arrêtés d’un commun accord, impliquant le partage d’informations et de connaissances entre ces organisations à travers les processus métiers qu’elles prennent en charge, grâce à l’échange de données entre leurs systèmes de TIC respectifs ». (Pierre-Dit-Mery, s. d.)
Par ailleurs, l’Association Francophone des Utilisateurs de Logiciels Libres (AFUL) stipule que :
« L’interopérabilité est la capacité que possède un produit ou un système, dont les interfaces sont intégralement connues, à fonctionner avec d’autres produits ou systèmes existants ou futurs et ce sans restriction d’accès ou de mise en œuvre. »
Dans son article L’interopérabilité, principe incontournable des libertés numériques, Franck Macrez, Maître de conférences au CEIPI, Université de Strasbourg, précise que :
« L’interopérabilité doit impliquer : une interopérabilité sémantique (« savoir se comprendre »), syntaxique (« savoir communiquer ») » et technique (« pouvoir communiquer »). » (Macrez & Duflot, s. d.)
Par ailleurs, le RGI précise trois autres niveaux d’interopérabilité qui sont : le niveau organisationnel, juridique et politique.
Sur le Web, l’interopérabilité sémantique repose sur l'utilisation de langages de représentation du savoir, tels que le RDF (Resource Description Framework) ou le OWL (Web Ontology Language). Ces langages offrent une structure formelle pour décrire la signification des données, favorisant ainsi une communication riche en informations et dénuée d’ambiguïtés.[3] Au-delà de son rôle dans les échanges de données, l'interopérabilité sémantique se distingue par sa contribution significative au principe FAIR (Findable, Accessible, Interoperable, Reusable). En effet, en rendant les données compréhensibles pour les systèmes informatiques, elle favorise leur repérage, leur accès, et leur exploitation, contribuant ainsi à une utilisation plus efficiente et réutilisable de l’information.[4]
L’interopérabilité sémantique concerne tous les domaines d’activité. En particulier, celui de la santé qui a de quoi donner du fil à retordre aux scientifiques, mais aussi aux professionnels et usagers du secteur.
« La santé est un langage à part entière, ambigu, plein d’éponymes, d’homonymes, de synonymes, d’acronymes et d’abréviations. Elle est vaste et riche en détails, très dépendante du contexte, utilise un jargon particulier, est truffée de localismes et manque souvent de définitions rigoureuses. »
explique l’Organisation panaméricaine de la Santé, dans son Introduction à l’Interopérabilité Sémantique [5].
Quels sont les réels enjeux dans la gestion des données en santé ? Quelles sont les ontologies de référence au service de l’interopérabilité dans ce domaine et en quoi leur adoption constituerait un progrès majeur en matière de santé humaine ? Nous tenterons de répondre à cette question en nous appuyant sur différentes études et initiatives en la matière, conduites en France et à l’étranger.
En 2009, l'ex-ministre de la Santé et des Sports en France, Mme Roselyne Bachelot, mettait en avant l'importance de l'interopérabilité sémantique dans le système médical. Dans une lettre [6] adressée au professeur Marius Fieschi, elle soulignait la nécessité que :
« Les informations produites par chaque professionnel de santé puissent être communiquées et comprises par les autres acteurs du système de santé, ce qui suppose notamment l’emploi de terminologies médicales communes. » (Bachelot, 2009)
Par demande de la ministre de la Santé, le rapport La gouvernance de l’interopérabilité sémantique est au cœur du développement des systèmes d’information en santé (Fieschi, 2009) a vu le jour et a été mené par le professeur de physiopathologie à l’université de Marseille, Monsieur Marius Fieschi. Ce rapport visait à démontrer l'importance des systèmes terminologiques communs dans l'efficacité des soins aux patients et dans la facilitation des analyses épidémiologiques.
Le rapport établit dans un premier temps l'importance d'une terminologie commune en santé, puis se penche sur les résultats de l'acquisition par l'Agence du Numérique en Santé (ANS) de la version francophone de la nomenclature médicale internationale SNOMED (Systematized Nomenclature of Medicine), ontologie de référence pour les terminologies médicales. Le professeur illustre l'impact de cette ontologie en prenant l'exemple d'un clinicien qui peut proposer des diagnostics initiaux grâce à la richesse descriptive de la nomenclature. De plus, l'interopérabilité est renforcée par la mise en commun d'informations (appelés DMR pour Data and Model Resources) provenant d’expériences et d’études issues des professionnels d’un grand champ de domaines scientifiques.
Dans les métiers de la santé, tels que la biologie, l’informatique biomédicale, la pharmacologie et bien d’autres, chaque jour, sont produits des centaines, voire des milliers de données (DMR) à faire transmettre et communiquer avec leurs confrères dans les domaines. Que ce soit des données scientifiques, expérimentales, voire des guides pratiques des laboratoires, les données sont rendues accessibles par différentes méthodes parmi lesquelles on retrouve l’utilisation de langages en Markup comme le SBML (Systems Biology Markup Language) et le CellML (Cell Markup Language); des images, des signaux ou tout simplement des annuaires de données et des modèles. Ainsi pour reprendre les mots du docteur en physiologie, et professeur à l'Université Paris-Sud 11, Stephen Randall Thomas :
« Les ontologies sont le « liant » de cet ensemble : mises en cohérence, elles constituent le langage commun qui permet que ces espaces puissent former une unité explorable informatiquement. » (Stephen Randall Thomas, 2014)
La multiplicité d'acteurs dans les domaines médicaux engendre une myriade de désignations pour des concepts similaires, rendant dès lors les recherches automatisées complexes et difficiles. Les différentes communautés de professionnels tendent à nommer et à décrire les mêmes faits ou situations de façon non uniforme. Il existe des vocabulaires et des ontologies contrôlés nommés CVO (Controlled Vocabulary and Ontology), mais ils sont utilisés de manière inégale et dissemblable conduisant à un chevauchement d’ontologies.
Face à cette situation, le projet RICORDO mis en œuvre par la communauté du VPH (Virtual Physiological Human) en France émerge pour répondre à la question « Comment la documentation pour des projets et des bases de données est-elle réalisée actuellement, et comment peut-on faire mieux ? » [7]
Le projet réunit ainsi plusieurs acteurs industriels (pharmacie, dispositifs médicaux) et académiques ainsi qu’un certain nombre de bases de données clés provenant d’instituts et de laboratoires du monde entier afin de développer des outils d'interopérabilité en anatomie et en physiologie. Les objectifs ont été les suivants :
Ce dernier point important semble difficile à réaliser pour des concepts complexes comme des processus physiologiques. Il est alors nécessaire de les définir à partir des termes figurants dans des ontologies de référence. Ils peuvent également compter sur la création d’une boîte à outils sur le web afin de permettre aux professionnels d’apporter leur pierre à l’édifice pour créer des termes complexes, annoter des données et stocker des métadonnées.
L’État français mène une politique volontariste pour faire appliquer les référentiels d’interopérabilité. Il a mis en place une nouvelle gouvernance de l’interopérabilité des SI (Systèmes d’Information) de santé et du médico-social à travers un comité de pilotage. [8]
La France a initié de nombreux autres projets. Chaque domaine de la santé semble se doter d’une ontologie spécifique. C’est le cas du domaine de la cancérologie qui, pour coder des diagnostics de cancer, va utiliser le NCI Thesaurus, un thésaurus international des cancers et le CIM-03 (Classification Internationale des Maladies pour l’Oncologie).[9]
L'INRAE de son côté a œuvré pour la création d’un thésaurus de référence structuré en 12 domaines (dont la santé humaine), construit comme une ressource terminologique pour l’interopérabilité sémantique. La version 1.4 basée sur des standards, offre une richesse lexicale avec des synonymes, un vocabulaire pivot pour la recherche d’informations sur une diversité d’objets numériques (textes, données, images...). Cette démarche permet de répondre à des enjeux d’automatisation face à des volumes importants et des ressources humaines en diminution. [10]
Depuis 2009, l’ANS (l'Agence du Numérique en Santé) a défini le CI-SIS (Cadre d’Interopérabilité des Systèmes d’Information de Santé) qui vise à créer des règles de formatage pour la création et le transfert de données. Ce dernier englobe l’ensemble des processus liés directement et/ou indirectement à la prise en charge des patients, des professionnels médicaux, administratifs et du social. S’appuyant sur des normes et standards internationaux, l’ANS propose également des normes et standards qui s'adaptent aux contextes nationaux. [11] [12]
À noter également la création, en 2019, d’un Centre de gestion des Terminologies de santé (CGTS). Il s’agit d’une instance de gouvernance responsable de la gestion opérationnelle de la publication des ressources sémantiques utilisées par les professionnels de santé et du médico-social pour structurer leurs échanges.
Le CGTS doit favoriser l'interopérabilité sémantique grâce à l’usage de vocabulaires contrôlés opérationnels et partagés par tous en publiant les différentes ressources sémantiques (terminologies, jeux de valeurs, alignements). Il garantit la cohérence de ce corpus sémantique et répond aux besoins des utilisateurs en mettant à leur disposition une gamme d'outils opérationnels.
Par ailleurs, le CGTS est partenaire de l’Organisation Mondiale de la Santé (OMS) et soutient les projets européens de l'ANS qui visent à harmoniser les normes utilisées en France et en Europe.
Afin d'accompagner les acteurs du secteur dans la santé dans leur compréhension des enjeux de l’interopérabilité et le bien-fondé du CI-SIS, l’ANS propose des webinaires, dont le dernier a eu lieu en 2020 :
L’Espagne se caractérise par la décentralisation de son système de santé. Sa singularité réside dans le fait que les compétences en matière de santé sont transférées aux Communautés autonomes. Elles possèdent leur propre législation sur la santé et ont développé divers outils pour la gestion des données de santé. La séparation des responsabilités en matière de santé entre l’État et les Communautés autonomes espagnoles a conduit à la mise en place de dossiers informatisés ou « histoire clinique partagée » (historia clinica digital) du patient (dossier médical électronique) dans chaque Communauté autonome.
En dépit d’une évolution positive de l’interopérabilité globale du système national de santé espagnol, de nombreuses Communautés autonomes sont en retard. L’inégal niveau d’informatisation du dossier personnel du patient, ainsi que les déplacements de la population sur le territoire national génèrent forcément des problèmes en termes d’interopérabilité. (Biedma, J. & Bourret, C., 2015) [13]. Garantir la sécurité de l’information pose une question délicate.
En ce sens, Renau et Pérez (2000) [14] mentionnent que, bien que l’utilisation du système des « histoires cliniques partagées » des patients présente des avantages certains, Romero (2012) [15] considère que les informations sur les dossiers médicaux électroniques devront être partagées dans un environnement sûr, accessible et fiable ; de plus, elles devront être supportées par divers systèmes, qui partageront quelques structures de données communes. La terminologie utilisée entre les différents systèmes devra également être partagée sans changement de sens pour assurer l’interopérabilité sémantique. F. Macary souligne que :
« L’interopérabilité est dite sémantique si elle garantit que l’information échangée est interprétée à l’identique par les systèmes d’information destinataires et émetteurs : préservation du sens dans l’espace et dans le temps. »
Il fait également remarquer que :
« En abusant de sigles, abréviations, et anglicismes, ceux-là mêmes qui sont chargés d’établir la compréhension entre les systèmes perdent la compréhension de leurs pairs, compromettant ainsi leurs chances d’aboutir à une véritable interopérabilité. »
La condition de l’interopérabilité sémantique réside donc dans le choix d’une syntaxe commune respectée par chacun des systèmes participants à l’échange. Elle est indispensable à différents niveaux : la prise en charge des patients, la coordination et la continuité des soins, la veille sanitaire en santé publique, la recherche scientifique.
Ayant pris pleinement la mesure du problème, le Système national de santé espagnol a de nombreuses démarches dans le but d’atteindre l’interopérabilité globale entre les Communautés autonomes. Ainsi, grâce au projet Historia Clinica Digital del Sistema Nacional de Salud (HCDSNS), les services de santé ont développé et implanté les systèmes automatisés de collecte et de gestion des données individuelles de santé des personnes supports des processus d’assistance, prévention, etc., des patients, en favorisant une augmentation du niveau de qualité des services fournis aux citoyens. Les résultats sont encourageants, même si l’interconnexion complète entre les Communautés autonomes n’a pas été encore obtenue.
Le projet epSOS (Système d'Information Européen sur la Santé) s’est fait à l’initiative de l'Union européenne (20 pays de l’Union européenne et 3 pays non-membres de l’Union) dans le but d’améliorer l'interopérabilité des systèmes de santé numériques entre les pays membres. Il fixait plusieurs objectifs ambitieux :
Le projet epSOS a permis de développer des solutions techniques pour faciliter l'échange d'informations médicales entre les différents acteurs de la santé, telles que les médecins, les hôpitaux et les pharmacies. Les principaux résultats du projet ont été la création d'une infrastructure de communication sécurisée et la mise en place de normes communes pour l'échange de données de santé. Ces avancées ont contribué à une meilleure coordination entre les systèmes de santé européens, tout en respectant les normes élevées de protection des données personnelles.
Ce projet a succédé au projet EpSOS. Son objectif a consisté à consolider les avancées en matière d'interopérabilité des données de santé au niveau européen, en prenant appui sur les standards préalablement établis. [18]
Ses objectifs principaux étaient :
Le projet e-SENS a débuté en avril 2013 et s'est achevé en mars 2017. Il a joué un rôle crucial dans la promotion de l'agenda numérique européen et a posé les bases pour des initiatives futures dans le domaine de l'e-gouvernance et de l'interopérabilité des services publics à l'échelle européenne. [19]
La Commission européenne et l’OMS/Europe se sont engagées dans un nouveau partenariat d’envergure visant à renforcer les systèmes d’information sanitaire et à stimuler la gouvernance et l’interopérabilité des données de santé dans la Région européenne de l’OMS. Le projet de 12 millions d’euros, financé par la Commission européenne, soutiendra les services de soins de santé pour les quelques milliards d’habitants des 53 pays que compte la Région. Le projet approuvé soutiendra les objectifs de la stratégie de l’UE en matière de santé mondiale, ainsi que la Stratégie mondiale de l’OMS pour la santé numérique 2020-2025 et le Plan d’action régional pour la santé numérique dans la Région européenne de l’OMS 2023-2030 et la Stratégie mondiale de l’OMS pour la santé numérique 2020-2025. [20]
Le Plan d’action régional pour la santé numérique [21] dans la Région européenne de l’OMS 2023-2030 vise à orienter et à accélérer l'adoption de la santé numérique dans les États membres de la Région européenne de l'OMS. Ses objectifs stratégiques sont ambitieux :
Ce plan représente une étape clé dans l'adoption et l'intégration de la santé numérique en Europe, avec pour but ultime d'améliorer la santé globale et le bien-être des populations au sein de la région.
Les nouvelles technologies de l’information et de la communication (TIC) sont un facteur clé d’amélioration des performances du secteur de la santé, au bénéfice des patients et des professionnels, mais posent un défi à relever à savoir le partage des données et de l’interopérabilité sémantique des systèmes d’information d’où l’importance d’une politique publique en matière de terminologies médicales.
Les impacts de l’interopérabilité sémantique au niveau santé sont significatifs et multidimensionnels. L'interopérabilité sémantique garantit le fait que les différents systèmes de santé communiquent entre eux de manière efficace, en s'assurant que les données partagées sont comprises de manière uniforme et cohérente. Ainsi les professionnels de la santé peuvent accéder rapidement et avec précision aux dossiers médicaux des patients, ce qui permet de réduire le risque d'erreurs médicales, contribue à la prise de décision rapide et informée sur le traitement du patient.
Par ailleurs, un échange de données de santé cohérent et normalisé facilite la recherche médicale. Les chercheurs peuvent accéder à des données plus larges et plus fiables, ce qui peut conduire à de meilleures compréhensions des maladies et à l'élaboration de traitements plus efficaces.
Enfin, l'interopérabilité sémantique est gage d’amélioration en matière de santé publique. Elle constitue une aide précieuse dans la surveillance et la gestion des épidémies de maladies et les crises sanitaires. En offrant une meilleure analyse des données de santé à grande échelle, elle permet une réponse plus rapide et plus ciblée aux problèmes de santé. Les pouvoirs publics ont pris la pleine mesure des enjeux. De nombreuses initiatives et projets entrepris par les instances administratives, les États, l’Union européenne, ainsi que par les acteurs du secteur de la santé ont permis des avancées significatives en matière d’interopérabilité. La gouvernance se fait de manière pluridisciplinaire en impliquant les professionnels du secteur dans un pilotage basé sur un dialogue constructif, l’échange de connaissances et un processus décisionnel collaboratif.
Ainsi, l’interopérabilité sémantique, bien au-delà de sa complexité technique et sa mise en œuvre exigeante, façonne l’avenir de la médecine mondiale et participe de manière incontestable à l’amélioration de la santé humaine.
Ce billet a été rédigé par Julie de Suremain et Lauranne Fougère. Il s'agit d'un travail réalisé dans le cadre de l’enseignement "Document numérique : formats et langages".
Julie de Suremain : Après avoir étudié les Sciences économiques et sociales à la Sorbonne, elle se spécialise dans le secteur de l’audiovisuel, où elle occupe notamment le poste de programmatrice cinématographique pour plusieurs festivals internationaux. Souhaitant se reconvertir, elle intègre le "Master 1 Information-Documentation : Gestion de l'information et médiation documentaire - Métiers des bibliothèques et de la documentation" (GIMD) au sein de l'université Paul-Valéry Montpellier.
Lauranne Fougère est diplômée d’un Master 2 recherche, spécialité cultures et sociétés étrangères. Après avoir étudié à l’université de Poitiers, elle obtient le Capes d’anglais en 2011. Elle enseigne actuellement au lycée et elle a également repris ses études en enseignement à distance au sein du Master 1 GIMD à l'université Paul-Valéry Montpellier.
Introduction
Les logiciels de traitement de texte ont été conçus pour créer, éditer et imprimer des documents, tout en les enregistrant au format électronique. Cependant, les études et les pratiques ont confirmé leur inadaptabilité à des travaux de recherche, en particulier lors de collaborations collectives et dans le milieu scientifique. L’emprise des outils et des formats propriétaires constitue un frein à la pérennité des documents qu’ils génèrent. Les obstacles techniques rencontrés, tels que la compatibilité des formats, entravent la libre circulation des productions. Le choix croissant de modèles économiques visant à rendre payante l'accessibilité aux documents ne garantit pas leur libre consultation. De plus, la difficulté d’intégration des productions sur les sites rend les outils de traitement de texte inadaptés à la production web. Leur faiblesse en matière de gestion lors de l’intégration d’images et de graphismes, ainsi que l’utilisation répétée du « copier/coller », engendrent des documents lourds et énergivores, ne répondant pas aux critères écologiques et aux aspirations de low-tech.
Le Markdown, qui est un langage de balisage dit léger, permet de structurer simplement et rapidement un document, garantissant un rendu intelligible pour l’homme et pour la machine. Les études menées par Marina Parra, Arthur Perret, Benoit Rou et Patrick Mpondo-Dicka offrent un éclairage approfondi sur ce code et ses possibilités d’utilisation. Les regards croisés d’une doctorante en littérature, d’un maître de conférences en sciences de l’information, d’un historien et d’un sémioticien, enseignant-chercheur en sciences de l'information et de la communication, offrent un aperçu riche de ce langage sous différents angles perceptifs : historique, philosophique, méthodologique, théorique et prospectif.
S’il semble incontestable qu’à travers une démarche réflexive, nous devons nous réapproprier nos environnements de travail et les outils que nous utilisons, le système de langage Markdown peut-il constituer un élément de réponse à cet enjeu ? Pour tenter de répondre à cette problématique, nous allons nous intéresser à trois documents :
Dans un premier temps, nous montrerons en quoi des langages de balisage (LBL) tels que le Markdown représentent une valeur ajoutée pour le document numérique. Puis, nous nous intéresserons à leurs limites et mettrons en évidence l’évolution inévitable du langage Markdown en tant qu’outil dédié à une pratique.
1- Markdown, une valeur ajoutée pour le document numérique
a. Une proposition de réponse aux évolutions technologiques
Bien qu’il ait des caractéristiques similaires au document traditionnel, le document numérique ne peut se définir comme un concept pleinement établi. L'évolution rapide et constante des technologies, la multiplication des fonctionnalités d'un document numérique, la possibilité d'intégrer des éléments multimédias et l'interactivité spécifique des utilisateurs face à ces nouveaux formats sont autant de facteurs qui rendent complexe l'élaboration d'une définition arrêtée. Si Stéphane Crozat s'efforce de donner les contours de ce concept[1], il souligne également la nécessité de le concevoir en tenant compte de ses spécificités, de ses usages et de ses potentialités dans un contexte numérique en constante évolution. Une étude approfondie et ciblée est essentielle, notamment pour la création d’outils appropriés répondant aux exigences de leurs utilisateurs et aux avancées technologiques.
Dans un contexte collaboratif, de production scientifique ou de diffusion web, l’utilisation de logiciels de traitement de texte pour la production de documents numériques ne répond pas à la nécessité de maniabilité du texte. La pluralité des outils et, de ce fait, des formats, complexifie l’intégration de ressources variées. Les caractéristiques high-tech de ces formats constituent une entrave à la circulation fluide dans la production écrite et induisent un temps de traitement et de mise en forme conséquent.
Enfin, comme mentionné précédemment, ils sont inadaptés à la production web. Les langages de balisages légers en tant que lieu même du dialogue humain machine, comme le souligne Patrick Mpondo-Dicka (2019), peuvent jouer un rôle de substitut.
b. Les caractéristiques de Markdown
L’expansion d’Internet et du Web, dans les années 2000, a favorisé la prolifération de productions numériques telles que les blogs et suscité le besoin de développer des outils simples pour la création de contenus. C’est dans ce contexte qu’en 2004, John Gruber, avec l’aide d’Aaron Swartz, conçoit Markdown, un langage permettant de rédiger et de mettre en forme des textes bruts à l’aide de balises simplifiées, tout en intégrant la possibilité de conversion vers d'autres formats, comme le HTML. Le développement de balisages légers permet de structurer simplement et rapidement une production, tout en garantissant un texte lisible par l’homme et la machine, même sous sa forme brute. La neutralité stylistique et sa simplicité langagière du Markdown augmente la flexibilité et la réutilisation des productions qu’il génère, répondant entre autres aux exigences du Web et à la loi de la moindre puissance (W3C)[2]. Compatible et léger, il profite à la collaboration et à l’organisation des différentes étapes d’avancement de recherches. Il est accessible sur différents supports, y compris ceux à faibles capacités telles que les téléphones, les tablettes.
Le choix d’une économie de balises associées à des caractères de ponctuations familiers tels que (#,-,*,=) rend ce langage accessible à un large public. Sa spécificité de code open source facilite son appropriation par ses utilisateurs. Markdown répond également au principe de « single-source », un fichier source unique pour des productions dans différents formats. Lors de corrections, seul le fichier source est corrigé permettant de régénérer les autres fichiers selon les besoins. Sa spécificité d’outils libre de droit et compatible avec n’importe quel éditeur de texte brut, assure la fluidité d’utilisation, sa maniabilité et la pérennité du document. De ce fait, il constitue un écosystème de travail global et intégré, un outil de production numérique adapté aux besoins des utilisateurs, dans une démarche low tech. Ces valeurs peuvent expliquer le succès toujours croissant de Markdown et son implémentation sur le site des développeurs.
c. Markdown et ses nombreuses variantes
De nombreux éditeurs de textes, open source, spécialisés dans son écriture ont été développés, offrant une large gamme d’options adaptées à des besoins spécifiques. La plupart d’entre eux proposent une interface qui distingue le fond et la forme, avec une visualisation du texte au format HTML ou PDF, ce qui favorise la concentration. Marp favorise la création de diapositives ; en mode Présentateur, le texte devient un prompteur, tandis que les éléments sélectionnés pour être affichés apparaissent sur les diapos avec une mise en page largement automatisée. D’autre part, iA Presenter permet un export qui se rapproche davantage d'un document traditionnel, intégrant texte et des illustrations. Certains éditeurs répondent aux exigences d’écritures particulières : Zettlr simplifie l’insertion de citations par rapport aux logiciels de traitement de texte classiques, tandis que Zotero facilite la gestion des bibliographies et des prises de notes. Zettlr offre également un espace de travail personnalisé permettant de structurer les connaissances grâce à une organisation non linéaire des notes étiquetées. En tandem Cosma, il permet de visualiser, naviguer et partager une base de connaissances constituée de fichiers Markdown interconnectés.
Par ailleurs, des outils tels que Stylo ont été conçus pour répondre aux différentes étapes de la chaîne éditoriale, permettant la conversion de texte en Markdown vers d’autres formats. Conçu pour le web, Markdown facilite la publication en ligne et certains outils ont été pensés de manière intégrée pour permettre d’envoyer directement le texte vers WordPress depuis l'éditeur. D’autres logiciels tels que écosystème R, Hugo et le tandem Make/ Pandoc intègrent également la création de blogs et de sites web.
La multitude de logiciels et outils intégrant le langage Markdown reflète sa notoriété et la place qu’il occupe dans les productions de documents actuels. Notoriété que le Markdown acquiert notamment avec son implantation sur Stackoverflow, (site de référence des développeurs conçu par Jeff Atwood [3]) et sur GitHub (plateforme de dépôt de code).
2- Markdown, un LBL en constante évolution
a. Les limites de Markdown
Cependant, bien que la simplicité soit l’un des fondements du langage Markdown, son utilisation croissante et variée engendre des inconvénients liés à son caractère peu expressif. La gestion d’éléments multimédias complexes, tels que les vidéos et les animations, s’avère limitée par rapport aux possibilités offertes par des outils comme le HTML ou des éditeurs WYSIWYG (logiciels permettant de créer et de modifier du contenu visuel avec un rendu final en temps réel). Dans le cadre de publications, la conversion de fichiers Markdown en d’autres formats peut alourdir le travail et nécessiter des mises à jour fréquentes.
Aussi, la rédaction de documents spécifiques peut s’avérer complexe. Comme le soulignent Marine Parra et Benoît Roux (2023), face aux exigences spécifiques d’un ouvrage, il est essentiel de s’approprier son propre environnement de travail afin d'acquérir toutes les fonctionnalités nécessaires pour le traitement du document. La sélection de ces outils implique une démarche réflexive. Des choix que nous n’avons pas toujours le temps de préciser ou conscientiser et qui peuvent alourdir la charge du travail engagé. Ainsi, la simplicité de Markdown n’est-elle pas altérée par la nécessité de multiples extensions qu’il faut associer aux outils initiaux ?
b. La simplicité de Markdown: force ou faiblesse?
La diversité des utilisateurs soulève la question des limites de Markdown. Son adaptation dépend en grande partie de son degré de standardisation. La flexibilité de Markdown, en tant que langage open source, a encouragé son appropriation par les utilisateurs, conduisant à la création de multiples variantes aux spécificités distinctes, telles que Pandoc Markdown pour l'écriture scientifique ou le R Markdown pour les statisticiens. Babelmark, un outil de test et de comparaison des différentes implémentations de Markdown, en recense vingt-deux versions. Cette multiplicité de versions engendre inévitablement des problèmes d’interopérabilité et complique le processus de standardisation. Jeff Atwood, accompagné d’une communauté de développeurs, a entrepris de mettre au point
donnant lieu en 2014 à une première ébauche de standardisation du langage, puis au CommonMark. Cependant l’IESG, organisme responsable du processus de normalisation, n’a pas entériné sa validité. Un processus en marche mais qui, de par sa complexité, n'a toujours pas été finalisé.
Certaines fonctionnalités, spécifiques à certaines versions, ne sont pas prises en charge par d’autres. C’est notamment le cas d’options proposant la gestion des notes de bas de page ou des tableaux, qui peuvent entraîner des erreurs de formatage ou des pertes d’information lors de la conversion entre différents outils.
De plus, la fiabilité du rendu est remise en question selon l’éditeur de texte choisi, ce qui ne garantit pas la fidélité de la mise en page initiale. Dans un environnement collaboratif, le manque de compatibilité entre les différents éditeurs Markdown entrave également le partage de documents et le travail collectif. Ainsi, bien que la compatibilité de Markdown avec divers outils de traitement de texte soit l’un des principes du langage, elle est désormais compromise.
Enfin, contrairement à l’idéologie initiale d’un code open source, certains outils développés récemment relèvent de la propriété privée. Ils sont accessibles uniquement en ligne et leur code est fermé. C’est le cas de nombreux outils pour l’élaboration de bases de connaissances. L’accès payant et restreint constitue un frein à l’accessibilité des données et ne garantit pas leur pérennité.
c. Les nécessaires adaptations de Markdown
La notoriété du langage Markdown l’a conduit à une transformation inévitable, remettant en question son statut "d’idiolecte numérique" (Mpondo-Dicka, 2019). Initialement considéré comme un outil répondant à des besoins spécifiques et utilisés dans des contextes particuliers, adopté par une large communauté, il est devenu un langage social véhiculaire servant de moyen de communication et d’échange d’informations entre les différents utilisateurs. En tant que "technolecte informatique" (Mpondo-Dicka, 2019), il tend à devenir un standard normalisé, le rendant plus fiable et accessible à tous. Il a perdu en souplesse ce qu’il gagne en interopérabilité, en individualité, ce qu’il gagne en cohérence bien qu’il rencontre encore des imperfections à améliorer. Les langages numériques sont le reflet de leurs utilisateurs, ils évoluent avec les nouveaux besoins rencontrés.
L’évolution technologique tend à complexifier les supports de communication et à accroître les exigences des utilisateurs. Dans ce contexte, les langages de balisage léger sont amenés à se perfectionner pour perdurer. Il en est ainsi pour Markdown qui, tout en gardant sa spécificité de langage léger, doit s’améliorer pour devenir plus complet. Des solutions doivent être apportées pour permettre notamment la fusion des cellules et l’intégration des images dans les tableaux, l’insertion de vidéo et d’audio et la possibilité de redimensionner les images.
De plus, l'association d’outils complémentaires peut favoriser une meilleure organisation de l’espace de travail et de son contenu. Par exemple, l'utilisation conjointe d'une mindmap (carte mentale) et de Markdown dans le cadre d’un projet peut améliorer l’organisation, la planification et la communication des idées. La recherche d’interactivité entre les outils pourrait être une voie d’amélioration.
Conclusion
Pour les futurs documentalistes, Markdown représente un outil précieux pour l’organisation des notes et l’élaboration de projets ou de tutoriels. Convertible en de nombreux formats, il permet la publication en ligne et l’impression ainsi que le partage de documents. Dans le cadre d’études collaboratives, des plateformes telles que GitHub facilitent la création participative en Markdown, tout en gardant une trace des modifications. Sa compatibilité et son caractère open source garantissent la pérennité des documents élaborés, qui est un élément essentiel pour les documents destinés à être archivés et réutilisés. À l’heure de l’urgence climatique, l’adoption d’une démarche low-tech est de mise. Par sa légèreté, Markdown répond à cette exigence.