Knowledge Management - Gestion des Connaissances

Gestion des Connaissances - Logiciels

LAURENT Jean-Marc - Méthode OCSIMA Audit - Conseil - Développement - Formation

Les Types de ConnaissancesLes Types de Connaissances

KM DimensionsKM Dimensions

Rôle du ManagementRôle du Management


Le Support Informatique de la Gestion des Connaissances

L'informatique est un support. Quitte à énoncer une répétition, un projet de Gestion des Connaissances est un projet stratégique et orienté métier (business), et non un projet technologique. L'ensemble des méthodes et techniques utilisées (coaching, CBR, …) sera spécifiquement adapté au projet et les outils seront ensuite choisis parmi l’offre du marché.

L’Implémentation

Selon les emplacements des données et des utilisateurs futurs, selon la volonté de protection ou de diffusion des connaissances, des solutions inter ou intranet seront sélectionnées. Une architecture basée sur un intranet (voir le livre "Le projet intranet"ii) pourra comprendre :

  • des outils dédiés (voir notre page Outils - Logiciels - Knowledge Management)
  • des serveurs HTTP (ex. : Microsoft Internet Information Server)
  • des outils standards du marché tels que les langages HTML, XML, Java et ses dérivés et extensions
  • des serveurs de base de données tel que Microsoft SQL Server, Oracle, ...

Les Outils du Marché

Partir de zéro et développer son propre 'outil maison' peut sembler aujourd'hui illusoire. Néanmoins :

  1. le principal inconvénient des outils du marché se situe au niveau de leur pré-orientation (Gestion Électronique de Documents, GroupWare, WorkFlow, ...). Pour transformer ces outils en outils dédiés à la Gestion des Connaissances, les fonctions manquantes sont ajoutées pour les transformer en outils 'génériques', en fait des outils 'usine à gaz' présentant une adaptation (et une prise en mains) difficiles.
  2. l'intégration informatique a fait des progrès sensibles grâce à des extensions de la conception Objet : notion de composants réutilisables, conception MVC (modèle, vue, contrôle), projets Struts, JavaServer Faces(JSF), JavaServer Standard Tag Library (JSTL), ...

L'outil idéal est un outil basé sur cette notion de composants : c'est le besoin, traduit en composants intégrés, qui doit définir l'orientation de l'outil (voir l'outil Silverpeas de notre partenaire et ses composants, les peas). Cette approche permet également de commencer par une intégration d'un nombre restreint de composants pour réaliser un outil de sensibilisation / formation des utilisateurs.

Voir notre page Outils - Logiciels - Knowledge Management

L’Indexation – Recherche

Les connaissances recueillies, le système doit permettre de les retrouver en réponse aux questions des utilisateurs. Plusieurs techniques sont employées à ce niveau.

Le Case Based Reasoning : trop d’information tue l’information

Les différents aspects : capitalisation d'expertise, connaissances expertes, aspect essentiel de leurs clefs d'accès, conduisent à l'utilisation des techniques de Case Based Reasoning, et des activités cognitives qui l'accompagnent.

Le CBR est une des techniques de l'Intelligence Artificielle qui peut combler certaines lacunes des systèmes de recherches plein texte ou indexées. Cette technique est utilisée lorsque le modèle (mathématique, physico-chimique, …) sous-jacent est trop complexe pour être (aujourd'hui) modélisé (le fonctionnement d'un haut fourneau par exemple) ou lorsque le raisonnement est constitué d'étapes intermédiaires simples mais extrêmement nombreuses. L'expression du raisonnement intermédiaire est supprimée et seuls sont retenus les couples <problème – solution>. L’idéal étant de disposer des méthodes permettant l’adaptation éventuelle de la solution antérieure au problème courant. Les outils dédiés comptent généralement sur la complémentarité entre la capacité d’adaptation du cerveau humain et la faculté de mémorisation de l’informatique.

J'ai développé une méthodologie DiaBC dont le but est de retrouver la solution d'un dysfonctionnement antérieur pour résoudre le problème courant. La phase d'acquisition des connaissances peut suivre une transposition de la méthode d'analyse objet OOSE (Object Oriented Software Engineering) : il est facile de noter le parallélisme entre l'organisation de la "mémoire" et la répartition effectuée, lors de l'analyse objet d'un logiciel, entre les objets entités (aspect statique), les objets interfaces (aspect fonctionnel) et les objets de contrôle (aspect dynamique).

Les Index

Une des autres principales activités concerne l'identification et le recueil des index, les mots de passe évoqués ci-dessus. L'objectif est de fournir la connaissance la plus pertinente possible, et uniquement celle-ci, en réponse à une recherche d'information pour éviter la déception progressive des usagers qui répugneraient à utiliser le système et ensuite à enrichir la base de connaissances. Cette pertinence n'est obtenue que si les (r)enseignements retrouvés dans la base présentent une similarité2 certaine avec le sujet de la recherche. Cette pertinence se retrouve dans le choix des index : leur sélection peut être guidée par des algorithmes du type ID3, des techniques de "clustering"...

La prise en compte des utilisateurs et des cas d'utilisation (comme le préconise la méthode OOSE lors de la phase d'analyse d'un logiciel) est primordiale. Pour un module dédié au recueil / transfert d'expertises dans le domaine de la conduite / surveillance de procédés, le choix des index sera guidé par l'interface <utilisateur / procédé = système>. Les valeurs des paramètres de sortie de ce dernier seront immédiatement perceptibles par l'utilisateur, ce sont des symptômes subjectifs. Ils doivent servir d'index pour une recherche rapide. Une analyse plus approfondie peut ensuite demander / étudier des mesures ou symptômes objectifs.

Dans le domaine du génie logiciel, les caractéristiques candidates pour définir les degrés de similitude entre logiciels, outre le domaine de ceux-ci (les gestions administrative, commerciale, de production, la C.A.O…) sont les coordonnées de leur vecteur de consommation de ressources, les valeurs des attributs, critères et métriques permettant d'évaluer leur qualité et performance.

Rappel : cette décomposition est habituelle en ingénierie des performances : pour estimer la qualité d’une entité, on détermine si celle-ci présente un certain nombre d’attributs (exemple : lisibilité, maintenance, testabilité) ; un certain nombre de critères permet de déterminer si l’entité présente cet attribut ; finalement chaque critère est évalué à l’aide d’un ensemble de métriques.

Pour définir des similitudes entre réalisations de logiciel on considérera l'expérience de l'équipe de développement, le rapport entre les gains escomptés et les investissements nécessaires, la sensibilisation et la formation des futurs utilisateurs qu'il nécessite, les difficultés estimées et rencontrées.

Remarque très importante : il est fréquent de constater la tendance humaine à indexer les couples problème / solution par les caractéristiques de la solution alors que l'utilisateur est confronté à la partie problème dont il ne connaît pas la solution.

Note

Un dosage d'impuretés (anhydro et epianhydro-) de tetracycline est réalisé par mesure sur la dérivée seconde de son spectre d'absorption dans l'ultraviolet. Le fait marquant semble être "dérivée seconde de spectre". Utilisé comme index, il peut aider une équipe qui veut généraliser des techniques de dosage, mais l'utilisateur confronté à un dosage d'impuretés (dont il a détecté la présence par chromatographie par exemple) ne connaît peut-être pas la dérivée seconde d'un spectre. Il ne lancera jamais une recherche à partir de ce résultat.

Le Thésaurus

Différents algorithmes, basés sur la distance de Levenshtein, autorisent des questions ‘approximatives’. Aux questions présentant des erreurs de genre, de nombre, d’accentuation et des inversions de lettre le système peut ‘aisément’ répondre.

Il est également possible de retrouver des documents parlant de ‘mensu-alités’ lorsque la question parle de ‘règlements mensu-els’, mais pas lorsque celle-ci précise ‘chaque mois’. De même il paraît difficile de répondre ‘avion’ à ‘planeur’ sans le passage par un thésaurus. L’établissement de celui-ci peut être partiellement automatisé et diminue considérablement le ‘silence’ sans trop augmenter le ‘bruit’. (voir le document Thésaurus)

Word, HTML, XML et les Meta-données

Ecrire directement en utilisant HTML semble aujourd’hui absurde. XML connaît un engouement certain : facilement transformé à l’aide de feuilles XSL, il permet d’être questionnable ‘précisément’ : lorsque l’utilisateur recherche un document ayant ‘pour auteur Victor Hugo’, il accepte difficilement de trier une longue liste de documents ‘parlant de Victor Hugo’. Ces indications font partie des meta-données et sont identifiées en tant que telles dans XML.

Mais les éditeurs XML ne présentent pas encore un rapport performance / convivialité comparable à celui du traitement de texte très répandu Word. Ce dernier permet l’enregistrement des meta-données, est directement transformable dans le format HTML et sa transformation au format PDF est également possible.

Adjonction d'un Thésaurus à Lucene

La synonymie (pour rechercher 'chaque mois' à partir de 'mensuel') n'est hélas ni générique ni algorithmique. La solution nécessite un thésaurus (dictionnaire hiérarchique) dédié au sujet. Le document Thésaurus décrit une application, basée sur la bibliothèque de classes Java de l'outil d'indexation / recherche Lucene (logiciel ouvert, disponible sur le site Internet du projet Jakarta), et enrichie par l'adjonction d'un thésaurus (avec sa DTD et ses interfaces pour le visualiser et le gérer) dédié au domaine de l'analyse physico-chimique. Ainsi, on pourra retourner, sans augmentation du bruit, les documents parlant de l'acide éthanoïque en réponse à toute question portant sur l'acide acétique, et réciproquement, les deux expressions étant synonymes ce qui est spécifié dans le thésaurus.

Plusieurs autres champs (noeuds xml) peuvent être ajoutés au thésaurus si par exemple on désire interroger des documents écrits dans différentes langues. L'application décrite se limite au français par défaut (attribut fr="") et à la traduction anglaise(élément <en>).

La construction du thésaurus, comme celle de toute hiérarchie conceptuelle, oblige à résoudre les difficultés rencontrées dès que l'on aborde le multi-héritage : l''acide acétique' est un 'acide faible', qui est un 'acide', qui est ... Mais l'acide acétique peut être également considéré comme un solvant : il est utilisé comme tel lors des dosages acido-basiques de bases faibles en milieu non-aqueux. La notion de 'rôle' est introduite, notion similaire à celle d'Interface dans le cas du langage Java ; elle permet une autre utilisation du thésaurus : en cas de non-réponse trouvée pour une question donnée, l'aide étudie les frères de la question (noeuds ayant le même noeud père dans la hiérarchie) si ceux-ci présentent le même ensemble de rôles (ou un sous-ensemble).

Recherche ou Localisation d'expertise

Une solution élégante à cette problématique (identification des experts, de leur disponibilité et de leur pédagogie, avec des contraintes minimales, rencontrant acceptation et adhésion) est proposée par notre partenaire AGiLiENCE avec son produit Expertise Location and Management (ELM), qui analyse (comme un Google PageRank) et indexe les mails internes pour identifier les experts et les brokers (ils savent qui sait) pour un sujet donné. Cet outil a été retenu par KnowledgeBoard pour "sa simplicité d’utilisation et son intégration dans l’environnement de travail de l’utilisateur par le biais de la messagerie électronique".


Les Types de ConnaissancesLes Types de Connaissances

KM DimensionsKM Dimensions

Rôle du ManagementRôle du Management


LAURENT Jean-Marc - Consultant Gestion des Connaissances - OCSIMA Conseil Knowledge Management

Dernière révision février 06

Plan du site OCSIMA

Pour nous écrire, cliquez ici :