All posts by Jean-Christophe Kermagoret

16Avr/19

Analyse d’une politique documentaire : cas client (1/3)

Préambule

Ce billet de blog vous présente le travail réalisé pour un client institutionnel dans le cadre d’une mission d’analyse de leur politique documentaire.

Ce billet se décompose en 3 parties :

  • Présentation de l’objectif, du contexte et de la démarche
  • Présentation de l’étude technique avec une partie des indicateurs obtenus
  • Présentation de l’étude fonctionnelle avec une partie des arborescences

/Users/bxml/Desktop/Tmp/Screenshots/Capture d’écran 2019-04-09 à 11.49.26.png

 

Introduction

L’objectif de l’audit est de réaliser une analyse des contenus stockés dans leur fonds documentaire dans leur totalité (environ 20 To) :

  • un serveur de fichiers Windows, organisationnel (avec les contenus de chaque direction) ;
  • un serveur de fichiers Windows, communs (avec les contenus transverses) ;
  • un serveur de GED Alfresco (avec les contenus collaboratifs).

Cette analyse s’effectue généralement en collaboration avec la DSI et se décompose en 2 parties :

  • une étude technique des contenus stockés sur les différents composants ;
  • une étude fonctionnelle de ces contenus.

Démarche

L’objectif est de lister tous les fichiers contenus dans les systèmes ci-dessus, en récupérant les métadonnées disponibles dans un fichier au format csv. Le nombre de fichiers étant considérable, cette collecte est découpée en plusieurs sous-ensembles afin de ne pas surcharger le système lors de la récupération de ce listing. En outre, afin de pouvoir analyser les contenus extrêmement nombreux (plusieurs millions de ligne), un tableur n’est pas suffisant, il est ainsi prévu d’indexer et rechercher les contenus à l’aide de l’outil spécialisé Elasticsearch (ELK) de la société éponyme.

 

Listing au format csv

Liste des fichiers

Deux scripts ont été écrits en powershell 2 afin de permettre la récupération de ces éléments sur Windows :

  1. Un premier script liste les éléments principaux de premier niveau (c’est à dire les sous-répertoires) du répertoire passé en paramètre et appelle un deuxième script pour chacun des sous-répertoires principaux identifiés ;
  2. Le deuxième script liste tous les fichiers contenus dans le répertoire principal ou un de ses sous-répertoires.

Le premier script pilote le deuxième script. Le premier script a été lancé à la main à des moments propices (soirée, veille de we) pour éviter de trop surcharger le système pendant l’exploitation quotidienne.

Le fichier csv ressemble à ceci :

En parallèle du lancement des scripts de comptage, il faut également lancer la fonction de Windows permettant de compter le nombre et le volume des fichiers et répertoires pour un répertoire donné.

Erreurs

Certaines erreurs apparaissent :

  • répertoires inaccessibles, pour des raisons de droits ;
  • répertoires ou fichiers avec un nom trop long ;
  • répertoires ou fichiers avec des caractères interdits.

Dans l’absolu, il faudrait traiter ces erreurs. Cependant, un comptage a été fait en parallèle par le système Windows et comparé au nombre de répertoires et fichiers trouvés via les scripts ci-dessus. La différence n’est pas significative et on peut simplement ignorer ces erreur.

 

Injection dans le système d’indexation ELK

Le système d’indexation ELK facilite le comptage et le regroupement des données en fonction des indicateurs souhaités afin de faciliter le calcul des éléments techniques mais aussi l’étude du fonds documentaire.

ELK est un système d’indexation de contenus basé sur 3 composants :

  • Logstash pour la récupération et l’analyse des données en amont, en l’occurrence les fichiers csv générés par les scripts précédents ;
  • Elasticsearch, pour l’indexation des données ;
  • Kibana, pour la navigation dans les données.

Traitement et import des données

Logstash permet le traitement et l’import des données afin d’extraire toutes les informations souhaitées. Par exemple, l’extraction de la source de données (Lecteur M: dans notre cas) ou la conversion de la taille des documents en Ko afin de faciliter la lecture. Attention à bien conserver toutes les données afin de pouvoir les réutiliser si nécessaire.

Requête et comptage

Elasticsearch permet la création de requêtes pour extraire et compter le nombre de fichiers comme par exemple compter le nombre de documents par source ou leur taille.

La requête suivante permet par exemple de ne compter que les documents respectant certaines contraintes :

 

Tableaux de bord

Kibana permet la création de tableaux de bords, notamment avec la fonctionnalité TimeLion permettant de calculer et afficher des indicateurs sur le même graphique afin, par exemple, de comparer l’évolution du nombre de documents dans le temps en fonction de leur source.

/Users/bxml/Desktop/Tmp/Screenshots/Capture d’écran 2019-04-08 à 16.48.56.png

 

Comptages des répertoires et fichiers par source

Lorsque tous les éléments ont été injectés dans le moteur d’indexation, on compare alors les éléments obtenus entre le comptage Windows et le comptage ELK afin de vérifier que les erreurs ne sont pas significatives.

 

M:\Organisationnel

Les comptages sont les suivants :

Répertoire principal Nb de répertoires Nb de fichiers Volume
Total comptage listing via le calcul de Windows 1 309 910 10 798 669 16,1 To
Total comptage index 1 305 950 10 171 949 17,1 To

 

N:\Commun

Les comptages sont les suivants :

Répertoire principal Nb de répertoires Nb de fichiers Volume
Total comptage listing via le calcul de Windows 581 770 3 402 133 3,45 To
Total comptage index 564 576 3 089 141 3,64 To

O:\Alfresco

Un lecteur réseau a été monté sur le serveur Alfresco afin de pouvoir lister les fichiers stockés à la racine et dans les sites. Dans notre étude de cas, du fait du faible stockage et du faible nombre des éléments stockés en dehors des sites, qui représentent à peine 10 Go et quelques milliers de fichiers, ils n’ont pas été importés et ont été ignorés dans l’analyse.

Répertoire principal Nb de répertoires Nb de fichiers Volume Remarques
Total comptage index 50 113 295 702 781 Go 115 sites

 

 

Suivez bluexml sur les réseaux sociaux

19Oct/18

Pourquoi Alfresco abandonne Alfresco Share au profit d’ADF ?

ADF ou Alfresco/Application Development Framework est le nouvel outil d’interface mis à disposition par Alfresco. Il vise, à terme, à remplacer la solution d’interface “Alfresco Share”, actuellement distribuée avec Alfresco, qui est en cours d’abandon. Les cycles de vie des produits Alfresco et Alfresco Share ayant été dissociés, Alfresco Share sera quand même disponible sur les prochaines versions d’Alfresco mais n’évoluera plus.

Alfresco Share est un outil générique de gestion documentaire, avec de nombreuses fonctionnalités pas toujours utiles aux utilisateurs. Il peut être jugé, à raison, complexe et ne facilite pas la conduite du changement. En outre, basé sur des technologies “maison” telles que Surf ou abandonnées telles que Y!UI (Yahoo) et Dojo (un vieux projet IBM), il est difficile de trouver des compétences pour l’adapter.

A la lumière de tous ces éléments, Alfresco a choisi d’adapter sa stratégie et propose ainsi un nouveau framework basé sur Angular, technologie récente, supportée par un géant de l’internet, assurant une disponibilité importante de compétences. En outre, ce framework est constitué d’un ensemble de composants fonctionnels, qu’il est possible d’assembler en fonction des besoins des utilisateurs.

ADF permet de développer des outils qui s’adaptent aux besoins des utilisateurs et non l’inverse. La conduite du changement sera ainsi facilitée.

ADF se base sur le framework Angular 5, qui lui apporte beaucoup de flexibilité au niveau des fonctionnalités ainsi qu’une bonne adaptabilité par rapport au support de visualisation (PC, tablette ou téléphone).

ADF est un projet open-source et profite d’une communauté très active sur internet.

 

18Oct/18

Lancement du nouveau site web

Ça y est, il est arrivé !!!

Ce nouveau site présente l’offre de BlueXML ainsi que notre stratégie en terme d’innovation.

Notre offre s’étoffe avec l’arrivée en force du BPM pour répondre à la demande croissante de nos clients. En outre, nous développons l’offre autour des séminaires en 1j afin de vous donner un maximum d’informations en un minimum de temps.

Nous mettons également l’accent sur l’innovation en lançant des chantiers autour d’ADF, Angular et la blockchain, notamment avec la mise en place d’un calcul d’empreinte avec stockage dans la blockchain supportant bitcoin.

N’hésitez pas à revenir vers nous si un sujet vous intéresse.

A bientôt,

Jean-Christophe Kermagoret

PS : malgré tout le soin que nous y apportons, nous avons pu parfois oublier quelques règles de grammaire et d’orthographe, bref, des fautes… N’hésitez pas à nous en faire part afin que nous les corrigions.

03Juil/18

Intégrer CMIS avec Ruby

Installation

Pour jouer cette même requête avec ruby, et l’intégrer par exemple dans un développement basé sur RoR, il faut installer une  librairie cmis, par exemple :

  • https://github.com/UP-nxt/cmis-ruby.git

Configuration

Après installation, il faut saisir les informations correspondantes à votre GED, en l’occurrence Alfresco, dans spec/config.yml :

server:
  service_url: http://localhost:8080/alfresco/api/-default-/public/cmis/versions/1.1/browser
  username: admin
  password: admin
repository: -default-

Lancez alors les tests avec la commande suivante :

rake

Récupération d’une liste de documents

Pour vous aider à faire vos premiers pas avec cette librairie, vous pouvez tester le script suivant adapté depuis le readme du projet :

[code language=”ruby”] $LOAD_PATH.unshift ‘lib’
require ‘cmis’

# get the repository object
server = CMIS::Server.new(service_url: ‘http://localhost:8080/alfresco/api/-default-/public/cmis/versions/1.1/browser’,
username: ‘admin’, password: ‘admin’)
repository = server.repository(‘-default-‘)

# query for first 50 documents where the property ‘cmis:name’ is ‘%DAT%’
# and stored in sites/test directory
cmisq = <<eos
select * from cmis:document
where cmis:name like ‘%DAT%’
and contains (‘PATH:\”//app:company_home/st:sites/cm:test//*\”‘)
eos

#query = repository.query(“select * from cmis:document where cmis:name like ‘GED%'”)
query = repository.query(cmisq)

query.each_result(limit: 50) { |document|
puts “-New item ——————————”
puts “Name: ” + document.name
puts “CMIS ObjectId: ” + document.cmis_object_id
puts “Mime-Type: ” + document.content_stream_mime_type
puts “Last Modification Date: ” + document.last_modification_date.to_s
}
[/code]

En exécutant ce code, on obtient la sortie suivante :

Conclusion

Pour étudier les autres possibilités de la librairie, je vous invite à consulter les fichiers de tests dans le répertoire spec/cmis-ruby, et plus particulièrement :

  • document_spec.rb : pour la création/lecture/mise à jour/suppression de document
  • folder_spec.rb : pour la création/lecture/mise à jour/suppression de dossier
01Juil/18

Introduction à CMIS

CMIS est le langage de choix pour requêter une gestion documentaire. En effet, ce langage, proche de SQL, utilise les concepts proches des bases de données. CMIS est un standard mais, bien sûr, chacun a développé un sous-ensemble de fonctions supplémentaires en dehors du standard. Cependant, c’est mieux que rien…

Ainsi, pour récupérer la liste des documents dont le nom contient la chaine DAT et qui sont stockés dans la sous arborescence “sites/test”, il faudra taper la requête suivante :

select * from cmis:document
where cmis:name like '%DAT%'
  and contains ('PATH:"//app:company_home/st:sites/cm:test//*"')

Navigateur de noeuds

Les habitués d’Alfresco auront remarqué que le chemin fait référence à un répertoire stocké dans un site…

Dans mon cas, en tapant la requête dans le navigateur de noeuds d’Alfresco j’obtiens le résultat suivant :

CMIS Workbench

Afin de découvrir Alfresco d’un point de vue CMIS (nom des propriétés notamment), je vous invite à télécharger CMIS Workbench. Il vous permettra de mieux comprendre le fonctionnement de CMIS :

  • Navigation dans le repository et découverte des propriétés CMIS
  • Exécution d’une requête CMIS depuis une fenêtre de console

CMIS Workbench est disponible à l’adresse suivante :

Navigation dans le repository et découverte des propriétés

Exécution d’une requête CMIS

Conclusion

Un standard riche, simple à utiliser de par sa proximité avec le SQL, une fois qu’on a, comme d’habitude, intégré quelques subtilités (notamment les D: et P: pour spécifier les types et aspects… 😉

Bon tests !

18Mai/18

Ouvrez simplement votre entrepôt Alfresco au grand public

Module de consultation externe simplifié par profil

Blue Search

Introduction

BlueSearch est une application de consultation simplifiée qui permet d’effectuer des recherches « à la google » sur un repository Alfresco. Les recherches effectuées sans authentification sont limitées à des documents « publics » et ne ramènent que des documents accessibles par l’utilisateur « public ».

Les recherches peuvent également être réalisées avec authentification ; elles sont alors réalisées sur l’ensemble des documents accessibles par l’utilisateur authentifié.

Suite à la recherche, les résultats peuvent être affinés grâce la sélection de facettes. Les documents peuvent être prévisualisés, téléchargés, étudiés dans le détail et partagés via un lien par mail ou sur les réseaux sociaux quels qu’ils soient (twitter, pinterest, facebook…).

Les principaux écrans de cette application peuvent être facilement personnalisés via des fichiers css directement accessibles par l’administrateur de l’application ou par un prestataire d’une agence de communication.

Application de consultation

Spécifications fonctionnelles

Cas d’utilisation

@TODO

Rôles

L’application est composée de 2 modules :

  1. l’application de consultation simplifiée ;
  2. l’application de configuration.

Elle peut être accédée par 3 rôles :

  • un rôle public : une authentification automatique et transparente est réalisée par l’application. Les utilisateurs n’ont généralement que des droits de lecture, de consultation et de téléchargement ;
  • un rôle authentifié : l’utilisateur s’authentifie à l’aide de son identifiant et de son mot de passe. Il a les droits correspondant à son degré d’habilitation quelle que soit l’application utilisée ; il accède généralement à l’application de consultation simplifiée mais il peut également accéder à l’application Alfresco Share native s’il a besoin de l’ensemble des fonctionnalités disponibles ;
  • un rôle d’administrateur fonctionnel : l’utilisateur s’authentifie à l’aide de son identifiant et de son mot de passe. Il a les droits correspondants à son degré d’habilitation. Il accède à l’application uniquement via Alfreco Share natif.

Plateformes de consultation

Les plateformes de consultation se divisent en :

  • Ordinateurs de bureau ;
  • Tablettes ;
  • Smartphones.

Cette application de consultation a été développée pour les ordinateurs de bureau. Elle peut être consultée sur une tablette et un smartphone mais son ergonomie n’a clairement pas été pensée pour ces derniers.

Il serait intéressant de développer un module pour tablette et smartphone.

Architecture

Diagramme d’architeture

L’architecture de la solution est la suivante :

@TODO

Fonctionnalités techniques

Les fonctionnalités suivantes sont implémentées :

  • Interface d’administration de l’application
  • Authentification automatique
  • Pages personnalisables
    • Pages html statiques
    • Fichiers css statiques
    • Personnalisation des informations à afficher

Interface d’administration de l’application

Une IHM spécifique est disponible. Elle correspond à l’application Alfresco Share native. Elle permet de :

  • créer le compte public
  • modifier les pages personnalisables

Authentification automatique

L’accès à quelque page que ce soit au niveau de l’application Alfresco nécessite obligatoirement une authentification. BlueSearch authentifie automatiquement l’utilisateur sans saisie d’aucun mot de passe. Les documents qui peuvent être recherchés ou accédés sont limités par les droits de l’utilisateur choisi pour l’authentification automatique.

Ce mécanisme pourrait être étendu très simplement afin de s’authentifer avec diffférents utilisateurs selon divers critères (son adresse IP – interne/externe, l’heure, le temps qu’il fait… :-).

Pages personnalisables

L’application peut être personnalisée au niveau des pages html statiques suivantes :

  • formulaire de recherche : construction totale de la page ;
  • mentions légales : construction totale de la page ;
  • contact : construction totale de la page.

L’application peut également être personnalisée au niveau des fichiers css statiques qui permettent d’adapter la présentation des pages dynamiques :

  • home.css : pour personnaliser la présentation globale des pages statiques ;
  • delib.css : pour personnaliser la présentation de la page détail.

Fonctionnalités

L’application est constituée des pages suivantes :

  • Page de recherche à la google
  • Page de liste de résultats
  • Page de recherche avancée
  • Page de détails

Page de recherche à la google

Cette page permet de rechercher le repository à partir d’un ensemble de mots-clés comme sur Google, Bing, Yahoo…

Page de liste de résultats

Cette page s’affiche suite à une recherche « à la google » ou suite à une recherche avancée.

Par défaut, seuls 20 documents sont affichés. Il est possible de « scroller » en bas de page pour afficher 20 nouveaux résultats… Dans la pratique, l’utilisateur sélectionne souvent une facette afin d’affiner sa recherche.

Téléchargement d’un ou plusieurs documents

L’utilisateur peut télécharger un document avec les actions suivantes :

  • Cliquer sur Actions ;
  • Cliquer sur Télécharger.

L’utilisateur peut aussi télécharger un ou plusieurs documents :

  • Sélectionner plusieurs documents ;
  • Cliquer sur Documents sélectionnés ;
  • Cliquer sur Télécharger un .zip.

Navigation par facettes

Sélection de facettes métier

En cliquant sur une facette métier, la liste des résultats s’affine et se met à jour. Il est possible de sélectionner une autre facette ou de désélectionner une facette.

Prévisualisation du document

En cliquant sur l’icône de « document », la page suivante s’affiche :

Page de recherche avancée

Une page de recherche avancée est disponible. Elle permet de sélectionner plusieurs critères en même temps sur un ou plusieurs champs. Elle renvoie sur la liste de résultats ci-dessus.

Page de détails du document

Partage d’un document

Des actions de partage par mail sont disponibles. Elles créent un message en mode édition dans votre outil de messagerie que l’utilisateur peut personnaliser :

Visualisation des métadonnées

Les métadonnées sont présentées à l’utilisateur sur la page de détails. Ces détails peuvent être cachés/affichés via le fichier css personnalisable delib.css.

Conclusion

BlueSearch permet de valoriser très simplement le contenu public d’un repository Alfresco et d’augmenter très simple votre retour sur investissement.

Pour voir le système en production, je vous invite à consulter le site public suivant :

16Fév/18

Génération d’un paquet SIP conforme au format SEDA 2.0

Introduction

Le projet VITAM propose des outils pour générer des SIP conformes au format SEDA 2.0 à partir d’une arborescence de fichiers.

Si cette fonctionnalité est disponible sur Windows et Linux, il est nécessaire de faire quelques adaptations pour MacOSX.

Adaptations

Installation de siegfried

Le générateur SEDA de VITAM utilise l’application siegfried pour détecter les formats des fichiers à intégrer. Pour cela, il suffit d’installer cette application à l’aide de brew :

brew install siegfried

Modification de run_generate.sh

Vous tentez alors de générer le paquet SIP :

sh run_generate.sh monrepertoire

Il est possible que vous obteniez le message d’erreur suivant :

jck$ > sh run_generator.sh conf
 run_generator.sh: line 4: realpath: command not found
 The given path must be a directory (not a single file):

Pour résoudre ce problème, vous devez installer coreutils :

brew install coreutils

Les outils ainsi fournis sont stockés, pour mon installation, dans le répertoire /usr/local/opt/coreutils/libexec/gnubin. Du coup, il faut modifier run_generator.sh pour lui donner cette information (ligne 4) :

#!/bin/sh
SCRIPT_DIR=$(dirname $0)
if [ "x$1" != "x" ];then
 TARGET_DIR=$(/usr/local/opt/coreutils/libexec/gnubin/realpath "$1")
fi
java -classpath "$SCRIPT_DIR/conf:$SCRIPT_DIR/lib/*" -Dvitam.config.folder=/tmp -Dvitam.tmp.folder=/tmp -Dvitam.data.folder=/tmp -Dvitam.log.folder=/tmp fr.gouv.vitam.generator.scanner.main.SedaGenerator "$SCRIPT_DIR" "$TARGET_DIR"

Utilisation

Il suffit alors de relancer le script run_generator.sh sur le répertoire de votre choix. Et ça marche !

jck$ > sh run_generator.sh monrepertoire
2018-02-16 16:01:25,987 [main] INFO f.g.v.g.scanner.main.SedaGenerator : Generateur SEDA : Beginning of scan of directory /Users/bxml/Documents/opt/local/new-workspaces/vitam/seda/generateur-seda_0.16.0/monrepertoire 
2018-02-16 16:01:26,951 [main] INFO f.g.v.generator.scanner.core.ScanFS : Managing BinaryDataObjects : 455 ms for 3 BinaryDataObjects (time per BDO : 151 ms) 
2018-02-16 16:01:27,085 [main] INFO f.g.v.generator.scanner.core.ScanFS : Writing ArchiveUnits : 127 ms for 5 ArchiveUnits (time per AU : 25 ms) 
2018-02-16 16:01:27,366 [main] INFO f.g.v.g.scanner.main.SedaGenerator : Generateur SEDA : End of scan of directory /Users/bxml/Documents/opt/local/new-workspaces/vitam/seda/generateur-seda_0.16.0/monrepertoire in 1380 ms

Conclusion

Merci Vitam 🙂

18Jan/18
Blog

Présentation de l’outil Alfresco Bulk Export

Alfresco Bulk Export Tool.

Vijay Prince a présenté l’outil Alfresco Bulk Export Tool à la Devcon Alfresco et comment l’utiliser et gérer les exports de données pendant les migrations.
Plusieurs fonctionnalités ont été ajoutées à l’outil afin de rendre son usage plus simple :
[list style=”list12″ color:”#6699ff”]

  • Une interface utilisateur pour superviser l’export et utiliser l’outil
  • Vous pouvez à présent démarrer, stopper et redémarrer l’export via l’interface
  • Vous pouvez choisir une période d’export
  • Vous pouvez ajouter des aspects et des propriétés aux données exportées
  • Vous pouvez mettre à jour les types, les aspects et les propriétés
  • Vous pouvez mettre à jour le préfix du modèle
[/list] L’interface n’est pas très belle mais efficace :

Si vous souhaitez plus d’informations sur ce projet

01Déc/17
Flowable

Installation de Flowable

Introduction

Ce tutoriel décrit comment installer et configurer l’application de BPM Flowable pour stocker les informations de manière permanente, l’installation de base par défaut étant temporaire, vos travaux sont purement et simplement supprimés à chaque arrêt/redémarrage de votre serveur BPM.

Pré-requis

Flowable est une application Java qui stocke les nombreuses informations qu’elle gère dans une base de données relationnelles. Elle a donc besoin d’un moteur de base de données relationnelles, par exemple postgresql ou mysql ainsi que d’un moteur d’exécution tel que Tomcat.

Vous pouvez trouver des informations sur l’installation de ces logiciels sur les sites correspondants.

Installation

Dans un premier temps, téléchargez la dernière version de Flowable. :

  • Double-cliquez sur l’archive flowable que vous avez récupérée. Récupérez les fichiers contenus dans le répertoire « wars » et déposez-les dans le répertoire webapps de tomcat
  • Lancez tomcat en double-cliquant sur ./bin/startup.bat

Vous pouvez alors vous connecter sur l’application flowable :

  • http://localhost:8080/flowable-idm/

Flowable est installé mais cette installation est temporaire : rien de ce que vous ferez ne sera sauvegardé. Il faut donc configurer flowable pour utiliser une base de données et persister les informations.

Configuration et initialisation

Afin de rendre les processus persistants, tout comme les données de configuration telles que les utilisateurs, il est nécessaire de configurer Flowable pour qu’il utilise la base de données que vous avez installée :

datasource.driver=org.postgresql.Driver

datasource.url=jdbc:postgresql://localhost:5432/flowable

Bien sûr, n’oubliez pas de créer la base de données correspondante:-)

Arrêtez et redémarrez Tomcat.

Initialisation

Avant de pouvoir faire quoique ce soit, il vous faut d’abord créer quelques utilisateurs et leur donner les droits nécessaires et suffisants pour pouvoir :

  • administrer flowable ;
  • créer des utilisateurs ;
  • modéliser des applications ;
  • gérer les tâches.

Création des utilisateurs

L’utilisateur par défaut est admin :

  • utilisateur : admin
  • mot de passe : test

Connectez-vous à l’adresse suivante :

Vous arrivez alors sur l’écran suivant :

  • Cliquez sur Créer un utilisateur
  • Saisissez les informations attendues

Dans le cadre de notre tutoriel, je vous invite à créer les utilisateurs suivants, en mettant le même mot de passe que le nom d’utilisateur, et ajoutant @test.org à chaque nom d’utilisateur (pas besoin que l’adresse soit opérationnelle ou même réelle) :

  • Jean-Christophe ELPADRE : directeur / identifiant : jcelpadre
  • Théo LEPREM : directeur commercial / identifiant : tleprem
  • Max LESEC : directeur RH / identifiant : mlesec
  • Lou LADER : directrice SI / identifiant : llader

Création des groupes

Cliquez ensuite sur l’onglet Groupes et créez les groupes suivants :

  • Nom : Administrateurs Alfresco / Identifiant : ADMIN_ALFRESCO
  • Nom : Administrateurs Flowable / Identifiant : ADMIN_FLOWABLE
  • Nom : Direction / Identifiant : DIR_GEN
  • Nom : Direction Commerciale / Identifiant : DIR_CALE
  • Nom : Direction des Ressources Humaines / Identifiant : DIR_RH
  • Nom : Direction du Service Informatique / Identifiant : DIR_SI

Ajoutez ensuite les utilisateurs créés précédemment dans les groupes ci-dessus.

Configuration des privilèges

Pour finir, cliquez sur l’onglet Privilèges :

Et donnez les privilèges suivants :

  • Accéder à l’application de gestion des identités : ADMIN_FLOWABLE
  • Accéder à l’application d’administration : ADMIN_FLOWABLE
  • Accéder à l’application de modélisation : DIR_TRANSVERSE_METIER
  • Accéder à l’application de workflow : DIR_CALE, DIR_GEN, DIR_RH, DIR_SI

Test

Connectez-vous sur l’application http://localhost:8080/flowable-modeler/ avec l’utilisateur jcelpadre et vérifiez que vous avez accès aux fonctions de modélisation :