Réglages avancés des paramètres système

Modifié par jhurst le 2020/10/29 13:32


Ce document décrit les réglages avancés des paramètres du serveur DigDash Enterprise (DDE).

Les fichiers suivants seront modifiés :

  • server.xml
    • Emplacement (Tomcat global) :
      <DDE Install>/apache-tomcat/conf/server.xml
  • system.xml
    • Emplacement : <utilisateur>/Application Data/Enterprise Server/ddenterpriseapi/config/system.xml
  • web.xml
    • Emplacement (Tomcat global) :
      <DDE Install>/apache-tomcat/conf/web.xml
    • Emplacement (ddenterpriseapi) :
      <DDE Install>/apache-tomcat/webapps/ddenterpriseapi/WEB-INF/web.xml
    • Emplacement (dashboard) :
      <DDE Install>/apache-tomcat/webapps/digdash_dashboard/WEB-INF/web.xml
    • Emplacement (adminconsole) :
      <DDE Install>/apache-tomcat/webapps/adminconsole/WEB-INF/web.xml
    • Emplacement (adswrapper) :
      <DDE Install>/apache-tomcat/webapps/adswrapper/WEB-INF/web.xml
  • setenv.bat
    • Emplacement : <DDE Install>/configure/setenv.bat
  • dashboard_system.xml
    • Emplacement : <utilisateur>/Application Data/Enterprise Server/dashboard_system.xml

Réglages Tomcat

Allouer plus de mémoire à Tomcat

Fichier modifié : setenv.bat

Trouvez les lignes suivante au début du fichier :

set JVMMS=512
set JVMMX=512

Changer les 2 occurrences "512" en la quantité de mémoire (méga-octets) que vous voulez allouer à Tomcat. Par exemple "4096" allouera 4 Go de mémoire à Tomcat :

set JVMMS=4096
set JVMMX=4096

Important : Sur un Windows 64 bits il n'y a pas de limite autre que la mémoire physique de votre ordinateur. Si La valeur est trop haute, alors Tomcat ne démarrera pas.

Note pour Windows 32 bits : Si vous avez une configuration 32 bits (machine/OS), ou si vous avez déployé la version 32 bits de DigDash enterpise sur votre machine 64 bits, alors vous êtes limité dans la quantité de mémoire que vous pouvez allouer à Tomcat. La limite dans ce cas est connue pour être approximativement 1,5Go. Cela dépend notamment de la fragmentation de la mémoire à cet instant. Nos tests montrent en général que nous pouvons allouer 1,4Go sur un Windows 32 bits. Pour cette raison, nous recommandons une combinaison machine/OS 64 bits.

Note pour la mémoire « PermGen Space » : Si vous rencontrez une erreur dans les logs portant la mention de « PermGen Space » vous pouvez augmenter cette valeur via la variable JVMMPS (au même endroit que les JVMMS et JVMMX).

Important : Lorsque vous installez Tomcat en tant que service Windows (voir document install_guide_windows_fr.pdf), à l'aide de servers_install_service.bat ou servers_install_service_64.bat, c'est le paramétrage de setenv.bat qui sera appliqué lors de l'installation du service.

Ainsi si vous souhaiter changer la mémoire allouée à Tomcat, il est obligatoire de :

  1. Désinstaller le service à l'aide de la commande sc delete Tomcat7 (ou autre nom que vous auriez spécifié à l'installation)
  2. Changer les variables JVMMS et JVMMX du fichier setenv.bat
  3. Relancer servers_install_service.bat ou servers_install_service_64.bat

Changer les ports réseau Tomcat

Fichier modifié : server.xml

Si un des ports nécessaires à Tomcat est déjà utilisé par un autre processus, alors il ne se lancera pas. Il est nécessaire de vérifier la disponibilité des ports et si besoin de reconfigurer Tomcat. Par défaut les 3 ports suivants sont configurés : 8005, 8080 et 8009. Pour les modifier :

  1. Ouvrez le répertoire <install DDE>\apache-tomcat/conf puis éditer le fichier server.xml
  2. Chercher et remplacer les valeurs des ports 8005, 8080 et 8009.
    par des numéros de port disponibles sur le système

Changer la durée de vie des sessions inactives (timeout)

Fichier modifié : web.xml (configuration globale de Tomcat situé à l'emplacement <DDE Install>/apache-tomcat/conf/web.xml)

Trouvez les lignes suivantes dans le fichier :

<session-config>
   <session-timeout>30</session-timeout>
</session-config>

Changer la valeur pour modifier la durée de vie en minutes d'une session inactive (timeout). Par défaut le timeout est de 30 minutes.

Changer le nombre maximum de requêtes simultanées

Fichier modifié : server.xml

Par défaut Tomcat n’acceptera pas plus de 200 requêtes simultanées. Ce paramétrage peut se révéler limitant dans le cas d’un déploiement à un grand nombre d’utilisateurs (plusieurs milliers ou millions), ou lors d’un bench de performance (ex. jmeter) qui exécute des centaines ou des milliers de requêtes simultanées.

Pour augmenter cette limite, il faut ajouter un attribut maxthreads dans l’élément Connector correspondant au connecteur utilisé.

Exemple lorsque le connecteur utilisé est http (il n’y a pas d’Apache en front-end) :

<Connector port="8080" protocol="HTTP/1.1" connectionTimeout="20000" maxthreads="400" redirectPort="8443" maxPostSize="-1" URIEncoding="UTF-8" ></Connector>

Exemple lorsque le connecteur utilisé est AJP (il y a un Apache en front-end) :

<Connector port="8009" protocol="AJP/1.3" maxthreads="400" redirectPort="8443" maxPostSize="-1" URIEncoding="UTF-8" ></Connector>

Activer la compression HTTP

Fichier modifié : server.xml

La compression HTTP permet de diminuer la consommation de la bande passante du réseau en compressant les réponses HTTP. Par défaut cette option n’est pas activée dans Tomcat, même si tous les navigateurs modernes la supportent.

Cette option permet d’économiser parfois jusqu’à 90 % la bande passante sur certains types de fichiers : HTML, Javascript, CSS. En consommant peu de CPU sur le serveur et le client.

Important : Cette option ne fonctionne que si Tomcat est utilisé directement en serveur front-end via le connecteur HTTP/1.1. S’il y a un Apache httpd en front-end, alors il faudra activer l’option équivalente dans Apache httpd lui-même (voir la documentation directement sur le site Apache httpd).
La compression HTTP n’est pas supportée sur le connecteur AJP, ni sur aucun autre connecteur que HTTP(S)/1.1.

Dans le fichier server.xml ajouter les attributs compression="on" et compressionMinSize="40000" sur le connecteur HTTP/1.1:

Exemple :

<Connector port="8080" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443" maxPostSize="-1" URIEncoding="UTF-8" compression="on" compressionMinSize="40000"></Connector>

L’attribut compressionMinSize définit une taille minimale de réponse (en octets) au dessous de laquelle la compression n’est pas utilisée. Il est conseillé de spécifier cet attribut à une valeur suffisante pour ne pas compresser des fichiers déjà très petits (icônes PNG…).

Note : Ce réglage n’a pas d’incidence si un navigateur utilisé ne supporte pas la compression HTTP. Tomcat décidera alors de ne pas compresser les réponses HTTP pour ce navigateur.

Paramètres de performance avancés

Fichier modifié : system.xml

Exemple de syntaxe XML :

<Property key="CORE_TP_EXECSIZE" value="64"></Property>

Threads utilisés pour l'exécution des flux programmés

Modifie le nombre de « threads » utilisés pour l'exécution des flux programmés (ordonnanceur) ou sur événement.

Paramètres disponibles :

  • Nom : MAX_TP_EXECSIZE
  • Valeur : entier > 0 (défaut : 16)
    Description : Nombre de threads maximum de traitement des tâches de synchronisation.
  • Nom : TP_SYNC_PRIORITY
    Valeur : chaîne ("flow" ou "none") (défaut : flow)
    Description : Mode de priorité des tâches. Valeur flow : Traite la synchronisation du flux le plus tôt possible après que le cube ait été généré pour ce flux. Valeur none : le flux sera synchronisé quand il y aura de la place dans la file de threads. Ce paramètre n'est pris en compte que lorsque que le paramètre TP_PRIORITYPOOL est à true.
  • Nom : TP_SYNC_GROUPFLOWBYCUBE
    Valeur : booléen (défaut : false)
    Description : Change le mode de traitement des tâches en attente. Valeur false : les tâches de traitements des flux sont répartis sur tous les threads disponibles quel que soit le cube utilisé. Cela entraine un traitement en parallèle des flux au détriment des cubes, recommandé lorsqu'il y a peu de cubes mais beaucoup de flux. Valeur true : regroupe les traitements des flux d'un même cube sur un seul thread. Cela entraine un traitement en parallèle des cubes au détriment des flux, recommandé lorsqu'il y a beaucoup de cubes différents et peu de flux utilisant les même cubes. Ce paramètre n'est pris en compte que lorsque que le paramètre TP_PRIORITYPOOL est à true.

Threads utilisés pour l'exécution des flux interactifs

Modifie le nombre de « threads » utilisés pour l'exécution interactive des flux (Studio, tableau de bord, mobile, etc).

Paramètres disponibles :

  • Nom : MAX_TP_PLAYSIZE
  • Valeur : entier > 0 (défaut : 16)
    Description : Nombre de threads maximum de traitement des tâches de synchronisation.
  • Nom : TP_PLAY_PRIORITY
    Valeur : chaine ("flow" ou "none") (défaut : flow)
    Description : Mode de priorité des tâches. Valeur flow : Traite la synchronisation du flux le plus tôt possible après que le cube ait été généré pour ce flux. Valeur none : le flux sera synchronisé quand il y aura de la place dans la file de threads. Ce paramètre n'est pris en compte que lorsque que le paramètre TP_PRIORITYPOOL est à true.
  • Nom : TP_PLAY_GROUPFLOWBYCUBE
    Valeur : booléen (défaut : false)
    Description : Change le mode de traitement des tâches en attente. Valeur false : les tâches de traitements des flux sont répartis sur tous les threads disponibles quel que soit le cube utilisé. Cela entraine un traitement en parallèle des flux au détriment des cubes, recommandé lorsqu'il y a peu de cubes mais beaucoup de flux. Valeur true : regroupe les traitements des flux d'un même cube sur un seul thread. Cela entraine un traitement en parallèle des cubes au détriment des flux, recommandé lorsqu'il y a beaucoup de cubes différents et peu de flux utilisant les même cubes. Ce paramètre n'est pris en compte que lorsque que le paramètre TP_PRIORITYPOOL est à true.

Délais de suppression des cubes en mémoire

Modifie la manière dont le Cube Manager supprime les cubes inutilisés en mémoire.

Les paramètres suivants modifient la manière dont les cubes non utilisés depuis un certain temps sont supprimés, même si la session est toujours active.

Paramètres disponibles :

  • Nom : CUBE_TIMEOUT_INTERACTIVE
    Valeur : minutes > 0 (défaut : 10 minutes)
    Description : Durée de la période d'inactivité pour un cube chargé en mode interactif (navigation du cube sur le serveur)
  • Nom : CUBE_TIMEOUT_SYNC
    Valeur : minutes > 0 (défaut : 4 minutes)
    Description : Durée de la période d'inactivité pour un cube chargé en mode programmé (génération d'un flux programmé)
  • Nom : CUBE_TIMEOUT_PERIOD
    Valeur : minutes > 0 (défaut : 2 minutes)
    Description : Intervalle de vérification de l'inactivité des cubes, devrait être au moins CUBE_TIMEOUT_SYNC / 2

Performance des cubes de données

Ces paramètres affecteront le traitement interactif des cubes de données (aplatissement en cubes résultats pendant l'affichage). Ces paramètres n'affectent pas la génération des cubes de données.

Paramètres disponibles :

  • Nom : CUBEPART_MAXSIZEMB
    Valeur : méga-octets > 0 (défaut : 100 Mo)
    Description : Taille d'une part de cube en méga-octets. Une part de cube est une partie du cube de données qui peut être traitée (aplatie) en parallèle ou distribuée sur d'autres serveur DigDash Enterprise en mode cluster (voir chapitre "Utilisation de plusieurs serveurs en mode cluster" dans ce document).
  • Nom : TP_MCUBESIZE
    Valeur : threads > 0 (défaut : 64 threads)
    Description : Taille de la file de threads utilisés pour le traitement en parallèle des parts de cube. Les gros cubes (ex: plusieurs millions/milliards de lignes) sont traités en parallèle par le serveur, et/ou par d'autres serveurs (en mode cluster). Ce paramètre est le nombre d'unités parallèle de traitement (thread) sur une machine. Chaque part de cube occupe une unité de la file le temps de son traitement, si la file est pleine les unités supplémentaires sont mises en attente.
  • Nom : MCUBE_ROWS_PER_THREAD
    Valeur : lignes > 0 (défaut : 100000)
    Description : C'est la limite du nombre de ligne d'un cube de données au delà de laquelle le serveur DigDash Enterprise activera le traitement parallèle des parts du cube (s'il y a plus d'une part pour ce cube). En dessous de cette limite, le traitement du cube n'est pas parallélisé mais séquentiel.

Autres paramètres de performance

Les paramètres suivants servent à analyser ou optimiser les performances du système.

Paramètres disponibles :

  • Nom : LOW_MEMORY_THRESHOLD
    Valeur : pourcentage > 0 (défaut : 10%)
    Description : C’est le seuil en pourcentage de mémoire libre restante au dessous duquel le système émettra une alerte de mémoire basse. Cette alerte est visible dans la page d’état du serveur pendant 24 heures. Elle est aussi enregistrée dans la base de données DDAudit si le service d’audit système est démarré.
    Enfin, un événement DigDash est aussi déclenché lorsque le seuil est atteint : SYSCHECK_LOWMEM. Un exemple d’utilisation de cet événement est donné dans le document de déploiement du module DDAudit.
  • Nom : TP_PRIORITYPOOL
    Valeur : booléen (défaut : true)
    Description : Utilise un pool de threads de rafraîchissements avec gestion de priorité pour les rafraîchissements de flux et cubes. Voir paramètres TP_PLAY_GROUPFLOWBYCUBE, TP_SYNC_GROUPFLOWBYCUBE, TP_PLAY_GROUPFLOWBYCUBE, TP_SYNC_GROUPFLOWBYCUBE

Service de maintenance Automatique

DigDash Enterprise fournit un service de maintenance composé :

  • D’un nettoyeur de fichiers (connu aussi en tant que Files GC) nettoyant l'ensemble des fichiers inutilisés : vieux fichiers de l'historique, cubes et autres fichiers dépendant des flux.
  • D’une sauvegarde automatique de la configuration

Nettoyeur de fichiers

Le nettoyeur nettoie les fichiers non utilisés par les portefeuilles des utilisateurs et des rôles.

Le nettoyage parcourt les index de tous les utilisateurs, ainsi que le disque, afin de trouver les fichiers qui ne sont plus liés aux index. Les fichiers identifiés sont supprimés. Les fichiers effacés sont les suivants : fichiers de cubes (.dcg), fichiers js des cubes (cube_data_id.js), modèles (cube_dm_id.js) et flux (cube_view_id_js).

Cette opération présente l'avantage de libérer de l'espace disque et potentiellement d'accélérer les recherches de fichiers js, qui peuvent devenir non négligeables sur des volumétries importantes (nombre de cubes personnels * nb historiques > 100000)

Selon l'âge du serveur et la volumétrie des fichiers concernés (nombre de rafraîchissements effectués...), l'opération peut prendre beaucoup de temps lors de sa première exécution (sur certains déploiements comportant beaucoup d'utilisateurs et beaucoup de cubes personnalisés, une à deux heures). 

Ensuite, si le nettoyage est fait de manière régulière, le temps d'exécution sera moins long. Ce temps dépend énormément de la performance du système de fichiers et de la machine, ce qui le rend difficilement estimable.

Sauvegarde automatique

La sauvegarde automatique est effectuée avant le nettoyage des fichiers. Le fichier générés est copié dans le dossier de configuration <digdash.appdata>/Enterprise Server/<domaine>/backups/<date du jour>.zip

Par défaut, la maintenance se fait tous les jours à minuit.

Important : Par défaut le service de maintenance ne se lance que si aucune session utilisateur n'est active à ce moment. De plus, pendant son fonctionnement aucun utilisateur ne peut se connecter à DigDash Enterprise. Attention donc à bien le programmer pour qu'il n'interfère pas avec l'utilisation normale de DigDash Enterprise par les utilisateurs, ni par l'ordonnanceur. Selon les cas nous conseillons de programmer le service de maintenance la nuit, et à des plages horaires différentes des plages de l'ordonnanceur.

Ce paragraphe décrit comment activer et programmer le service de maintenance.

Activation, désactivation et/ou nettoyage au démarrage

L'activation du nettoyeur de fichiers peut se faire de deux manières :

1- Depuis la page état du serveur :

La page Etat du serveur est accessible depuis la page d'accueil de DigDash Enterprise puis en cliquant successivement sur les liens Configuration et Etat du serveur.

Dans la rubrique Etat du nettoyeur de fichiers, cliquez sur la flèche verte figurant à côté de Nettoyeur de fichier démarré pour démarrer le nettoyeur :

1599031610206-294.png
Le prochain nettoyage aura lieu à minuit. Pour démarrer le nettoyeur de fichiers immédiatement, cliquez sur l’icône 1599031692012-960.png.

2- Depuis le fichier web.xml :

Fichier modifié : web.xml / ddenterpriseapi.properties (ddenterpriseapi)

Active ou non le module Files GC et/ou lance le nettoyage au démarrage du serveur

Paramètres disponibles :

  • Nom : startCleaner
    Valeur : booléen (défaut : false)
    Description :
  • true : nettoyage automatique des fichiers programmé.
    Note: l'heure du nettoyage est définie dans system.xml, par le paramètre FILESGC_SCHEDXML.
    L'heure de nettoyage par défaut (si aucune n'est spécifiée dans system.xml, FILESGC_SCHEDXML) est tous les jours à 0:00
  • false (défaut) : pas d'utilisation du nettoyeur de fichiers
  • Nom : cleanOnStart
    Valeur : booléen (défaut : false)
    Description :
  • true : nettoie les fichiers inutilisés au démarrage du serveur (fichiers de l'historique, cubes, fichiers résultats,...)
  • false (défaut) : ne nettoie pas les fichiers inutilisés au démarrage du serveur
  • Nom : autoBackup
    Valeur : booléen (défaut : false)
    Description :
    • *. true : active la sauvegarde automatique programmée
      • false (défaut) : n’active pas la sauvegarde automatique programmée

Programmation et options de la maintenance automatique

Fichier modifié : system.xml.

Paramètres disponibles :

  • Nom : FILESGC_SCHEDXML
    Valeur : phrase XML (encodée) (défaut : aucune)
    Description : Ce paramètre contient une phrase XML encodée décrivant la fréquence de programmation.

Exemple :

<Property key="FILESGC_SCHEDXML"
value="&lt;Schedule frequency=&quot;daily&quot;
fromDay=&quot;11&quot; fromHour=&quot;0&quot;
fromMinute=&quot;0&quot; fromMonth=&quot;7&quot;
fromYear=&quot;2011&quot; periods=&quot;1&quot;
time=&quot;0:0&quot;/&gt;"
></Property>

Les attributs intéressants sont : frequency (hourly, daily ou monthly), periods (nombre d'heures, jours ou mois entre 2 nettoyages) et time (heure du nettoyage pour les fréquences daily et monthly). Cet exemple signifie tous les jours (frequency="daily" et periods="1") à 0:00 (time="0:0").

  • Nom : FILESGC_SESSIONSCHECK
    Valeur : true/false (booléen) (défaut : aucune, équivaut à true)
    Description : Ce paramètre indique si le nettoyeur de fichiers doit vérifier les sessions actives avant de se lancer (true), ou s'il se lance qu'elle que soit l'état des sessions actives (false). Dans ce dernier cas, toutes les sessions seront déconnectées instantanément.

Exemple :

<Property key="FILESGC_SESSIONSCHECK" value="false"></Property>
  • Nom : USEAUTOBACKUP
    Valeur : true/false (booléen) (défaut : aucune, équivaut à false)
    Description : Ce paramètre indique si le service de maintenance effectue aussi une sauvegarde complète de la configuration avant d’exécuter le nettoyage des fichiers.

Utilisation de plusieurs serveurs en mode "Cluster"

Pour gérer un plus grand volume de données (milliard de lignes), il est possible d'utiliser plusieurs serveurs en mode "Cluster". Chaque serveur devient un nœud de calcul du cluster. Ce dernier regroupe un serveur maître et des serveurs esclaves.

Le serveur maître s'occupe de gérer les modèles, les documents, les rôles, les utilisateurs, les sessions et de générer les cubes et les flux (rafraîchissement). A l'identique d'un serveur Digdash Enterprise en mode standard mono-machine.

Les serveurs esclaves additionnels ne sont utilisés que pour aider à l’aplatissement interactif des cubes de données volumineux, lors de l'affichage de flux, filtrage, drills, etc.

Il existe deux architectures de clustering dans DigDash Enterprise :

Installer DigDash Enterprise en mode "Cluster"

Pré-requis: plusieurs machines connectées entre elles par le réseau

Serveur maître (sur la machine la plus puissante du cluster):

  1. Installation standard de DigDash Enterprise (voir la documentation).
  2. Démarrer le serveur normalement avec start_servers.bat

Serveur esclave (sur chacune des autres machines du cluster):

  1. Installation standard de DigDash Enterprise (voir la documentation).
    La différence est qu'un serveur esclave n'a pas besoin de licence pour servir d'unité de calcul au cluster. Il n'a pas besoin non plus d'annuaire LDAP, ni de serveur de document SVN. Il n'a pas besoin non plus de l'application digdash_dasboard dont le war pourrait être accessoirement supprimé de Tomcat.
  2. Démarrer uniquement le module Tomcat, avec start_tomcat.bat

Configurer le cluster

Procédure à répéter sur chaque serveur du cluster

  1. Avec un navigateur, se connecter à la page principale de DigDash Enterprise (ex: http://<serveur>:8080)
  2. Cliquer sur Configuration, puis Paramètres Serveur
  3. S'identifier en tant qu'administrateur de DigDash Enterprise (admin/admin par défaut) pour afficher la page des paramètres du serveur
  4. Cliquer en bas de page sur le lien Paramètres du cluster
  5. Remplir les différents champs en fonction de chaque machine serveur (voir explications ci-dessous)

Section Performance du système

1599031761946-310.png
La section Performance du système définit les capacités de la machine courante dans le cluster. Les paramètres Nombre de CPU, Score CPU et Mémoire allouée permettent de répartir au mieux la charge de calcul.

  1. Nombres de CPU : le nombre de processeurs * nombre de cœurs sur chaque processeurs. Potentiellement multiplié par un facteur si les processeurs bénéficient d'une technologie type Hyper-threading. Par défaut -1, s'appuie sur les données renvoyées par le système d'exploitation
  2. Score CPU : c'est une note entre 1 et 10 qui permet de relativiser la performance d'un noeud du cluster par rapport aux autres (cas d'un cluster hétérogène). Par défaut -1 donne une note moyenne (5).
  3. Mémoire allouée : la fraction de la mémoire maximale autorisée dans le cadre d'utilisation du serveur comme unité de calcul. Cette valeur est inférieure ou égale à la mémoire allouée au serveur Tomcat. Par défaut -1 autorise toute la mémoire.

Section Clusters autorisés

1599031821272-770.png
La section Clusters autorisés permet de spécifier si la machine courante peut être utilisée comme esclave d'un ou plusieurs cluster(s), et si oui lesquels. En effet une machine peut servir à plusieurs clusters DigDash Enterprise. Cette section restreint cette utilisation en tant qu'esclave à seulement certains clusters (liste Sélection) , 

C'est également dans cette section que nous définissons le Mot de passe du serveur courante dans le cluster sélectionné. Sans mot de passe le serveur ne peut être esclave dans ce cluster.

Pour ajouter un cluster autorisé à utiliser ce serveur esclave:

  1. Nom : nom du cluster (arbitraire)
  2. Adresse IP du serveur maître : adresse IP du serveur maître du cluster autorisé à utiliser ce serveur comme esclave (ex: http://192.168.1.1)
  3. Mot de passe : Mot de passe de l'esclave dans le contexte du cluster sélectionné
  4. Cliquer sur le bouton Ajouter pour ajouter ce cluster à la liste des clusters autorisés

Note : Vous pouvez éditer ou supprimer des cluster autorisés en les sélectionnant dans la liste Sélection, puis en cliquant sur les boutons Editer ou Supprimer.

Section Définition du cluster

A renseigner seulement sur le serveur Maître du cluster

1599031869523-186.png
La section Définition du cluster ne concerne que le serveur maître du cluster. C'est ici que nous créons un cluster en listant les serveurs esclaves du cluster ainsi que le maître lui-même (liste Sélection, champs Nom, Adresse, Domaine et Mot de passe). Le serveur maître est implicitement le serveur via lequel vous vous êtes connecté à cette page.

Pour ajouter une machine esclave au cluster:

  1. Nom : nom de machine esclave (arbitraire)
  2. URL du serveur : URL du serveur esclave (ex: http://192.168.1.123:8080)
  3. Domaine : Domaine DigDash Enterprise (par défaut ddenterpriseapi)
  4. Mot de passe : Mot de passe de l'esclave tel que vous l'avez précédemment tapé lors de la configuration de la machine esclave (section Clusters autorisés, champ Mot de passe)
  5. Cliquer sur le bouton Ajouter pour ajouter cette machine à votre cluster.

Note : Vous pouvez éditer ou supprimer des machines du cluster en les sélectionnant dans la liste Sélection, puis en cliquant sur les boutons Editer ou Supprimer.

Utilisation de plusieurs maîtres dans un cluster

Certain déploiements nécessitent l’utilisation de plusieurs serveurs maîtres au sein d’un même « cluster ». Par exemple dans le cas d’un load balancer HTTP en amont qui envoie les sessions utilisateurs sur l’une ou l’autre machine maître. Ce mode est supporté dans DigDash en définissant plusieurs clusters identiques (un par machine maître). La liste des machines (Section Définition du cluster) doit être strictement identique sur toutes les définitions des clusters. C’est pour cela qu’il est possible de changer l’ordre des machines dans cette liste.

Exemple : On souhaite définir un cluster qui consiste en deux machines A et B. Chacune des deux machines est maître et esclave de l’autre.

On doit définir non pas un mais deux clusters A et B :

Dans la définition du cluster A :

  1. Serveur courant : machine A (maître de ce cluster)
  2. machine B (esclave de ce cluster)

Dans la définition du cluster B :

  1. machine A (esclave de ce cluster)
  2. Serveur courant : machine B (maître de ce cluster)

On voit que dans le cluster B, le maître (B) n’est pas la première machine de la liste. Ce qui est important ici c’est que la liste machine A, machine B est bien la même sur les deux clusters (qu’elle que soit leur fonction propre au sein de leur cluster respectif).

Paramètres avancés spécifiques au clusters

Fichier modifié : system.xml

Exemple de syntaxe XML :

<Property key="CLUSTER_TIMEOUT" value="45000"></Property>

Paramètres disponibles :

  • Nom : CUBE_UPLOAD_MODE
    Valeur : entier : 0, 1 ou 2 (défaut : 1)
    Description : Spécifie si les parts de cube doivent être téléchargées du serveur maître vers les serveurs esclaves au moment ou un utilisateur interagit avec le cube (1), quand le cube est généré par le serveur maître (2), ou jamais (0). Voir également le chapitre suivant : "Utiliser le cluster".
  • Nom : CLUSTER_TIMEOUT
    Valeur : entier : (millisecondes, défaut: 30000)
    Description : Spécifie le timeout de toutes les requêtes intra-cluster (entre le maître et les esclaves), à l’exception de la requête de vérification de disponibilité d’un esclave (voir ci-dessous)
  • Nom : CLUSTER_CHECK_TIMEOUT
    Valeur : entier : (millisecondes, défaut: 5000)
    Description : Spécifie le timeout de la requête de vérification de disponibilité d’un esclave. Ce timeout est plus court pour empêcher de bloquer trop longtemps le maître dans le cas ou un esclave est déconnecté du réseau.

Utiliser le cluster

Dans un déploiement simple en mode cluster il n'y a rien à faire de plus que ce qui a été écrit précédemment.

Malgré tout, il y a certains détails intéressants qui peuvent aider à améliorer la performance d'un cluster.

Le cluster est utilisé en fonction de la taille du cubes de données. En dessous d'un certain seuil, dépendant du cube, de la machine maître et des esclaves, il est possible que le cluster ne soit pas utilisé. Par contre si la taille d'un ou plusieurs cubes de données devient importante, par exemple au delà de plusieurs centaines de millions de lignes, ceux-ci seront découpés en plusieurs parties et leur calcul (aplatissement) sera réparti en parallèle sur tous les processeurs disponibles du cluster pour diminuer le temps de réponse global. Et ceci pour chaque aplatissement d'un gros cube par un utilisateur du tableau de bord, du mobile, etc.

Il est à noter que la génération des cubes est de la responsabilité du serveur maître. Les esclaves n'interviennent que lors des aplatissements interactifs de cubes déjà générés (ex: affichage d'un flux, filtrage, drill...)

Les morceaux de cubes sont envoyés aux esclaves à la demande (s'ils ne les ont pas déjà). Ceci peut induire un ralentissement du système sur un premier aplatissement demandé par un utilisateur, notamment si la bande passante du réseau est faible (< 1 gigabit).

Il y a toutefois différents moyens d'éviter cet encombrement du réseau. Voici quelques suggestions :

Un premier moyen est de disposer du dossier cubes (sous-dossier de Application Data/Enterprise Server/ddenterpriseapi par défaut) sur un disque réseau accessible à toutes les machines du cluster. Par exemple via un lien symbolique (Linux, NFS). Ce lien devra être établi pour toutes les machines du cluster. Le principe est que le serveur maître générera les cubes dans ce dossier réseau, et lors de l'interaction d'un utilisateur avec le système, maître et esclaves auront tous une vue commune des cubes. La lecture des cubes du disque n'étant faite qu'une fois dans le cycle de vie d'un cube (cube in-memory), l'impact du dossier réseau sur les performances est négligeable.

Un autre moyen, est d'utiliser un outil tierce de synchronisation automatique de dossiers entre plusieurs machines, qui pourra copier l'ensemble du dossier cubes du serveur, après leur génération, vers les machines esclaves. Le principe est que le serveur maître générera les cubes dans son dossier local, puis l'outil de synchronisation copiera ce dossier sur toutes les machines esclaves. Tout ceci en dehors des périodes d'activité du serveur. Maître et esclaves auront tous une vue identique des cubes.

Autres réglages avancés

Changement du chemin des fichiers de données

Le chemin dans lequel DigDash Enterprise stocke les informations de configuration, les modèles de données, les portefeuilles d'information, les cubes, l'historique des flux et d'autres fichiers de travail se trouve par défaut dans le dossier de l'utilisateur du système d'exploitation, dans un sous dossier Application Data/Enterprise Server/<domaine>.

Par exemple sous Windows, ce dossier est :

C:\Users\<utilisateur>\AppData\Roaming\Enterprise Server\ddenterpriseapi

Dans certains cas il est souhaitable de modifier ce dossier, soit pour avoir plus d'espace de stockage disponible, soit pour des raisons d'organisation, de scripting, etc.

Il existe plusieurs moyen de modifier ce chemin.

Au niveau global (Tomcat):

Fichier à modifier : setenv.bat

La variable système optionnelle digdash.appdata permet de spécifier un dossier où DigDash Enterprise stockera ses fichiers de données.

Dans le fichier <DDE Install>/configure/setenv.bat ajouter la ligne:

@set CATALINA_OPTS=-Ddigdash.appdata=<chemin du nouveau dossier de données>

Important : Le chemin est interprété comme une variable Java, les séparateurs de dossiers doivent être des / et non des \ et ce même sous Windows. Il n'y a pas d'espace entre -D et digdash.appdata.
Cette méthode ne fonctionnera pas si Tomcat est installé en tant que service.

Si ce dossier n'existe pas, DigDash Enterprise le créé. Les données ne seront pas stockées directement dans ce dossier, mais dans un sous dossier <digdash.appdata>/Enterprise Server/<domaine>

Exemple:

Pour stocker les données Digdash Enterprise sur un autre disque dur que le disque système:

  1. Modifier <DDE Install>/configure/setenv.bat en ajoutant la ligne :
    @set CATALINA_OPTS=-Ddigdash.appdata=D:/digdashdata
  2. Relancer le serveur Tomcat
  3. Un dossier D:\digdashdata\Enterprise Server\ddenterpriseapi se créé et contiendra toute l'arborescence des données de DigDash Enterprise

Avantage : La configuration se faisant au niveau du script setenv.bat, elle ne sera pas écrasée lors de la mise à jour de DigDash Enterprise par déploiement de nouveaux fichiers WAR.

Inconvénient : Cette configuration est globale au Tomcat de DigDash Enterprise, donc tous les domaine DigDash Enterprise de ce serveur sont concernés. Cependant les données des différents domaines DigDash Enterprise déployés dans ce Tomcat ont bien leur sous-dossier propre, il n'y a aucun risque d'écrasement des données.

Au niveau d'un domaine (web.xml du contexte concerné):

Fichier modifié : web.xml (ddenterpriseapi)

La variable AppDataPath définie dans ce fichier (valeur vide par défaut) a le même comportement que la variable système décrite ci-dessus.

La différence est que ce paramétrage est spécifique à un domaine DigDash Enterprise.

Avantage : Configuration locale à un domaine

Inconvénient : La mise à jour de DigDash Enterprise par déploiement d'un nouveau fichier WAR écrasera cette configuration (web.xml est écrasé lors du déploiement du WAR).

Au niveau d'un domaine (fichier externe ddenterprise.properties):

Fichier modifié : ddenterpriseapi.properties

Ce fichier n’existe pas par défaut : lire le chapitre V.5 pour plus d’information sur les fichier properties.

La variable AppDataPath définie dans ce fichier a le même comportement que la variable système ou contexte décrite ci-dessus.

La différence est que ce paramétrage est spécifique à un domaine DigDash Enterprise et externalisée dans un fichier properties, et donc, non impacté par lors du déploiement du WAR mis à jour.

Avantages :

  • Configuration locale à un domaine
  • Fichier externe au WAR

Inconvénient : Il faut créer ce fichier.

Règlages LDAP (adswrapper) : Port et nom d'instance

Port Réseau du serveur LDAP (adswrapper)

Fichier modifié : web.xml (adswrapper) ou adswrapper.properties

La variable ads.ldap.port (valeur par défaut : 11389) défini le port réseau utilisé par le serveur LDAP intégré à DigDash Enterprise. Il faut changer cette valeur si elle est déjà utilisé par un autre process sur la machine, ou une autre instance LDAP (d'un autre domaine DigDash sur la même machine par exemple).

Chemin et nom d'instance LDAP (adswrapper)

Fichier modifié : web.xml (adswrapper) ou adswrapper.properties

La variable ads.instance.name (valeur par défaut : ldapdigdash) défini le chemin et le nom de l'instance de l'annuaire LDAP utilisé par DigDash Enterprise. Il faut changer cette valeur si deux domaines DigDash dans le même Tomcat veulent utiliser chacun leur propre instance LDAP.

Important : Cette variable sert aussi à définir le chemin du dossier contenant les données de l’instance LDAP. Si sa valeur est un chemin absolu sur le disque alors les données de l’instance seront stockées dans ce chemin.

Exemple : ads.instance.name=/path/to/ldapdigdash

Paramètres avancés de l'éditeur / viewer de tableaux de bord

Paramètres dashboard_system.xml ou digdash_dashboard.properties

Fichier modifié : dashboard_system.xml ou digdash_dashboard.properties

Ce fichier se trouve dans le dossier <utilisateur>/Application Data/Enterprise Server/dashboard_system.xml. Par défaut ce fichier n'existe pas, il faudra donc le créer. C'est un fichier XML au format suivant :

<SystemProperties>
   <Property key="<nom paramètre>" value="<valeur paramètre>"/>
   <Property key="<nom paramètre>" value="<valeur paramètre>"/>
   <Property key="<nom paramètre>" value="<valeur paramètre>"/>
</SystemProperties>

Note : Tous ces paramètres peuvent également être spécifié dans <DDE Install>/apache-tomcat/webapps/digdash_dashboard/WEB-INF/web.xml ou un fichier digdash_dashboard.properties si spécifié (voir chapitre V.5)

Paramètres disponibles :

  • Nom : SERVERURL
    Valeur : URL du serveur DigDash Enteprise
    Description : URL du serveur sur lequel le tableau de bord doit se connecter en priorité.
  • Nom : DOMAIN
    Valeur : Nom du domaine DigDash Enterprise
    Description : Nom du domaine sur lequel le tableau de bord doit se connecter en priorité.
  • Nom : FORCESERVERURL
    Valeur : Booléen (défaut : false)
    Description : Utilisé avec le paramètre SERVERURL. Force le serveur sur lequel le tableau de bord se connecte. L'utilisateur ne peut pas choisir un autre serveur.
  • Nom : FORCEDOMAIN
    Valeur : Booléen (défaut : false)
    Description : Utilisé avec le paramètre DOMAIN. Force le domaine sur lequel le tableau de bord se connecte. L'utilisateur ne peut pas choisir un autre domaine.
  • Nom : GRIDSIZEEDITOR
    Valeur : Entier (défaut: 10)
    Description : Taille en pixel de la grille magnétique d'édition du tableau de bord.
  • Nom : THEME
    Valeur : Nom du thème (défaut: vide)
    Description : Nom du thème par défaut utilisé pour les utilisateur n'ayant pas de thème spécifique spécifié.
  • Nom : urlLogout
    Valeur : URL
    Description : Spécifie une URL de sortie vers laquelle est redirigé l’utilisateur après une déconnexion du tableau de bord. Voir le paragraphe « Redirection lors de la déconnexion du tableau de bord ».
  • Nom : CANCHANGEPASSWORD
    Valeur : Booléen (défault : false)
    Description : Permet l’activation d’un hyperlien « Mot de passe perdu » dans la page de login du tableau de bord. Cet hyperlien envoie un code de réinitialisation par émail à l’utilisateur. Voir paragraphe « Activation de la fonctionnalité de réinitialisation du mot de passe »

Exemple de fichier digdash_dashboard.properties :

SERVERURL=http://localhost:8080
FORCESERVERURL=true
DOMAIN=ddenterpriseapi
FORCEDOMAIN=true
GRIDSIZEEDITOR=15
THEME=Flat
CANCHANGEPASSWORD=true

Exemple de fichier dashboard_system.xml :

<SystemProperties>
<Property key="SERVERURL" value="http://localhost:8080"></Property>
<Property key="FORCESERVERURL" value="true"></Property>
<Property key="DOMAIN" value="ddenterpriseapi"></Property>
<Property key="FORCEDOMAIN" value="true"></Property>
<Property key="GRIDSIZEEDITOR" value="15"></Property>
<Property key="THEME" value="Flat"></Property>
<Property key="CANCHANGEPASSWORD" value="true"></Property>
</SystemProperties>

Redirection lors de la déconnexion du tableau de bord

Vous pouvez spécifier une URL qui sera affichée dans le navigateur quand l'utilisateur se déconnecte du tableau de bord (bouton Déconnexion).

Fichier modifié : web.xml (digdash_dashboard), digdash_dashboard.properties ou dashboard_system.xml

Modifier la valeur du paramètre urlLogout comme dans l'exemple suivant. Par défaut la valeur est vide, signifiant un retour à la page d'authentification du tableau de bord :

Dans web.xml (digdash_dashboard) :

<init-param>
<param-name>urlLogout</param-name>
<param-value>http://www.digdash.com</param-value>
</init-param>

Les URLs relatives sont autorisées, par rapport à l'url de index.html de l'application digdash_dashboard :

<init-param>
<param-name>urlLogout</param-name>
<param-value>disconnected.html</param-value>
</init-param>

Si digdash_dashboard.properties (chapitre V.5) est utilisé, il faudra écrire :

urlLogout=disconnected.html

Enfin, vous aussi pouvez modifier cette valeur dans le fichier dashboard_system.xml :

<Property key="urlLogout" value="disconnected.html"></Property>

Activation de la fonctionnalité de réinitialisation de mot de passe

Vous pouvez activer la fonctionnalité de réinitialisation de mot de passe perdu. Cette fonctionnalité affiche un hyperlien « Mot de passe oublié » dans la page de login du tableau de bord qui envoie à l’utilisateur un émail contenant un code de réinitialisation de son mot de passe. Ensuite l’utilisateur est redirigé vers une interface de réinitialisation pour saisir ce code et un nouveau mot de passe.

Fichier modifié : web.xml (digdash_dashboard), digdash_dashboard.properties ou dashboard_system.xml, et page de Configuration des serveur DigDash

Prérequis sur le serveur DigDash :

  • La fonctionnalité doit être aussi activée via la page de Configuration des serveurs / Avancé / Divers / Autoriser la réinitialisation de mot de passe
  • Un serveur émail valide doit être configuré dans la page Configuration des serveurs / Avancé / Serveur émail système
  • Les utilisateurs doivent avoir une adresse émail valide dans le champ LDAP digdashMail

L’activation de la fonction coté tableau de bord se fait en passant la variable CANCHANGEPASSWORD à la valeur true

Dans web.xml (digdash_dashboard) :

<init-param>
<param-name>CANCHANGEPASSWORD</param-name>
<param-value>true</param-value>
</init-param>

Si digdash_dashboard.properties (chapitre V.5) est utilisé, il faudra écrire :

CANCHANGEPASSWORD=true

Enfin, vous pouvez aussi modifier cette valeur dans le fichier dashboard_system.xml :

<Property key="CANCHANGEPASSWORD" value="true"></Property>

Optionnel : Customisation de l’émail du code de réinitialisation

Le sujet et le corps de l’émail du code de réinitialisation peuvent être customisés de la manière suivante :

  1. Démarrer le Studio DigDash
  2. Menu Outils / Gestionnaire de traductions...
  3. Clic-droit sur la section GLOBAL puis Ajouter…

Nom de la clé : LostPasswordMailSubject

Saisir le sujet de l’émail dans les langues qui vous intéressent.

  1. Clic-droit sur la section GLOBAL puis Ajouter…

Nom de la clé : LostPasswordMailText

Saisir le corps de l’émail dans les langues qui vous intéressent. Attention le corps de l’émail doit contenir au moins le mot-clé ${code} qui sera substitué par le code de réinitialisation. Un autre mot-clé disponible est ${user}.
Nous déconseillons d’indiquer trop d’informations dans cet émail, c’est pourquoi dans le message par défaut nous n’indiquons que le code de réinitialisation.

Paramètres avancés spécifiques à la fonctionnalité de réinitialisation de mot de passe

Fichier modifié : system.xml

Exemple de syntaxe XML :

<Property key="PROP_RESET_PASS_HASH" value="dfrj65433lkloss!00"></Property>

Paramètres disponibles :

  • Nom : PROP_RESET_PASS_HASH
    Valeur : Chaîne non vide (défaut : aléatoire)
    Description : Spécifie le code sel à utiliser pour la génération du code de réinitialisation de mot de passe. Par défaut cette chaîne est aléatoire, générée au lancement du serveur. Vous pouvez spécifier une chaîne de caractère qui sera utilisée par l’algorithme de génération du code de réinitialisation. Ceci peut-être utile si vous avez plusieurs serveurs (load-balancing HTTP) et pour qu’un code généré sur un serveur soit utilisable sur un autre.
  • Nom : PROP_RESET_PASS_VALIDITY
    Valeur : entier positif (défaut : 1)
    Description : Spécifie la durée de validité minimale du code par tranche de 10 minutes. Une valeur de 1 donne une validité du code entre 10 et 20 minutes, une valeur de 2 entre 20 et 30 minutes, etc. La validité est importante pour minimiser les risques de vol de code à postériori.
  • Nom : PROP_RESET_PASS_LENGTH
    Valeur : entier positif (défaut : 10)
    Description : Spécifie la longueur du code de réinitialisation. Une valeur trop faible est sujette aux tentatives d’attaques dites de force brute. Une valeur trop importante est sujette à des erreurs de saisie de la part des utilisateurs.

Réglages de sécurité internes

Des réglages sur les mécanismes de protection intégrés à DigDash sont possibles. Vous pouvez vous référer au document Réglages de sécurité avancés.

Externalisation des paramètres dans des fichiers properties

Il est possible de spécifier les paramètres situés dans un fichier web.xml dans un fichier texte externe au format properties.

Ceci permet de pré-configurer des paramètres des applications web, parmi ceux listés dans ce document, avant de déployer les applications web. Ou encore de s’assurer que les paramètres ne seront pas écrasés lors d’une mise à jour des applications web de DigDash Enterprise.

Ces fichiers .properties sont ensuite mentionnés dans la ligne de commande de lancement de tomcat ou placés dans le répertoire de travail de tomcat.

Par exemple on peut créer un fichier digdash_dashboard.properties contenant les lignes suivantes :

SERVERURL=http://localhost:8080
FORCESERVERURL=true

Et un fichier ddenterpriseapi.properties :

AppDataPath=/path/to/digdash_appdata

Important : Le caractère anti-slash « \ » doit être doublé dans le fichier .properties. Exemple : AppDataPath=C:\\path\\to\\digdash_data

Il y a deux manières existantes pour que ces fichiers soient pris en compte au lancement de tomcat :

  • Implicite : Les fichiers .properties doivent être nommés de la même manière que les web application qu’ils concernent (Ex. ddenterpriseapi.properties, digdash_dashboard.properties ou adswrapper.properties). Ces fichiers doivent être placés dans le répertoire de travail de tomcat (qui dépend de votre installation tomcat)
  • Explicite : La ligne de commande de tomcat doit contenir les paramètres :
    -Dddenterpriseapi.properties.path="/path/to/ddenterpriseapi.properties"
    -Ddigdash_dashboard.properties.path="/path/to/digdash_dashboard.properties"
    -Dadswrapper.properties.path="/path/to/adswrapper.properties"
    -Dadminconsole.properties.path="/path/to/adminconsole.properties"
    Spécifier les paramètres de journalisation (logging) log4j.properties :

Les paramètres de logging sont définis dans un fichier log4j.properties disponible dans chaque application web déployée.

Nous avons ajouté des options sur la ligne de commande de tomcat pour permettre de spécifier des fichiers de paramétrage de logging externalisés :

-Dddenterpriseapi.ddlog4j.properties.path="/path/to/log4j.properties"
-Ddigdash_dashboard.ddlog4j.properties.path="/path/to/log4j.properties"
-Dadswrapper.ddlog4j.properties.path="/path/to/log4j.properties"

Vous pouvez aussi spécifier l’emplacement du fichier de log (global) sans avoir besoin de spécifier un fichier log4j.properties :

-Dlog4j.appender.R.File="/home/ddapi.log"

Paramètres du Studio (JNLP + stand alone)

Le Studio DigDash Enterprise a aussi quelques paramètres optionnels spécifiés dans un fichier adminconsole.properties à placer au même endroit que les autres fichiers properties de DigDash Enterprise, ou à spécifier dans la ligne de commande Tomcat :

-Dadminconsole.properties.path="/path/to/adminconsole.properties"

Liste des paramètres :

  • Nom : ddserver
    Valeur : URL du serveur DigDash Enterprise (défaut : vide)
    Description : Spécifie l’URL du serveur auquel le Studio se connectera. Si non spécifié, le Studio utilisera le serveur de l’URL du fichier JNLP.
  • Nom : domain
    Valeur : Nom du domaine DigDash Enterprise
    Description : Spécifie le nom du domaine DigDash Enterprise auquel le Studio se connectera. Si non spécifié, le Studio utilisera le domaine spécifié dans la page d’accueil de DigDash Enterprise.
  • Nom : forceServerDomain
    Valeur : Booléen (défaut : false)
    Description : Indique au Studio que l’URL du serveur et le domaine sont modifiables (false) ou non (true) via le bouton Avancé dans la fenêtre de login du Studio. Si ce paramètre est activé, il est conseillé de spécifier les paramètres ddserver et domain.
  • Nom : dashboard
    Valeur : Nom de l’application tableau de bord
    Description : Permet de spécifier le nom du de l’application du tableau de bord. Si non spécifié, le Studio utilisera le nom d’application spécifié dans la page d’accueil de DigDash Enterprise, par exemple « digdash_dashboard ».
  • Nom : authMode
    Valeur : Mode d’authentification du Studio (défaut : « default »)
    Description : Mode d’authentification spécifique du Studio. Il faut que le serveur DigDash Enterprise reflète un mode d’authentification compatible (variable authMethod dans la configuration du serveur) : Consulter les documentations des add-ons liés à l’authentification et au SSO. Les valeurs possibles sont : « default », « NTUser », « NTUserOrLDAP » et « NTUserOrLDAP,loginForm ».
  • Nom : sslNoPathCheck
    Valeur : Booléen (défaut : false)
    Description : Utilisé dans le cadre d’une connexion HTTPS. Indique au Studio de ne pas vérifier le chemin de certification du certificat de sécurité. Utilisé pour tester une configuration SSL avec un certificat auto-signé. Ce setting n’est pas conseillé en production.
  • Nom : sslNoHostNameCheck
    Valeur : Booléen (défaut : false)
    Description : Utilisé dans le cadre d’une connexion HTTPS. Indique au Studio de ne pas vérifier le nom de domaine Internet. Utilisé pour tester une configuration SSL avec un certificat auto-signé. Ce setting n’est pas conseillé en production.
  • Nom : maxHeapSize
    Valeur : Quantité mémoire (défaut : en fonction de la JVM du poste client)
    Description : Spécifie la quantité de mémoire du poste client allouée au Studio. La syntaxe est <quantité><unité>, où l’unité est une lettre « m » (mégaoctets) ou « g » (gigaoctets). Exemple : maxHeapSize=2048m

Important : Il est préférable de ne mettre dans le fichier adminconsole.properties que les paramètres dont vous voulez spécifier des valeurs différentes des valeurs par défaut.

Dossiers de données DigDash Enterprise

DigDash Enterprise stocke les données dans différents dossiers. Ce chapitre résume ces dossiers et liste les moyens de les modifier.

Données de configuration

Localisation (par défaut) : Dossier « Application Data » de l’utilisateur qui lance Tomcat (Windows), ou dossier de l’utilisateur (linux).

Contenu : Sous-dossiers contenant les modèles de données, tableaux de bords, portefeuilles de flux, formats, formules, scripts, styles, chaînes de connexions, etc :

  • config : données de configuration communes, données de configuration des rôles, sauvegardes, et dossiers web customisés
  • datasources : fichiers du serveur de document par défaut
  • server : données de configuration des utilisateurs : portefeuille, modèle de données et tableaux de bord personnels, et serveur de documents personnalisé

Modification : web.xml (ddenterpriseapi), ddenterpriseapi.properties, setenv.bat ou ligne de commande Tomcat 

Note : La volumétrie des données générées peut-être importante notamment à cause des sous-dossiers cubes et history. Il est conseillé de placer ce dossier sur un disque disposant d’un quota d’espace important.

Données générées

Localisation : Sous dossiers cubes et history du dossier de données de configuration.

Contenu : Cubes, historiques de flux :

  • cubes : sous-dossiers des cubes générés (un par modèle de données).
  • history : historique de tous flux, fichiers javascripts générés (modèle de données, vues de flux).

Modification : Impossible directement. Il faut modifier la localisation du dossier parent (Données de configuration), ou créer des liens.

Important : La volumétrie des données générées peut-être importante. Il est conseillé de placer le dossier parent (Données de configuration) sur un disque disposant d’un quota d’espace important.

Note : Les dossiers cubes et history peuvent être supprimés pour nettoyage (serveur Tomcat stoppé). Ils seront recréés et les données rafraîchies à nouveau par l’ordonnanceur, ou par l’envoi d’un événement de rafraîchissement.

Données LDAP

Localisation (par défaut) : répertoire de travail de Tomcat (« workdir »).

Contenu : Fichiers de la partition LDAP contenant les définitions des utilisateurs, des rôles et des droits DigDash

Modification : web.xml (adswrapper), adswrapper.properties (voir le chapitre V.2) ou ligne de commande Tomcat

  • web.xml : voir chapitre V.2
  • adswrapper.properties : voir chapitre V.2
  • Ligne de commande Tomcat : 
    -Dads.instance.name="/path/to/ldapdigdash"

Base de données DDAudit

Localisation (par défaut) : 

Contenu : Fichier de base de données (H2) contenant les tables des données DDAudit.

Modification : web.xml (ddenterpriseapi), ddenterpriseapi.properties ou ligne de commande Tomcat (Voir également la documentation de déploiement DDAudit)

  • web.xml (ddenterpriseapi) :
    <context-param>
     <param-name>audit.db.url</param-name>
     <param-value>jdbc:h2:/path/to/DDAudit_${server.DomainName};AUTO_SERVER=TRUE</param-value>
    </context-param>
  • ddenterpriseapi.properties :
  • Ligne de commande Tomcat :

Fichiers de journalisation (log)

Localisation (par défaut) : Fichier de log des modules de DigDash Enterprise (ddenterpriseapi, digdash_dashboard, adswrapper). Le nom est ddenterpriseapi.log par défaut.

Contenu : log applicatif

Modification : log4j.properties (toutes les webapps) ou ligne de commande Tomcat (voir chapitre V.5)

Note :Éditer le fichier log4j.properties permet aussi de changer le format des logs.