Nous sommes tous conscients de la rapidité avec laquelle la technologie évolue.
De nouveaux outils et services apparaissent chaque jour, nous offrant plus de contenu que nous pouvons probablement consommer.
Cette « tendance » n’est en fait pas une tendance mais la façon habituelle dont les choses se déroulent. Tant que nous restons concentrés sur ce que nous essayons de réaliser, nous pouvons même tirer un grand profit de ces « révolutions » que nous rencontrons sans cesse.
Néanmoins, la plupart d’entre nous (y compris votre serviteur) n’abandonnent jamais complètement l’ancienne « approche héritée » qui, d’une certaine manière, a donné le ton et a jeté les bases, depuis des années, de bon nombre des nouvelles approches que nous utilisons aujourd’hui.
La seule vraie question est de savoir comment nous pouvons tirer parti du progrès et combiner des approches plus récentes et plus avancées avec des approches héritées pour faciliter nos tâches organisationnelles et accélérer les processus afin que nous puissions devenir plus efficaces dans l’accomplissement de notre travail.
Le scénario
Imaginons par exemple que votre entreprise dispose d’un grand nombre de numéros de pièces stockés dans un entrepôt et que votre contrôleur des stocks doive exécuter un rapport hebdomadaire de recommandation MRP à l’aide du module MRP de SAP Business One.
Cependant, même si je ne vais pas aborder les concepts de MRP dans ce blog (il serait peut-être utile que je le fasse prochainement …), ceux d’entre vous qui utilisent réellement le module MRP savent déjà que pour obtenir une fiable Rapport de recommandation MRPIl est donc impératif que vos prévisions MRP soient régulièrement entretenu dans SAP Business One – en particulier lorsque les prévisions de vente changent constamment.
Potentiellement, votre contrôleur des stocks devra revenir aux prévisions MRP dans SAP Business One et modifier les valeurs prévues pour chacun de vos UGS/emplacements de stockage.
L’utilisation de certains des outils experts proposés par SAP Business One pourrait vous aider à y parvenir plus rapidement. Toutefois, ces outils sont conçus de telle manière qu’ils nécessitent une connaissance approfondie des schémas de tables de SAP Business One et peuvent entraîner de graves dommages s’ils sont mal gérés.
Et pour rendre les choses un peu plus intéressantes, je vais ajouter un autre niveau de complexité au scénario d’entreprise – supposons que les valeurs prévisionnelles ne sont PAS générées dans SAP Business One mais sont extraites dans un « Flat File » (*.CSV) à partir d’autres systèmes SAP/Non-SAP, tels que SAP-ECC ou même un système SAP S/4HANA ou peut-être une interface web que vous utilisez. Supposons que votre contrôleur d’inventaire souhaite simplement déposer ce fichier de sortie dans son système de fichiers local, sachant qu’il sera pris en charge en arrière-plan par un processus automatisé qui poussera ces valeurs au bon endroit dans SAP Business One – s’assurant ainsi que son Rapport sur les recommandations de la PRM prend en compte les dernières modifications apportées aux valeurs de vente prévues et il peut poursuivre sa journée en accomplissant d’autres tâches.
Cela semble difficile ? Ce n’est pas du gâteau, mais c’est tout à fait faisable avec les outils que Microsoft Azure et l’incroyable Power Platform ont à nous offrir.
Comment cela pourrait être réalisé
La première chose à comprendre est que notre système de fichiers local (On-Premises Data Source) doit pouvoir « parler » à Azure et que ce dernier doit pouvoir « écouter » notre structure de dossiers locale.
Pour ce faire, vous pouvez installer et configurer la « Passerelle de données sur site » sur votre machine locale.
La passerelle de données sur site joue le rôle de « pont ».
Il permet un transfert rapide et sécurisé des données entre les données sur site, c’est-à-dire les données qui ne sont pas dans le nuage, et plusieurs services en nuage de Microsoft sur Azure, pour lesquels Microsoft a des connecteurs prédéfinis.
Le diagramme suivant illustre le fonctionnement de la passerelle de données sur site et vous permet de voir l’architecture sous-jacente :
La première étape consiste donc à télécharger et à installer la passerelle On-Premises. Sachez que Microsoft publie chaque mois une nouvelle mise à jour pour les passerelles de données.
Microsoft fournit une documentation assez soignée sur la manière d’installer et de configurer la passerelle, je n’entrerai donc pas dans une spécification étape par étape ici. Mais nous allons couvrir les bases et aussi quelques-unes de MES PROPRES meilleures pratiques alors que je travaillais sur certaines de mes solutions.
Vous pouvez trouver toute la documentation ici :
- Qu’est-ce qu’une passerelle de données sur site ?
- Architecture de la passerelle de données sur site
- Installer une passerelle de données sur site
Quelques bonnes pratiques lors de l’installation de l’instance de la passerelle sur votre machine locale :
1. utiliser une clé de restauration – on ne sait jamais quand l’option de restauration peut s’avérer utile, et au lieu de recréer l’instance, vous pouvez la récupérer assez facilement.
2. Veillez à créer également une instance de passerelle sur Azure.
3. Si vous avez correctement configuré la passerelle, vous devriez pouvoir voir que la ressource est disponible pour vous :
4. Une fois l’installation de la passerelle sur site terminée, elle aura son propre nom de service par défaut (compte) :
Nous voudrions changer ce compte pour qu’il pointe vers l’utilisateur local sur la machine où la passerelle a été installée, de préférence un compte d’administrateur.
Note importante : n’utilisez pas le compte Administrateur local – il doit être désactivé et remplacé par un autre compte membre du groupe admins local sur le serveur. Le compte de l’administrateur local est le premier visé par les pirates informatiques en cas d’atteinte à la protection des données.
Une fois que vous avez cliqué sur « Changer de compte », une boîte de dialogue vous propose de redémarrer la passerelle, ce qui réinitialisera ses informations d’identification :
Vous avez maintenant deux options :
- La première consiste à ouvrir l’invite de commande et à taper « WHOAMI » pour obtenir l’utilisateur local de la machine.
- Le moyen le plus sûr est de naviguer dans les Propriétés du système et de saisir le « Nom du périphérique », qui est en fait le « nom de l’ordinateur » qui sert de « nom de domaine local » :
Si tout s’est bien passé, vous devriez pouvoir vous connecter au nouveau nom de service et voir les changements appliqués :
5. Veuillez noter que la machine doit rester connectée à Internet en permanence si vous avez l’intention de l’utiliser comme une source de données qui « parle » constamment à Azure et échange des informations.
S’il est possible que cette instance de passerelle devienne indisponible à un moment donné, vous pouvez envisager d’ajouter cette instance de passerelle à un « cluster » lorsque la haute disponibilité est nécessaire.
6. Le nom d’utilisateur que vous utilisez pour installer la passerelle de données sur site doit être un utilisateur local de la machine – ce qui signifie que vous ne pouvez pas utiliser les utilisateurs du cloud (comme Azure AD, M365) pour déclencher le flux – même si cet utilisateur est celui que vous utilisez pour vous connecter à votre machine. Je recommanderais d’activer « Administrator » ou de configurer un autre utilisateur local avec des privilèges administratifs.
Maintenant que nous avons établi la connexion entre notre système de fichiers local et Azure, nous pouvons passer à l’étape suivante : créer la logique nécessaire pour permettre la mise à jour des valeurs prévisionnelles MRP dans SAP Business One.
Dans ce cas, la meilleure approche serait de créer une Logic App qui « écoute » votre dossier local mappé (nous couvrirons cela bientôt) de sorte que chaque fois qu’un nouveau fichier est déposé dans ce dossier, notre flux est déclenché.
Cette approche, qui consiste à réagir aux événements au lieu d’interroger périodiquement le dossier, garantit moins d’exécutions, ce qui réduit les frais liés à la consommation (en particulier si vous utilisez les applications logiques « consommation » et non les applications « standard »). Azure Logic Apps offre un ensemble complet de connecteurs intégrés pour gérer notre système de fichiers local.
Pour notre scénario, nous devrions commencer par deux :
- Le « déclencheur » – ce connecteur « écoute » notre dossier local – « Lorsqu’un fichier est créé (propriétés uniquement) ».
- L' »action » – ce connecteur récupère le contenu actuel de notre fichier (contenu délimité par des virgules) – » Obtenir le contenu du fichier ».
Avant de pouvoir les utiliser, une connexion à notre passerelle de données sur site doit être établie :
Une fois la connexion authentifiée, nous pouvons commencer à utiliser le déclencheur et l’action.
Le déclencheur, comme son nom l’indique, ne sera déclenché que lorsqu’un nouveau fichier sera déposé dans le dossier local que nous avons cartographié – ce fichier contiendra les valeurs prévisionnelles que nous souhaiterions mettre à jour dans SAP Business One.
La structure du fichier, qui contient les valeurs prévisionnelles, pourrait ressembler à ce qui suit :
Je suggérerais également, pour les solutions productives, de réfléchir à une convention d’appellation pour ce fichier et d’ajouter une logique qui vérifie que la convention d’appellation est respectée. Cela évitera de déclencher le flux chaque fois que quelqu’un dépose « un fichier » dans ce dossier. Je reviendrai sur cette logique plus loin dans ce blog.
En supposant que nous nous soyons connectés avec succès à notre passerelle et que nous l’ayons activée, nous devrions pouvoir déposer un fichier CSV dans le dossier et vérifier si notre Logic App reconnaît le nouvel événement.
Si vous l’avez configuré correctement, vous devriez voir ce qui suit sous « Historique des déclencheurs » :
Et puis d’avoir un aperçu de la course de Logic App :
Comme vous pouvez le voir, le contenu de notre fichier CSV est maintenant récupéré par l’action « Get_file_content ».
Si, pour une raison quelconque, vous constatez que la création du nouveau fichier n’est pas reconnue par votre application Logic, essayez de vérifier votre section « Connexion API » dans votre application Logic pour voir si vous avez correctement mappé le chemin d’accès au fichier et fourni toutes les informations d’identification nécessaires pour qu’il se connecte avec succès à votre système de fichiers local via la passerelle :
Récapitulatif de l’intégration de vos systèmes de fichiers locaux avec SAP Business One et Microsoft Azure – Partie 1
- Nous avons abordé certains concepts de base des approches « anciennes » et la nécessité d’intégrer des systèmes de fichiers locaux à nos solutions pour lire/écrire des données depuis/vers notre système SAP Business One.
- Nous avons proposé un scénario dans lequel les valeurs prévisionnelles d’un grand nombre d’éléments doivent être mises à jour régulièrement dans SAP Business One avec un minimum d’effort, alors que les données sources pourraient être un autre systèmetiers SAP/non-SAP.
- Nous avons également abordé les concepts de base de l’installation et de la configuration de la passerelle de données sur site pour générer la connectivité entre n’importe quelle machine locale et Azure Logic Apps.
- Nous avons testé l’événement « création de fichier » pour voir si notre application logique pouvait l’identifier et récupérer le contenu du fichier.
À quoi s’attendre lors de l’intégration de vos systèmes de fichiers locaux avec SAP Business One et Microsoft Azure – Partie 2
- Ajout d’une validation au nom du fichier pour filtrer les fichiers indésirables déposés dans notre dossier, ce qui déclenche notre application logique.
- Conversion du contenu du fichier en un corps JSON lisible avec lequel nous pouvons travailler
- Conversion des numéros de semaine en dates représentant le premier jour ouvrable de la semaine où une prévision peut être gérée pour un poste. En effet, la couche de service de SAP Business One ne peut accepter que des dates lors de l’invocation de la mise à jour des prévisions hebdomadaires, contrairement à l’interface utilisateur B1.
- Générer la charge utile pour les prévisions et intégrer la génération des prévisions dans notre solution
- Couvrir quelques concepts de gestion des erreurs
Consultez la page du blog de SAP Business One Community pour la deuxième partie !
Laisser un commentaire
Vous devez être identifié pour poster un commentaire.