Transformation Digitale Archives – Nativio https://nativio.net/categorie/transformation-digitale/ Fri, 10 Sep 2021 08:34:37 +0000 fr-FR hourly 1 https://wordpress.org/?v=5.9.5 https://nativio.net/wp-content/uploads/2018/05/cropped-icon-final-32x32.png Transformation Digitale Archives – Nativio https://nativio.net/categorie/transformation-digitale/ 32 32 Qu’est-ce que le scraping et quel est son intérêt ? https://nativio.net/scraping-intro/ https://nativio.net/scraping-intro/#disqus_thread Thu, 09 Sep 2021 08:19:09 +0000 https://nativio.net/?p=2295 Le scraping définit l’extraction automatisée d’information depuis une source de données. Imaginez que

L’article Qu’est-ce que le scraping et quel est son intérêt ? est apparu en premier sur Nativio.

]]>
Le scraping définit l’extraction automatisée d’information depuis une source de données.

Imaginez que vous souhaitiez enregistrer et classifier le catalogue e-commerce d’un concurrent : le seul accès que vous ayez au catalogue de votre concurrent est via votre navigateur.

Si vous voulez suivre l’évolution dans le temps du prix de certains produits, vous devez vous rendre régulièrement sur la page du produit et noter le prix quelque part pour suivre son évolution.

Le scraping permet d’extraire ce prix de manière automatisée.

Dans cet article, vous en apprendrez suffisamment sur le scraping pour comprendre l’intérêt qu’il peut avoir pour votre projet : après avoir définit plus précisément son contexte d’utilisation, nous présenterons certains outils et cas d’usage qui vous permettront d’envisager des usages pertinents dans votre situation.

Le scraping : l’automatisation de l’extraction de données

Robot reading

Certaines applications sont faites pour distribuer leur information sous un format exploitable programmatiquement. Celles-ci présentent des APIs — Application Programming Interface — qu’il suffit d’interroger afin d’extraire la donnée de manière exploitable.

D’autres sont faites pour présenter l’information dans un contexte donné : le plus souvent lors de la navigation sur leur site.

Prenons LeBonCoin, un site de petites annonces bien connu. De nombreuses informations intéressantes commercialement sont présentes sur le site.

Par exemple vous pourriez être intéressé par l’analyse du prix de revente de vos produits sur le marché de l’occasion, et donc vouloir collecter les prix et descriptifs d’annonce répondant à certains critères.

Si LeBonCoin présentait une API publique permettant de récupérer ces informations par des outils tiers, alors LeBonCoin :

  • verrait son nombre d’utilisateurs baisser puisque de nombreux outils ou sites reprendraient les informations alors disponibles, permettant aux visiteurs d’accéder à l’information ailleurs que sur leur site
  • ne pourrait plus vendre ses publicités ou options de mise en valeur puisqu’il s’agit essentiellement d’éléments de design qui perdent leur efficacité si on n’extrait que le prix et la description de l’item en vente et qu’on ne « surf » pas sur leur site
  • tout en perdant ses visiteurs et donc une partie de leur revenus, verraient leurs serveurs web de plus en plus sollicités car les outils tiers solliciteraient leur base de données

Pubs LeBonCoin

Le business model de LeBonCoin repose sur les pubs et mises en valeur graphiques que voient les visiteurs de leur site

LeBonCoin n’a donc pas intérêt à présenter une API publique et vous donner libre accès à sa donnée. Ils ont aussi tout intérêt à se prémunir du scraping puisque celui-ci revient à se créer un accès à la donnée de manière programmatique, en somme à créer sa propre API pour un site n’en proposant pas.

Dans ce cas, le scraping est souvent contraire aux conditions générales d’utilisation et vous risquez de vous voir refuser l’accès au site et ses informations si vous n’êtes pas prudents.

C’est pourquoi le scraping est bien souvent une discipline assez technique. Il faut non-seulement de bonnes connaissances en programmation afin de permettre l’extraction de données mais il faut aussi une certaine capacité à tromper les diverses sécurités en place pour déjouer l’extraction automatisée.

Pour déjouer ces sécurités, le plus simple et le plus utilisé est souvent la simulation d’un comportement humain : personne ne lit 30 pages à la secondes sur un site d’annonces. Insérer des temps de pause, simuler des clics, simuler différents navigateurs Internet, passer depuis différentes adresses, …

Avant d’entreprendre toute démarche de scraping, veuillez lire attentivement les Conditions Générales d’Utilisation des sources de données que vous souhaitez exploiter.

Vérifiez les notions de fair usage, limitant parfois les quantités de requêtes que vous pouvez effectuer sur un site, ou bannissant des fois complètement l’usage d’outils d’automatisation.

En résumé, le scraping permet d’extraire de l’information de manière automatisée et structurée pour la traiter ou l’afficher d’une manière que la source donnée ne permet pas. Cette discipline nécessite une bonne connaissance des outils d’extraction mais aussi dans bien des cas des sécurités en place pour détecter l’extraction afin de pouvoir les déjouer.

Outils d’extraction de données automatisés

Le scraping est de plus en plus utilisé, de ce fait de nombreux outils se sont développés permettant de démocratiser et simplifier l’usage de ces techniques.

Plus ces outils permettent une prise en main facile, plus ils sont spécialisés — se concentrent sur certaines sources de données — et bien souvent payants.

En revanche, pour une utilisation sur-mesure et à condition d’avoir accès à un prestataire ou un développeur ayant des connaissances en scraping, de nombreux outils et librairies de programmations sont disponibles en Open Source.

Outils d’extraction spécialisés

Certains outils permettent l’extraction de manière spécialisée : ils permettent d’extraire la donnée d’un site en particulier.

Ces outils sont souvent simples à prendre en main et permettent une extraction rapide de la donnée disponible sur ces sites.

Par exemple, l’outil Dux Soup — entre autre — l’extraction d’informations de contact sur les profils disponibles sur LinkedIn.

En quelques clics, vous pouvez installer l’extension dans votre navigateur Chrome et lancer une extraction.

Durant cette extraction, Dux Soup simulera l’interaction d’un utilisateur humain en insérant des temps de pause aléatoire de manière à ne pas faire suspendre votre compte.

Outils hybrides

Scraping avec Import.io

Extraction de prix avec Import.io

Il existe ensuite des outils que nous qualifierons “d’hybrides” qui ne sont ni spécialistes — puisqu’ils permettent d’extraire des données de plateformes différentes — ni complètement généralistes puisqu’ils ne sont pas aussi flexibles qu’un programme que l’on crée et configure sur mesure pour une source de données très spécifique.

Ces outils mettent à disposition les serveurs et l’infrastructure sur laquelle s’exécutera les outils de scraping. Cela simplifie le travail des scrapers qui n’ont plus besoin de maintenir des serveurs en place, acheter des proxys pour camoufler leurs adresses IPs et ne pas se faire repérer, etc.

Parmi ces solutions, on retrouve des produits comme Import.io. L’outil permet une configuration assez intuitive de l’extraction en sélectionnant visuellement les champs de données à acquérir.

Import.io va ensuite fonctionner de manière périodique pour extraire les informations et vous les restituer de manière normalisée et exploitable.

Recettes PhanomBuster

Les « recettes » de PhantomBuster

Bien d’autres outils existent — et apparaissent tous les jours. Une mention spéciale pour PhantomBuster qui permet non seulement l’usage de “recettes” : des configurations pré-programmées permettant la mise en place de leviers de croissance allant plus loin que le scraping, tout en permettant un accès assez poussé à la programmation des outils qu’il met à disposition.

Librairies de programmation

Enfin, dans de nombreux cas des problématiques de performance et de coût amènent les entreprises à faire développer leurs propres scrapers.

On s’abstrait alors du coût variable lié à la volumétrie que présente la plupart des SaaS et on peut optimiser bien plus finement le comportement de ses extracteurs de données.

En ayant un contrôle total sur le programme d’extraction, on peut ajuster la performance — vitesse et fréquence d’extraction, quantité de données extraites, etc. — ainsi que la discrétion de l’outil — création de comportements aléatoires, utilisation de multiples adresses pour brouiller les pistes, etc.

Là encore, des outils viennent aider les développeurs. Des librairies de programmation permettent la simplification de l’extraction de données.

Ce sont bien souvent les mêmes librairies utilisée par les outils SaaS, sauf qu’ici vous avez besoin de développeurs, le degré de technicité étant bien plus élevé.

On retrouve deux grandes familles de librairies spécifiques au scraping :

  • les librairies d’automatisation de navigation comme Phantom, Casper, Axios ou Selenium : ces librairies permettent de simuler et automatiser la navigation de sites Internet, aller de page en page et en absorber le contenu
  • les librairies d’extraction d’information comme BeautifulSoup ou Cheerio : ces librairies permettent d’interpréter le contenu et d’extraire les informations pertinentes

La liste est loin d’être exhaustive, chaque langage de programmation ayant ses librairies et de nouvelles librairies apparaissant régulièrement.

En résumé, il existe différents outils mettant en oeuvre le scraping.

Plus on recherche un usage simple sur des plateformes populaires, plus il y a de chance de trouver un produit pouvant être facilement paramétré pour répondre à nos besoins.

Plus on recherche de la flexibilité sur des sources spécifiques, plus le travail sera technique et nécessitera l’intervention d’un développeur.

Cas d’usage

Maintenant qu’on a une meilleure compréhension de comment fonctionne le scraping et des outils impliqués, nous allons nous intéresser aux cas d’utilisation du scraping.

Le monitoring de la concurrence

Surveillance concurrence

Gardez un oeil discret sur la concurrence grâce au scraping

Souvent utilisé pour surveiller les plateformes e-commerce, le scraping permet de collecter des données commerciales sur les produits des concurrents pour améliorer sa compréhension et vision du marché.

Des prestataires privés permettent par exemple de surveiller l’évolution des prix de vos concurrents sur leurs catalogues en ligne, mais aussi de surveiller le classement de leurs offres sur des plateformes comme Amazon pour évaluer leur succès commercial.

Plein d’autres utilisations sont envisageables pour garder un oeil sur la compétition :

  • Collecter les offres d’emplois sur les job boards afin de mesurer la croissance d’acteurs concurrents
  • Surveiller les changements de poste sur LinkedIn des cadres supérieurs des concurrents afin d’être alerté de changements structurels important chez la concurrence
  • Collecter la liste de client référence et être notifié lorsque de nouveaux clients apparaissent afin de mettre à jour votre CRM

La seule limite est votre imagination 😉

Extraction de base de données

Une autre utilisation courante est l’extraction de bases de données.

L’exemple le plus criant est l’utilisation d’outils de scraping pour collecter des données sur LinkedIn.

Dux Soup on LinkedIn

Exemple d’extraction de données : Dux Soup récupère des informations de contacts sur LinkedIn

LinkedIn est la plus grande base de données de profils professionnels au monde. Un outil permettant d’extraire des informations permettant de les contacter est extrêmement puissant puisqu’il permet de créer des listes de leads pour votre prospection.

Mais ce n’est pas le seul cas où on cherche à extraire des données à des fins de constitution de fichiers de prospection. Par exemple, imaginez que vous trouviez sur Meetup un événement qui rassemble beaucoup de vos clients potentiels.

L’utilisation d’un scraper peut vous permettre d’extraire automatiquement la liste des participants à l’événement afin de créer une base de fichier de prospection.

On peut imaginer d’autres usages dans cette configuration :

  • Extraire les catalogues produits de différents concurrents pour les comparer à votre catalogue et trouver les produits différenciants
  • Extraire la base de données d’annuaires spécialisés pour trouver prospects ou concurrents

Vous êtes vous déjà demandé comment des sites permettant de réserver des rendez-vous avec des médecins arrivent à démarrer avec une base de données de plusieurs milliers de praticiens dès leur lancement ?

Difficile pour eux d’obtenir les informations en contactant chaque médecin un par un alors que leur plateforme n’existe pas encore. En revanche il est bien plus envisageable de scraper le contenu des pages jaunes et de récupérer les informations nécessaires pour avoir du contenu à présenter aux visiteurs dès le lancement.

Constitution de data sets

On parle beaucoup de Machine Learning, d’Intelligence Artificielle et consorts mais d’un point de vue extérieur, on oublie souvent que ces technologies reposent sur de grandes quantités de données pour entraîner les modèles de données.

Le scraping peut alors être intéressant pour collecter et créer des “datasets”.

Par exemple, afin d’entraîner un outil utilisant l’IA pour détecter la présence d’une personne sur un ensemble de photos, il faut un grand nombre de photos de son visage.

Extraire les images de son compte Instagram grâce à un scraper peut permettre de constituer la base du dataset — en espérant que la personne soit avide de selfies.

Autre exemple : admettons qu’un organisme cherche à étudier la création d’entreprise dans le temps pour essayer de détecter des schémas et prévoir la création d’entreprises au fil du temps.

Scraper des sites qui listent les entreprises et leurs informations permet de créer des data sets contenant les dates de création des entreprises, le type d’entreprise créée, leur code NAF — permettant de déterminer leur secteur d’activité — et leur capital social afin de dégager des tendances et statistiques interessantes grâce au machine learning.

Automatisation de processus

ReceiptBank

ReceiptBank utilise des scrapers pour collecter certaines factures fournisseur

Le scraping peut aussi avoir une utilité dans l’automatisation de processus. C’est un outil auquel nous avons souvent recours dans nos opérations de transformation digitale.

Nous avons récemment publié un article sur l’automatisation de notre comptabilité.

Un des outils utilisé est ReceiptBank qui utilise un scraper pour aller chercher les factures sur les espaces clients des fournisseurs qui ne nous envoient pas les factures par email.

Conclusion

Le scraping permet d’automatiser et programmer l’extraction de données.

Le fait que ces tâches ne nécessitent plus d’intervention humaine ouvre de nouveaux champs de possibilités.

Nous pouvons extraire la donnée plus fréquemment et plus rapidement afin d’être plus à jour, mais aussi afin de surveiller les changements au niveau de ces données : ajouts, suppression, changement de propriétés, etc. permettant de découvrir des signaux faibles.

C’est donc un outil de plus en plus important, présentant un avantage concurrentiel certain pour qui sait le manier.

L’article Qu’est-ce que le scraping et quel est son intérêt ? est apparu en premier sur Nativio.

]]>
https://nativio.net/scraping-intro/feed/ 0
Proxyclick : la technologie au service de l’accueil des visiteurs https://nativio.net/proxyclick-systeme-de-gestion-des-visiteurs/ https://nativio.net/proxyclick-systeme-de-gestion-des-visiteurs/#disqus_thread Wed, 16 Oct 2019 09:45:31 +0000 https://nativio.net/?p=1948 L’accueil des visiteurs est un enjeu de taille pour l’entreprise innovante. Pourquoi est-ce

L’article Proxyclick : la technologie au service de l’accueil des visiteurs est apparu en premier sur Nativio.

]]>
L’accueil des visiteurs est un enjeu de taille pour l’entreprise innovante. Pourquoi est-ce si important de s’en préoccuper et comment une solution comme Proxyclick peu vous y aider ?

Simplement car l’espace de réception de vos bureaux est la première chose que vos visiteurs voient, c’est la première image qu’ils se font de votre entreprise. Des études montrent qu’il suffit de 7 secondes pour se faire une impression lorsqu’on se présente à quelqu’un pour la première fois, il en va de même pour vos bureaux. Vos visiteurs sont généralement vos clients ou vos fournisseurs mais ils sont aussi vos prescripteurs, vos prospects ou encore vos futurs employés.

C’est pour ces raisons qu’il est primordial de ne pas louper cette première impression dans un marché où gagner face à la concurrence peut se jouer sur des détails.

Deux personnes sur cinq déclarent que leur expérience d’une entreprise ou d’une marque a été affectée négativement par leur expérience dès la réception / hall d’accueil. Cela représente 40 % des clients potentiels avec une mauvaise impression. Une implication financière importante qu’aucune entreprise ne peut se permettre.
Proxyclick Front Desk Experience Survey 2018

Qu’est ce que Proxyclick ?

Proxyclick est une start-up belge implantée dans de nombreux pays en Europe et aux États-Unis. La société a été créée en 2010 et a levé plus de 3 millions d’euros depuis sa création.

Un seul mot d’ordre : améliorer l’expérience des visiteurs de l’entreprise. Proxyclick a créé une application de gestion des visiteurs en mode Cloud. Les entreprises sont ainsi dotées d’un kiosque proposant une interface simple et conviviale qui fait parfaitement le lien entre les collaborateurs et leurs invités. Proxyclick est utilisé par les grandes organisations et les petites entreprises du monde entier.

L’application contribue même à rendre l’expérience des visiteurs plus agréable et plus moderne en présentant au visiteur une photo d’eux, en communiquant le code WiFi par SMS ou encore en imprimant un badge d’identification et/ou d’accès au bâtiment.

En termes de sécurité, Proxyclick s’apparente à un registre numérique des visiteurs dédié aux entreprises : il est donc possible d’alerter immédiatement tous les visiteurs par SMS ou, dans le cadre d’une évacuation, de pointer cette liste afin de s’assurer que tous ont quitté les locaux.
N’importe quel directeur d’entreprise ou responsable des services généraux se doit d’être capable de répondre à cette question que ne manqueront pas de leur poser les pompiers : êtes-vous certain à 100% qu’il n’y a plus personne à l’intérieur du bâtiment ?
Geoffroy de Cooman, CEO de Proxyclick

Enfin, de nombreuses intégrations tierces permettent d’intégrer Proxyclick à votre écosystème existant : LDAP pour les collaborateurs, add-in Outlook pour pré-enregistrer des visiteurs, Cisco pour l’envoi du mot de passe WiFi aux invités, Slack, Skype, Salesforce, Dropbox, OneDrive et encore de nombreuses autres applications…

Add-in Outlook pour Proxyclick
Vos collaborateurs peuvent pré-enregistrer les visiteurs dans Proxyclick directement à partir de leur calendrier Outlook

Mise en place de Proxyclick

Les pré-requis matériels

Proxyclick ne consiste pas en une unique application, mais deux applications. La première application Cloud est destinée aux réceptionnistes et autres collaborateurs, c’est un véritable tableau de bord des visites en temps réel.

La deuxième application est quant à elle destinée aux visiteurs, elle se matérialise sous la forme d’un kiosque tactile disponible en général à la réception.

Kiosque Proxyclick

Proxyclick permet d’imprimer directement le badge du visiteur suite à son enregistrement. Le badge peut être en PVC ou papier, en couleur ou en noir et blanc. Ces choix auront naturellement un impact budgétaire sur l’imprimante et les consommables à prévoir sur le long terme. Votre prestataire sera à même de vous donner des conseils avisés et adaptés à votre situation et à vos besoins.

Configuration logicielle de la solution

C’est également votre prestataire qui s’occupera de configurer la solution pour l’intégrer à votre éco-système. Pour s’assurer du bon déploiement de la solution, il est nécessaire de coordonner les différentes actions à suivre pour chacun des services concernés (DSI, services généraux, communication, support…).

En effet, l’introduction de Proxyclick dans votre entreprise aura un effet immédiat et global pour vos visiteurs mais aussi vos collaborateurs.

Les parties prenantes du projet devront se concerter et se poser les bonnes questions :

Qu’adviendra-t-il du registre des visites ? Comment s’assurer que Proxyclick est conforme à la politique de sécurité des réseaux IT ? Qui formera les réceptionnistes et collaborateurs à l’utilisation de Proxyclick ? Comment s’assurer que les badges respectent les règles de sécurité d’accès au bâtiment en vigueurs ? […]

Toutes ces questions — et il en existe bien d’autres — devront être posées sur la table et clarifiées lors des premier rendez-vous projet pour éviter les déconvenues.

Conclusion

Le marché des systèmes de gestion des visiteurs a aujourd’hui le vent en poupe, avec un taux de croissance annuel d’environ 15% pour la période 2019-2015 selon l’étude Global Visitor Management Software Market Size, Status and Forecast 2019-2025
publiée le mois dernier par l’institut QY Research.

La transformation digitale modifie la façon dont nous gérons notre espace de travail. L’accueil réservé aux visiteurs est transformé en apportant simplicité, économie, gain de temps et amélioration des process pour au final changer positivement l’expérience visiteurs.

Bien mis en place, une solution Cloud de gestion des visiteurs intégrée comme Proxyclick permet aux entreprises de diminuer les risques, de respecter les réglementations, d’optimiser leur système de sécurité et d’améliorer le travail opérationnel des agents d’accueil.

Enfin, en plus d’améliorer considérablement l’expérience des visiteurs, le déploiement d’un dispositif de gestion des visiteurs permet aux organisations de mieux développer leur valeur commerciale.

N’hésitez pas à nous solliciter pour plus d’informations sur Proxyclick.

L’article Proxyclick : la technologie au service de l’accueil des visiteurs est apparu en premier sur Nativio.

]]>
https://nativio.net/proxyclick-systeme-de-gestion-des-visiteurs/feed/ 0
Comptabilité automatisée : réduire de 80% son temps de traitement grâce à Receipt Bank https://nativio.net/comptabilite-automatisee/ https://nativio.net/comptabilite-automatisee/#disqus_thread Fri, 11 Oct 2019 08:28:19 +0000 https://nativio.net/?p=1858 Lors de la première année de notre activité, nous passions environ une journée

L’article Comptabilité automatisée : réduire de 80% son temps de traitement grâce à Receipt Bank est apparu en premier sur Nativio.

]]>
Lors de la première année de notre activité, nous passions environ une journée par mois à nous occuper de la comptabilité. Aujourd’hui, nous y passons à peine une heure.

La gestion de la comptabilité d’une entreprise est une tâche aussi importante que chronophage. Fort heureusement, les outils issus de la transformation digitale nous apportent des leviers afin d’automatiser une grande partie des tâches liées à la comptabilité.

C’est en utilisant ces technologies et outils que nous pouvons recentrer nos ressources sur des tâches à plus haute valeur ajoutée.

Dans cet article, nous verrons donc :

  • Comment nous avons réduit notre temps de traitement de notre comptabilité de 80%
  • Comment nous avons mis en place une vision quasi-temps réel de la situation financière de notre entreprise
  • Les technologies utilisées et leur fonctionnement, afin de mettre en place ces améliorations

Le temps passé en comptabilité est du temps en moins pour nos clients

Application QuickBooks

Quickbooks, notre application de comptabilité

Combien de temps passez-vous sur des tâches qui, bien que nécessaires au fonctionnement de votre entreprise vous laissent penser que votre temps pourrait être mieux utilisé ?

C’était notre cas dans le cadre de la gestion de notre comptabilité, en particulier la comptabilité fournisseur.

Ces tâches “support” sont vitales mais ont un impact limité ou nul sur la croissance de l’entreprise. Elles peuvent cependant être optimisés grâce au digital.

Chez Nativio, nous avions déjà opté pour une solution de comptabilité connectée. Après un rapide benchmark, nous avons opté pour Quickbooks afin de bénéficier d’une solution nous permettant de gérer non seulement notre comptabilité mais aussi notre facturation.

Nous avions deux exigences principales lors du choix de cet outil :

  • Nous voulions un outil “cloud”, nous permettant d’accéder à notre comptabilité depuis n’importe où, à l’aide de nos téléphones et postes de travail
  • Nous voulions un outil avec un accès API afin de pouvoir extraire la donnée comptable et produire nos propres analyses et rapports financiers

Une API ou Application Programming Interface est une interface qui permet à d’autres applications d’échanger des données.

Vous pouvez imaginer les APIs comme des portes permettant d’accéder ou envoyer des données entre les applications. Les développeurs n’ont alors qu’à connecter ces portes plus ou moins standardisées pour facilement faire communiquer des applications entre elles, comme par exemple un outil de visualisation de données qui crée des graphiques à partir de données présentes dans un logiciel de comptabilité.

Quickbooks nous permet aussi de faire de la comptabilité analytique en assignant des opérations à un projet. Puisque l’outil gère à la fois la facturation et les achats, il est possible de déterminer et analyser la rentabilité des projets sur lesquels nous travaillons.

Malgré les fonctionnalités très pratiques de Quickbooks — comme la possibilité de se connecter aux comptes de la société pour extraire l’activité bancaire automatiquement, permettant de rapprocher notre comptabilité client en quelques clics — la gestion de notre comptabilité fournisseur nous prenait tout de même une pleine journée par mois.

Notre objectif étant de passer plus de temps à acquérir de nouveaux clients ou produire pour nos clients existants, nous voulions donc améliorer cette situation.

L’objectif était donc de réduire le temps-homme nécessaire à ces activités vitales mais faiblement génératrices de valeur.

Solution de digitalisation et automatisation de la comptabilité fournisseur

Comme beaucoup de tâches importantes mais non urgentes, l’amélioration de notre processus de tenue comptable a pris son temps.

C’est seulement lors d’un changement d’expert comptable que nous avons découvert Receipt Bank et réellement amélioré notre processus grâce à cet outil.

Application Receipt Bank, automatisation de la comptabilitéImage : Receipt Bank

Receipt Bank est une solution logicielle qui permet l’automatisation de la tenue des achats.

Elle utilise la reconnaissance de caractères ou OCR afin de déchiffrer les factures des fournisseurs et les entrer en comptabilité dans le compte correspondant, en répartissant la TVA, etc.

L’OCR ou Optical Character Recognition est une technologie permettant la conversion d’images de caractères en texte manipulable.

Cela permet par exemple de transformer une photo de facture en valeurs numériques qui seront entrées en comptabilité. D’une image — difficilement interprétable dans un tableur par exemple — on crée des données numériques exploitables.

Il suffit alors d’envoyer les factures à l’application pour que celle-ci les saisissent automatiquement dans Quickbooks.

Pour cela, il y a 3 moyens :

  • Utiliser l’application mobile pour prendre en photo une facture : utile pour la saisie d’une facture papier, comme au restaurant par exemple
  • Envoyer les factures par email à Receipt Bank : pratique pour les fournisseurs qui vous transmettent leurs factures par email, il vous suffit de leur transmettre une adresse email de facturation qui redirige vers l’email Receipt Bank
  • Extraire les factures de vos comptes grâce aux connecteurs : de nombreux fournisseurs n’envoient pas les factures, il faut aller les télécharger depuis un espace client en ligne. Receipt Bank propose des scrapers appelés “connecteurs” qui permettent d’aller chercher ces factures depuis vos espaces client auprès de ces fournisseurs.

Un scraper est un outil qui permet de récupérer des données non formatés de manière automatisée.

Dans le cas où une application ne propose pas d’API pour accéder à certaines données dont vous avez besoin, un scraper permet d’automatiser les actions que vous effectueriez pour récupérer ces données : se rendre sur le site fournisseur, se connecter, cliquer sur “Mon Compte”, cliquer sur l’onglet “Facturation” et télécharger les factures.

De part les possibilités de connexion qu’offre Quickbooks, l’intégration de Receipt Bank dans notre process a été relativement simple :

  • un outil cloud ne stocke pas les données sur un poste précis mais sur des serveurs toujours en ligne
  • Quickbooks propose une API qui ouvre la porte à Receipt Bank pour y insérer les factures numérisées et interprétées

Là encore, les avantages du cloud et des APIs standards se font sentir : à partir de ce socle — Quickbooks dans notre cas — nous pouvons y greffer des outils spécialisés afin d’améliorer nos processus internes et réduire la consommation temps de notre tenue de comptabilité.

Comptabilité automatisée et nouvelles possibilités

Suite à la mise en place de ces outils, notre gestion comptable ne nous prend plus qu’une heure par mois maximum.

Notre comptabilité client est tenue et rapprochée directement dans Quickbooks et notre comptabilité fournisseur utilise pleinement les fonctionnalités offertes par Receipt Bank pour acquérir et classer les achats.

Cette administration des achats ne nous demandant là aussi que quelques clics dans Quickbooks pour rapprocher notre activité bancaire avec les factures enregistrées et réparties par Receipt Bank.

Comptabilité automatisée chez Nativio

Ce système en place nous offre de nouvelles possibilités : puisque notre comptabilité est plus facile à maintenir à jour, nous avons désormais une vision comptable s’approchant du temps réel nous permettant de créer des rapports financiers très précis.

Encore une fois grâce aux APIs et notamment celle de Quickbooks, nous pouvons aussi faire des prévisions de trésorerie et de résultats, par exemple en y connectant des outils comme Google Sheets — un tableur connecté qui peut récupérer les données depuis Quickbooks — et des outils de visualisations de données comme Amazon QuickSight ou Google Data Studio afin de créer des tableaux de bords présentant la santé financière de l’entreprise en temps réel.

Tableau de bord ventesDashboard des ventes avec AWS Quicksight

Conclusion

Receipt Bank et ces solutions de traitement automatisé des factures et notes de frais permettent aussi une grande simplification du suivi comptable dans le cadre de la gestion des notes de frais des collaborateurs.

Devoir saisir des notes de frais et calculer les virements de remboursement chaque mois manuellement n’est pas le meilleur usage du temps du département comptabilité et finance.

Une entreprise gérant un certain nombre de notes de frais bénéficiera là encore de ces outils d’automatisation.

Plus important encore, une comptabilité tenue à jour automatiquement permet une vision en temps réel de la situation financière de l’entreprise.

Combiné à un système de comptabilité connecté permettant l’interconnection avec des outils tiers — notamment grâce aux APIs évoquées précédemment — on peut y connecter des outils de BI ou Business Intelligence afin de piloter plus finement l’entreprise, avoir une meilleure vision de sa situation financière, sa trésorerie, préparer ses prévisions financières, etc.

Ces outils acquièrent et traitent la donnée afin de la rendre interprétable et dégager des informations stratégiques.

Par exemple, en comparant les dépenses et recettes d’un projet, il est possible de déterminer la rentabilité d’un projet ou la rentabilité moyenne d’une catégorie de projet. Ce sont des informations capitales pour le corps décisionnaire de l’entreprise qui pourra en tirer des conclusions afin d’améliorer le positionnement de la société en conséquence.

En somme, la digitalisation de la gestion financière de l’entreprise commence par la mise en place de systèmes connectés pouvant s’intégrer à d’autre solutions qui viendront soulager des ressources et leur libérer du temps.

Ce temps libre pourra être utilisé pour des opérations à plus haute valeur ajoutée comme l’analyse de la santé financière et d’indicateurs de performance. Analyse elle-même facilitée par l’utilisation d’outils accessibles suite à la mise en place d’outils de gestion financière connectés.

L’article Comptabilité automatisée : réduire de 80% son temps de traitement grâce à Receipt Bank est apparu en premier sur Nativio.

]]>
https://nativio.net/comptabilite-automatisee/feed/ 1