Création d'une API unifié pour accéder à l'ensemble des données dont P4Pillon a besoin. https://data.p4pillon.org
Go to file
2024-02-09 14:50:28 +01:00
initdb feat: Mise en place du projet 2024-02-08 12:28:51 +01:00
scripts feat: Mise en place du projet 2024-02-08 12:28:51 +01:00
.env.template fix: Docker compose configuration 2024-02-08 14:28:28 +01:00
.gitignore feat: Mise en place du projet 2024-02-08 12:28:51 +01:00
build.sh fix: Le script pour executer npm 2024-02-08 12:39:32 +01:00
docker-compose.local.yml fix: Docker compose configuration 2024-02-08 14:28:28 +01:00
docker-compose.traefik.yml fix: Docker compose configuration 2024-02-08 14:28:28 +01:00
docker-compose.yml fix: Docker compose configuration 2024-02-08 14:28:28 +01:00
package-lock.json WIP 2024-01-24 16:29:09 +01:00
package.json fix: Docker compose configuration 2024-02-08 14:28:28 +01:00
README.md docs: Mise à jour du lien des tâches 2024-02-09 14:49:03 +01:00

Project Open Data

Création d'une API unifié pour accéder à l'ensemble des données dont P4Pillon a besoin.

Le principe du projet est de pouvoir intérroger les données de l'open data depuis un réseau local et ainsi s'affranchir des pannes d'internet ou des APIs. Les données pourront être mise à jour régulièrement pour permettre d'avoir les dernières mise à jour.

Liens

Données

FINESS

Informations sur les établissements sanitaires, sociaux, médico-sociaux, et de formation aux professions de ces secteurs.

Liens :

INPI

L'Institut national de la propriété industrielle, abrégé par le sigle INPI, est un établissement public à caractère administratif, placé sous la tutelle du ministère français de l'Économie, de l'Industrie et du Numérique.

Il y a 2 posibilités pour récupérer les données de l'ensemble des entreprises française :

Composants logiciels du projet

Script

Un script permet d'initialiser le projet en téléchargeant les dépendences, les données de l'Open Data ainsi que de transformer ses données en fichiers CSV.

Il faut avoir Docker d'installé et executer cette commande :

bash build.sh

Docker Compose

Nous utilisons Docker Compose pour la mise en place des différents services.

Le projet propose 3 fichiers permettant une execution local ou sur un serveur ayant un serveur Traefik de configuré.

La configuration se fait à l'aide d'un fichier .env, vous devez modifier les valeurs du fichier .env.template.

Voici quelques commandes possibles :

docker compose --env-file .env up -d      # Création des conteneurs
docker compose --env-file .env down -v    # Suppresion des conteneurs ainsi que des données

PostgreSQL

La fonction COPY est utilisé dans les fichiers SQL du dossier ./initdb permettant d'importer les données d'un fichier CSV dans une base de données.

PostgREST