Découvrir les API OVH Prescience
Objectif
Prescience est un outil d'apprentissage automatique, pilotable via plusieurs API, celles-ci étant accessibles à l'utilisateur pour automatiser de multiples actions.
Ce guide vous présente ces API en détail afin de vous permettre de piloter votre propre plateforme OVH Prescience.
Authentification
L'utilisation de Prescience nécessite un jeton d'authentification.
Voici un exemple d'appel API :
API OVH Prescience
Sources
L'objet « source » est le résultat d'une tâche de parsing (analyse). Lors de l'appel API, l'objet retourné inclut les éléments suivants :
- Liste des sources :
GET https://prescience-api.ai.ovh.net/source
- Récupération d'une source :
GET https://prescience-api.ai.ovh.net/source/{id_source}
- Suppression d'une source :
DELETE https://prescience-api.ai.ovh.net/source/{id_source}
Datasets
L'objet « dataset » est le résultat d'une tâche de « preprocessing ». Lors de l'appel API, l'objet retourné contiendra les éléments suivants :
- Liste des datasets :
GET https://prescience-api.ai.ovh.net/dataset/
- Récupération d'un dataset :
GET https://prescience-api.ai.ovh.net/dataset/{id_dataset}
- Suppression d'un dataset :
DELETE https://prescience-api.ai.ovh.net/dataset/{id_dataset}
Modèles
L'objet « modèle » est le résultat d'une tâche de « train ». Lors de l'appel API, l'objet retourné comportera les éléments suivants :
L'objet « config » décrit la configuration utilisée pour générer le modèle de machine learning.
- Liste des modèles :
GET https://prescience-api.ai.ovh.net/model
- Récupération d'un modèle :
GET https://prescience-api.ai.ovh.net/model/{id_model}
- Suppression d'un modèle :
DELETE https://prescience-api.ai.ovh.net/model/{id_model}
Parsing
Pour créer une « source », il faut lancer une tâche de parsing.
POST https://prescience-api.ai.ovh.net/ml/upload/source
Exemple :
En partant du principe que les fichiers CSV « data-1.csv » et « data-2.csv » sont dans un même répertoire :
- fichier
parse.json
La source renvoyée dans la réponse est incomplète. En effet, la tâche étant asynchrone, elle sera complétée au fur et à mesure de son avancement.
Preprocess
Pour créer un « dataset », il faut au préalable avoir généré une « source » et avoir ensuite créé une tâche de preprocess.
POST https://prescience-api.ai.ovh.net/ml/preprocess/{source_id}
Exemple :
- fichier
preprocess.json
Le dataset renvoyé dans la réponse est incomplet. En effet, la tâche étant asynchrone, elle sera complétée au fur et à mesure de son avancement.
Optimisation
Une fois le « dataset » créé, il est possible de commencer à l'optimiser.
POST https://prescience-api.ai.ovh.net/ml/optimize/{dataset_id}
Exemple :
- fichier
optimize.json
La tâche d'optimisation renvoie un objet intitulé « Optimisation ». Une fois l'optimisation terminée, il sera possible de lancer une requête sur les objets « Evaluation-Result » pour obtenir la meilleure configuration possible.
Evaluation Result
L'objet « Evaluation-Result » est le résultat d'une tâche d'optimisation. Lors de l'appel API, l'objet retourné contiendra les éléments suivants :
- Liste des évaluations :
GET https://prescience-api.ai.ovh.net/evaluation-result
Entraînement
Après avoir choisi la meilleure configuration dans la liste des « Evaluation-Result » nous pouvons entraîner un modèle :
POST https://jedison.ai.ovh.net/ml/train
Exemple :
La tâche d'entraînement renvoie un objet modèle incomplet. En effet, la tâche étant asynchrone, elle sera complétée au fur et à mesure de son avancement.
OVH Prescience Serving API
Description d'un modèle
Une fois qu'un modèle est entraîné, il est possible de l'utiliser pour réaliser des inférences.
Les deux API ont un objet « modèle » ne possédant pas la même structure. Seul l'identifiant model_id est commun.
- Description d'un modèle :
POST https://prescience-serving.ai.ovh.net/model/{model_id}
L'objet retourné décrit l'objet « modèle » selon Prescience Serving.
Exemple de résultat :
Évaluation d'un modèle
Lors de l'étape de preprocessing, une transformation des données est effectuée. Le modèle se basant sur la sortie de cette transformation, il est impératif de transformer la donnée avant d'utiliser le modèle. Prescience Serving fournit des méthodes permettant d'effectuer à la fois cette transformation et l'inférence.
La plateforme de serving permet d'effectuer :
- la transformation et l'évaluation ;
- l'évaluation uniquement ;
- la transformation uniquement.
- Exemple d'une inférence unitaire :
Fichier exemple.json:
Requête
- Exemple de l'évaluation d'un batch JSON :
Fichier exemple.json :
Requête
Aller plus loin
Échangez avec notre communauté d'utilisateurs.