Le Machine Learning et l’IA (Intelligence Artificielle) font désormais partie intégrante du paysage technologique.

Le premier utilise toute une série d’algorithmes éprouvés dont voici les principaux représentants :

Apprentissage supervisé

Apprentissage non supervisé

C’est un outil de support de décision que l’on interprète comme un arbre et ses possibles conséquences.

Jetez un œil à cette image pour comprendre sa forme. arbre-de-decision

D’un point de vue de la décision d’affaires, un arbre de décision est le nombre minimum de questions oui / non que l’on doit poser, la plupart du temps pour évaluer la probabilité de prendre une décision correcte.

exemple : L’arbre de décision est l’outil le plus rapide et le plus simple pour le Data Mining.

 

Les Réseaux Bayésiens (RB) construisent des probabilités jointes, et à partir de ces probabilités jointes,permettent de retrouver toutes les probabilités conditionnelles souhaitées.

exemple : déterminer la probabilité d’une maladie à partir de symptômes

Cette méthode permet de comparer des données expérimentales, la plupart du temps entachées d’erreurs de mesure, à un modèle mathématique qui doit décrire ces données.

exemple : prévision des ventes et analyses saisonnières

La régression logistique est un moyen statistique puissant de modélisation d’un résultat binomial avec une ou plusieurs variables explicatives.

Cette technique mesure la relation entre des prédicteurs catégoriels ou continus, et une ou plusieurs variables indépendantes de type binaires.

exemple : mesurer les taux de succès des campagnes marketing, prédire les revenus d’un certain produit.

Les machines à vecteurs de support ou séparateurs à vaste marge (SVM) sont un ensemble de techniques d’apprentissage supervisé destinées à résoudre des problèmes de discrimination et de régression.

Les SVM sont beaucoup utilisés dans l’analyse des bases de données.

Lorsqu’il faut prendre une décision importante, il vaut souvent mieux recueillir plusieurs avis que de se fier à un seul.

Utiliser un modèle de machine learning pour prédire un comportement ou un prix, c’est un premier pas.

Mais agréger des milliers de modèles ayant des avis divergents mais pouvant être chacun spécialisés sur des parties de la data donne le plus souvent de meilleurs résultat, nous parlons alors de méthodes ensemblistes.

L’objectif premier est de produire des modèles qui prédisent une variable.

La seconde étape sera de les combiner pour gagner en justesse.

Regrouper un ensemble d’objets tels que les objets dans le même groupe se ressemble plus que ceux des autres groupes.

Chaque algorithme est différent, en voici quelques-uns :

– Algorithmes basés sur le centre.

– Algorithmes basés sur la connectivité

– Algorithmes basés sur la densité

– Algorithmes probabilistes

– Réduction de dimensionnalité

– Réseaux neuronal / Deep Learning (Apprentissage profond).

L’Analyse en composante principale (ou PCA) est une méthode de la famille de l’analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres.

Ces nouvelles variables sont nommées « composantes principales », ou axes principaux.

Elle permet au praticien de réduire le nombre de variables et de rendre l’information moins redondante.

En algèbre linéaire, la SVD est une factorisation d’une matrice rectangulaire réelle ou complexe.

En fait l’analyse en composante principale (PCA) est une simple application de la SVD.

exemple : la 1 ère reconnaissance faciale a utilisée PCA et SVD dans le but de représenter des visages comme une combinaison linéaire, les « EigenFaces ». Ces derniers font de la réduction de dimensionnalité et font ensuite correspondre les visages pour les identifier avec des méthodes simples.

L’analyse en composantes indépendantes est une méthode d’analyse des données et d’exploration de données qui relève des statistiques, des réseaux de neurones et du traitement du signal.

Elle est notoirement et historiquement connue en tant que méthode de séparation aveugle de source mais est aujourd’hui appliquée à divers problèmes.

Très utilisé pour le traitement et la reconnaissance d’images.