From abcc35e552cbd2ec455267704e082f45b28a780e Mon Sep 17 00:00:00 2001 From: Vivien Kraus Date: Wed, 16 Jun 2021 11:54:04 +0200 Subject: Quelques corrections --- manuscrit.html | 275 ++++++++++++++++++++++++++++++++++----------------------- 1 file changed, 163 insertions(+), 112 deletions(-) diff --git a/manuscrit.html b/manuscrit.html index 24b5061..f78da6d 100644 --- a/manuscrit.html +++ b/manuscrit.html @@ -120,17 +120,17 @@

This thesis focuses on this fundamental framework. First, we - begin by proposing a method for semi-supervised regression - learning, that we challenge through a detailed experimental + begin by proposing a method for semi-supervised regression, + that we challenge through a detailed experimental study. Thanks to this new method, we present a second contribution, more fitted to the multi-label framework. We also show its efficiency with a comparative study on literature data sets. Furthermore, the problem dimension is always a pain point of machine learning, and reducing it sparks the interest of many researchers. Feature selection is - one of the major tasks addressing this problems, and we - propose to study it here in a complex framework: for - semi-supervised, multi-label regression. + one of the major tasks addressing this problem, and we propose + to study it here in a complex framework: for semi-supervised, + multi-label regression.

Finally, an experimental validation is proposed on a real @@ -171,11 +171,11 @@ d'images.

- Dans ce contexte, le principe général consiste à modéliser une - fonction statistique qui nous permet de résoudre le problème - abordé. Cette modélisation est jugée pertinente si elle permet - de généraliser la décision à de nouvelles formes de données - inconnues au modèle, a priori. + Dans ce contexte, le principe général consiste à effectuer une + modélisation statistique d’une fonction qui nous permet de + résoudre le problème abordé. Cette modélisation est jugée + pertinente si elle permet de généraliser la décision à de + nouvelles formes de données inconnues au modèle, a priori.

Dans le cadre de cette thèse, la modélisation que nous cherchons @@ -198,19 +198,21 @@

Selon le type d'apprentissage envisagé, nous pouvons utiliser un certain nombre d'algorithmes, c'est-à-dire une fonction qui à - partir des données construit le modèle f. Dans le - cadre qui nous intéresse ici, l'algorithme consiste à minimiser - une fonction de coût, en cherchant le modèle parmi une certaine - classe de fonctions. La fonction de coût accumule donc les - erreurs commises sur l'ensemble du jeu de données. En la - minimisant, l'objectif est d'obtenir le modèle le plus adapté à - la distribution des données. + partir des données construit une approximation du + modèle f. Dans le cadre qui nous intéresse ici, + l'algorithme consiste à minimiser une fonction de coût, en + cherchant le modèle parmi une certaine classe de fonctions. La + fonction de coût accumule donc les erreurs commises sur + l'ensemble du jeu de données. En la minimisant, l'objectif est + d'obtenir le modèle le plus adapté à la distribution des + données.

Par ailleurs, en apprentissage automatique, l'extraction de variables permet de synthétiser l'information contenue dans les caractéristiques du problème, de façon à en obtenir de nouvelles - où chaque observation est décrite différemment. Cela permet + où chaque observation est décrite différemment. L’utilisation de + ces nouvelles variables, souvent moins nombreuses, permet d'effectuer une réduction de dimension. D'autre part, la sélection de variables est un cas particulier, pour lequel chaque variable obtenue est une variable de description de @@ -262,30 +264,32 @@ Sur l'aspect applicatif, cette thèse s’inscrit dans le cadre d’une convention CIFRE entre le laboratoire LIRIS et la société Lizeo IT du groupe Lizeo Cette thèse fait l'objet d'une - "Convention Industrielle de Formation par la Recherche" (CIFRE) - proposée par l’Agence Nationale de la Recherche Technique - (ANRT). Ce mode de financement consiste en un partenariat entre - une entreprise, ici Lizeo IT du groupe Lizeo et une université - (ici, l'université Claude Bernard Lyon 1 , UCBL).. En + "Convention Industrielle de Formation par la Recherche" (CIFRE) + proposée par l’Agence Nationale de la Recherche Technique + (ANRT). Ce mode de financement consiste en un partenariat entre + une entreprise, ici Lizeo IT du groupe Lizeo et une université + (ici, l'université Claude Bernard Lyon 1 , UCBL).. En effet, dans le cadre de ses activités, l'entreprise récolte de nombreux documents textuels issus de multiples sources et - décrivant les qualités des pneumatiques. Chacune de ces - caractéristiques représente un score d'appréciation continu - (sous forme d'une note) : ce sont donc des variables cible, - réelles. La connaissance extraite de ces données d'appréciation - sont d'une très grande importance pour les manufacturiers et les - distributeurs, mais l'annotation manuelle est très délicate, - puisqu'elle requiert des connaissances vis-à-vis des produits, - et coûteuse puisqu'elle doit s'effectuer sur plusieurs critères - différents. Par conséquent, l'apprentissage doit s'inscrire - dans le cadre semi-supervisé pour la régression multi-labels. + décrivant les qualités des pneumatiques, à travers un certain + nombre de caractéristiques étudiées pour les pneumatiques. + Chacune de ces caractéristiques représente un score + d'appréciation continu (sous forme d'une note) : ce sont donc + des variables cible, réelles. La connaissance extraite de ces + données d'appréciation sont d'une très grande importance pour + les manufacturiers et les distributeurs, mais l'annotation + manuelle est très délicate, puisqu'elle requiert des + connaissances vis-à-vis des produits, et coûteuse puisqu'elle + doit s'effectuer sur plusieurs critères différents. Par + conséquent, l'apprentissage doit s'inscrire dans le cadre + semi-supervisé pour la régression multi-labels.

Contributions

Tout d'abord, nous avons commencé à aborder le problème de la régression dans le cadre mono-label. Pour ce faire, nous nous sommes fondés sur deux algorithmes représentatifs de l'état de - l'art : SSSL (Simple algorithm for Semi-supevised + l'art : SSSL (Simple algorithm for Semi-supervised Learning, ) et celui de la régularisation Laplacienne . SSSL @@ -293,7 +297,7 @@ données ; nous proposons de reprendre ce changement d'espace et d'apporter une régularisation Laplacienne à la régression, pour obtenir l'algorithme Laplacian-regularized Simple - Semi-Supervised Learning, ou LapS3L. + Semi-Supervised Learning, ou LapS3L.

Nous avons proposé par la suite une adaptation @@ -424,8 +428,8 @@ d'adjacence du graphe des individus ;

  • M_m \in \mathbb{R}^{m, m} : la matrice d'adjacence du graphe des labels ;
  • -
  • P, Q : deux matrices décomposant le - modèle W = P + Q ou W = P Q ;
  • +
  • P, Q : deux matrices décomposant un modèle W, + W = P + Q ou W = P Q ;
  • \mathcal{R} : lorsqu'une régularisation quelconque s'applique sur un modèle W, nous la noterons \mathcal{R} (W) ;
  • @@ -444,11 +448,11 @@ apprentissage multi-labels ;
  • y \in \mathbb{R}^{n_l} : le vecteur de labels (pour de la régression mono-label) ;
  • -
  • Y \in \mathbb{R}^{n, m} : la matrice de - labels. De dimension N \times m, elle contient des - lignes de valeur non spécifiée pour les individus non - labellisés. De dimension n_l \times m, il ne s'agit - que des individus labellisés ;
  • +
  • Y \in \mathbb{R}^{n, m} : la matrice de labels, + de dimension N \times m. Elle contient des lignes + de valeur non spécifiée pour les individus non labellisés. De + dimension n_l \times m, il ne s'agit que des + individus labellisés ;
  • \hat Y \in \mathbb{R}^{n_t, m} : la sortie du modèle pour la prédiction des labels d'un ensemble de n_t individus ;
  • @@ -495,9 +499,10 @@ constante de Lipschitz de la fonction de gradient vis-à-vis de W, V et B ;
  • \mathcal{C} : un cluster ;
  • -
  • f, h : une fonction de prédiction, prend en - entrée un individu ou un ensemble d'individus et retourne les - valeurs de tous les labels pour ces individus ;
  • +
  • f, ou h : une fonction de + prédiction, prend en entrée un individu ou un ensemble + d'individus et retourne les valeurs de tous les labels pour + ces individus ;
  • i : indice d'itération d'individu ;
  • I : la matrice identité ;
  • j : indice d'itération de variables ;
  • @@ -526,6 +531,11 @@ l'ensemble d'apprentissage ;
  • {x_l}_i,\quad i = \{1 ... n_l\} : un individu labellisé de l'ensemble d'apprentissage ;
  • +
  • \hat y_i désigne la prédiction mono-label d’un + individu de test i ;
  • +
  • \hat Y_{i,k} désigne la prédiction d’un + individu de test i pour un + label k ;
  • z : le vecteur de label pour SSSL ;
  • \hat z : la prédiction pour SSSL.
  • @@ -539,22 +549,23 @@