TFE 2006-2007

Ci-dessous la liste des travaux de fin d'études que nous proposons.

Classification par thèmes: (cliquez ici pour télécharger la liste en format pdf)

Bioinformatique/biomédical

Apprentissage automatique/classification d’images

Théorie des systèmes/contrôle/traitement du signal




Apprentissage supervisé et sélection de variables pour la reconstruction de réseaux de régulation génétiques à partir de cinétiques d’expression

Comprendre la réponse de la cellule à un signal donné requiert l'élucidation des mécanismes complexes qui gouvernent l'expression génique et donc la synthèse de protéines. Ces mécanismes sont mis en oeuvre par un réseau d'interactions entre les gènes et/ou leurs produits. Identifier ces interactions notamment à partir de mesures expérimentales constitue à l'heure actuelle un problème majeur. Pour résoudre ce problème, l'apprentissage automatique offre un cadre à la fois formel et méthodologique.

Ce travail se focalisera sur la reconstruction de réseaux de régulation génétiques à partir de mesures expérimentales de cinétiques d'expression de gènes. La plupart des méthodes d'analyse de données cinétiques construisent un modèle probabiliste de la dynamique qui fait l'hypothèse markovienne que l'expression d'un gène à l'instant t est fonction de l'expression d'un certain nombre de gènes (régulateurs) à l'instant t-1. Ce problème peut donc être traduit en un problème d'apprentissage supervisé classique où chaque pas de temps constitue un échantillon pour l'apprentissage. On peut le traiter plus naturellement comme un problème de régression (prédiction directe de l'expression) mais également comme un problème de classification (après discrétisation des valeurs d'expression). L'intérêt étant la reconstruction du réseau de régulation, il est nécessaire de combiner cet apprentissage avec une recherche des régulateurs pour chacun des gènes. Dans ce contexte supervisé, cette recherche s'apparente à un problème de sélection de variables.

Ce travail étudiera différentes méthodes d'apprentissage et de sélection de variables pour ce problème. D'abord une revue de la littérature sur la sélection de variables en apprentissage supervisé sera faite, en privilégiant les méthodes à base de noyau et les méthodes d'arbre de décision. Ensuite, on étudiera nombre limité de méthodes, d'abord sur des données simulées, ensuite sur données réelles relatives au cycle cellulaire de la levure.

Modalités pratiques :

Le TFE est précédé d’un stage de deux mois qui aura lieu en septembre et octobre 2006 dans le Laboratoire de Bioinformatique de l’Université d’Evry (associé au Génopole, près de Paris) et sous la supervision du Professeur Florence d’Alché-Buc et du Dr. Pierre Geurts.

La recherche sera ensuite réalisée au sein de l’équipe de bioinformatique du centre de recherches en génoprotéomique de l’ULg (CBIG/GIGA www.giga.ulg.ac.be) en étroite collaboration avec les biologistes et l’équipe de bioinformatique de l’Université d’Evry.

Renseignements/Encadrement : 

P. Geurts (P.Geurts@ulg.ac.be), L. Wehenkel (L.Wehenkel@ulg.ac.be)




Approche supervisée à base de noyaux pour l’apprentissage de la relation d‘interaction d’un ensemble de gènes et l’identification d’un graphe d’interaction

L'objectif de ce travail de fin d’études est d’étudier comment la relation entre la description d’un ensemble de gènes et un graphe d'interactions peut être apprise en toute généralité à partir d’un ensemble de données étiquetées de type (description d’un ensemble, graphe). La problématique peut être étendue à un ensemble d’enzymes et à un réseau métabolique.

 

Ce problème s’inscrit dans la thématique plus générale d’apprentissage à partir d’entrées et de sorties structurées. De récents algorithmes (KDE, SVM étendus) montrent qu’il est possible, en définissant un noyau sur les entrées et un noyau sur les sorties, d’apprendre des tâches de reconnaissance de formes assez complexes (par exemple, la production d’arbre syntaxique à partir de phrases). Dans ce travail, on souhaite tirer parti de la co-existence de différents types de données sur les gènes et la connaissance de certains graphes d interaction. L’objet du travail est de définir les noyaux adéquats et d’étudier l’applicabilité des algorithmes à base de noyaux pour l’apprentissage de graphe à partir de la description des nœuds. On cherchera à intégrer dans le noyau sur les données d’entrée des informations variées sur la nature des séquences, l’expression des gènes dans différentes conditions et les informations fonctionnelles. On pourra pour cela s inspirer du travail de Lanckriet et al (2003) sur l’exploitation d’une combinaison linéaire de noyaux. Pour les sorties, un noyau entre graphes du type noyau exponentiel pourra être pris comme point de départ. Cette tâche étant très nouvelle, peu de résultats existent quant à la complexité d’échantillonnage et finalement, la faisabilité de cette tâche. L’étudiant devra donc s’intéresser par la théorie et par la pratique au comportement de l’algorithme dans des conditions réalistes (nombre d’exemples limité).

 

On s'appuiera en premier lieu sur des données simulées puis sur les données de la levure et la bactérie Escherichia coli, organismes pour lesquels coexistent de nombreuses données expérimentales et de nombreuses connaissances.

Modalités pratiques :

Le TFE est précédé d’un stage de deux mois qui aura lieu en septembre et octobre 2006 dans le Laboratoire de Bioinformatique de l’Université d’Evry (associé au Génopole, près de Paris) sous la supervision du Professeur Florence d’Alché-Buc et du Dr. Pierre Geurts.

La recherche sera ensuite réalisée au sein de l’équipe de bioinformatique du centre de recherches en génoprotéomique de l’ULg (CBIG/GIGA www.giga.ulg.ac.be) en étroite collaboration avec les biologistes et l’équipe de bioinformatique de l’Université d’Evry.

Renseignements/Encadrement : 

P.Geurts@ulg.ac.be, L.Wehenkel@ulg.ac.be, R.Sepulchre@ulg.ac.be 

Bibliographie :

  • Support vector Machine Learning for Interdependent and Structured Output Spaces, Tsochantaridis, Hofmann, Joachims, Alt, ICML 2005.
  • Kernel dependency Estimation, Weston, Chapelle, Elisséeff, Scholpkof, Vapnik, NIPS 15 (2003).
  • Kernel-based data fusion and its application to protein function in yeast, Lanckriet, Deng, Cristianini, Jordan, Noble, PSB 2004.



Apprentissage automatique appliqué à l’analyse des interactions micro-ARNs/gène

Les micro-ARNs résultent de la transcription de parties de l’ADN qui, contrairement aux régions qualifiées de gènes, ne codent pas pour la production de protéines (on parle aussi d’ADN non-codant). Récemment découverts, et actuellement très étudiés en biologie moléculaire et en génétique, ces petits morceaux d’ARN (longs d’un peu plus d’une vingtaine de nucléotides) sont fortement impliqués dans les mécanismes de régulation de l’expression de gènes, en déterminant à quel moment (au cours de la différentiation des tissus embryonnaires), dans quels tissus (d’un organisme donné), et dans quelles conditions (normales ou pathologiques) les différentes protéines codées par les gènes seront effectivement produites. On sait que ces micro-ARNs agissent sur la production de protéines à partir d’un gène, en se liant sur les molécules d’ARN-messager (produites à partir de ce gène) et en inhibant de ce fait la traduction de cet ARN-messager en protéines.  On pense, notamment, que des « anomalies » de ces interactions micro-ARNs/gènes jouent un rôle important dans le développement de tumeurs cancéreuses. Plus généralement, la diversité génétique (entre individus d’une espèce, ou entre différentes espèces) au niveau des séquences d’ADN qui codent les micro-ARNs et leurs interactions avec certains gènes pourrait être responsable d’une partie importante de la diversité des phénotypes (entre individus d’une espèce, ou entre différentes espèces). A l’heure actuelle, de l’ordre de 500 micro-ARNs ont été identifiés chez l’homme et on pense que l’expression de plus de 20% de ses gènes est soumise aux mécanismes de régulation par l’intermédiaire des micro-ARNs.

L’apprentissage automatique est issu de la combinaison de l’intelligence artificielle et des statistiques, et a pour objet l’étude et la conception d’algorithmes de construction modèles prédictifs à partir de données d’observation. L’objectif de ce travail de fin d’études sera d’appliquer l’apprentissage automatique dans le but de trouver de nouveaux micro-ARNs et/ou de nouveaux gènes régulés par ceux-ci. Partant de données décrivant les séquences d’ADN/ARN et les fonctions des gènes et de micro-ARNs déjà connus (données validées expérimentalement), il s’agira  de construire des modèles prédictifs (règles de décision) permettant de découvrir des propriétés nouvelles de micro-ARNs/gènes connus ou bien d’identifier de nouveaux micro-ARNs ou de nouveaux gènes sujets à la régulation par l’intermédiaire des micro-ARNs.

Modalités pratiques :

Le TFE est précédé d’un stage d’un mois qui aura lieu en septembre 2006 dans le Laboratoire de Génétique de l’Université de Liège sous la supervision du Professeur Michel Georges.

La recherche sera ensuite réalisée au sein de l’équipe de bioinformatique du centre de recherches en génoprotéomique de l’ULg (CBIG/GIGA www.giga.ulg.ac.be) en étroite collaboration avec les généticiens du GIGA.

Renseignements/Encadrement : 

Samuel Hiard (hiard@montefiore.ulg.ac.be), Louis Wehenkel (L.Wehenkel@ulg.ac.be)

Bibliographie :

  • The Widespread Impact of Mammalian MicroRNAs on mRNA Repression and Evolution, Kyle Kai-How Farh, Andrew Grimson, Calvin Jan, Benjamin P. Lewis, Wendy K. Johnston, Lee P. Lim, Christopher B. Burge, David P. Bartel. SCIENCE 310-16 December, 2005, pp. 1917-1821.
  • Animal MicroRNAs Confer Robustness to Gene Expression and Have a Significant Impact on 3’¡ÇUTR Evolution, Alexander Stark, Julius Brennecke, Natascha Bushati, Robert B. Russell, and Stephen M. Cohen. CELL 123, December 16, 2005, pp. 1133%Gâ€“%@1146.



Intégration a priori de données biologiques pour la classification automatique de Microarrays

Depuis quelques années, des technologies d'acquisition de données biologiques expérimentales (microarray, proteinchips, ...) permettent de mesurer un très grand nombre (plusieurs dizaines de milliers) de données relatives à l’état biochimique d’un échantillon cellulaire (prélevé sur un patient, un animal,...) sous la forme de concentrations de diverses molécules biologiques (ARNs, protéines). La classification automatique de ces données (par exemple pour la distinction entre un patient sain et un patient malade) par des algorithmes d'apprentissage supervisé et l'identification automatique de biomarqueurs (des protéines, ou des gènes) se fait souvent indépendamment des connaissances disponibles dans les bases de données biologiques publiques (ontologies, enzymes, pathways, localisations chromosomiques, ...). Le but de ce travail est de développer un logiciel qui intègre ces connaissances diverses en amont de l'application de méthodes d'apprentissage automatique supervisé, et d'évaluer cette approche en termes de précision et de biomarqueurs identifiés.

La première étape de ce TFE consiste à faire une synthèse des bases de données biologiques existantes [1-3]. Parmi celles-ci, il s'agira de sélectionner celles dont les informations semblent les plus pertinentes à intégrer pour la classification de données microarrays. Une représentation de ces données devra être proposée (à l'instar de [4]) de telle sorte qu'elles puissent être traitées par des algorithmes d'apprentissage supervisé tels que les ensembles d'arbres de décision. Ensuite, l'étudiant devra développer une plateforme générique (un logiciel ou un site web) qui reçoit les données microarrays d'un nouveau problème de classification et génère un tableau de données enrichi par des combinaisons des données biologiques. La plateforme devra ensuite invoquer les algorithmes d'apprentissage et fournira les résultats à l'utilisateur en termes de précision et de biomarqueurs identifiés. La troisième étape consiste à valider l'approche sur plusieurs bases de données de microarrays relatives à différentes maladies (cancers, ...).

Modalités pratiques :

La recherche sera réalisée au sein de l’équipe de bioinformatique du centre de recherches en génoprotéomique de l’ULg (CBIG/GIGA www.giga.ulg.ac.be, Professeur Louis Wehenkel) en étroite collaboration avec les biologistes.

Renseignements/Encadrement :

Raphaël Marée (Raphael.Maree@ulg.ac.be), Pierre Geurts (P.Geurts@ulg.ac.be)

Bibliographie :




Algorithmes de classification pour la génomique

Le problème de classification des gènes (gene clustering) consiste à diviser l’ADN en groupes de gènes qui ont une activité liée. Les gènes présentent en effet un certain couplage: la protéine produite par un gène peut stimuler ou inhiber l’activité de certains autres gènes. La classification des gènes en clusters indépendants est actuellement un challenge très important pour les généticiens. Un des buts de cette classification est l’identification de marqueurs génétiques pour diverses pathologies.

 

Ce travail de fin d’études comportera une importante recherche bibliographique au sujet des méthodes actuellement utilisées dans ce domaine. Certaines approches seront ensuite appliquées à des bases de données connues. Le travail pourra déboucher sur un sujet de doctorat réalisé au sein de l’équipe de bioinformatique du centre de recherches en génoprotéomique de l’ULg.

Renseignements/Encadrement :

M. Journée, R. Sepulchre (R.Sepulchre@ulg.ac.be), L. Wehenkel (L.Wehenkel@ulg.ac.be).

Bibliographie :




Extraction de l’artefact cardiobalistique dans des enregistrements EEG

Les enregistrements électroencéphalographiques (EEG) sont soumis à de nombreux artefacts qui occultent des signaux résultant de l’activité du cerveau. Ces artefacts proviennent de l’environnement (la perturbation à 50Hz et surtout la pollution magnétique par le scanner IRM lorsque les enregistrements EEG et IRM sont réalisés en parallèle) ou du patient lui-même (clignement des yeux, contraction des muscles, battement du coeur, etc.). Tout neurologue est intéressé par l’élimination de ces perturbations des signaux EEG afin d’en faciliter l’analyse.

Certains artefacts ont été éliminés avec succès. Le but de ce travail de fin d’études est d’identifier celui induit par l’activité cardiaque, i.e., l’artefact cardiobalistique. Pour ce faire, différentes méthodes de traitement du signal seront appliquées. Parmi celles-ci se retrouvera l’analyse en composantes indépendantes (ICA) qui réalise une séparation aveugle de sources, i.e., la reconstitution des sources à l’origine de signaux mesurés sans connaissance préalable du processus de mélange. Certaines variantes de l’ICA seront ensuite envisagées.

Modalités pratiques :

Ce travail est réalisé en collaboration avec le centre de recherche du cyclotron de l’ULg, P. Maquet.

Renseignements/Encadrement :

M. Journée, C. Phillips, P. Maquet, R. Sepulchre (R.Sepulchre@ulg.ac.be).

Bibliographie :

  • Travail de fin d’¡Çétudes de G. Thielen, 2004-2005, Correction des artefacts d’¡Çenregistrement de signal EEG couplé à l’¡ÇIRM.
  • Independent Component Analysis: An Introduction, Stone J.V., Trends in Cognitive Sciences, 6(2), pp59-64, 2002.



Annotation automatique multi-classes d'images

Étant donné des bases de données d'images pré-segmentées et annotées, le but de ce travail est de concevoir une méthode qui construit un modèle qui segmente et annote automatiquement de nouvelles images comme illustré ci-dessous. Une voie proposée à l'étudiant est de combiner l'extraction de fenêtres [1] et les arbres de décision/régression à sorties multiples [2]. La méthode et les améliorations que l'étudiant proposera devront être évaluées sur plusieurs bases de données [5]. Les développements pourront être réalisés en Java au sein de PiXiT.

taken from Criminisi_eccv2006

Bibliographie :

Renseignements/Encadrement :

Raphaël Marée.




Classification automatique d'images biomédicales

Les images biomédicales présentent de nombreuses variations qui peuvent être dûes aux sujets "non rigides" étudiés (organes, cellules, ...) et aux sources de bruits issues des protocoles expérimentaux et des instruments d'acquisition. Ces variations rendent leur classification automatique difficile. En particulier, la classification de radiographies par une méthode générique donne des résultats satisfaisants [1] mais généralement en deçà de méthodes plus spécifiques et très loin encore d'une classification parfaite.

Le but de ce travail est d'étudier la combinaison des fenêtres extraites par cette méthode [1] avec différents types d'informations ou "features" pré-calculées (localement ou globalement) au sein des images [2-5]. L'approche devra être évaluée sur au moins trois bases de données d'images biomédicales [6] (radiographies, microscopie par fluorescence) en termes de taux d'erreur et d'identification de "features" les plus pertinentes. Les développements pourront être réalisés en Java au sein de PiXiT.

RBC Dataset Aachen

IRMA RWTH Aachen

Bibliographie :

Renseignements/Encadrement :

Raphaël Marée.




Etude comparative d'algorithmes ICA sur des données vibratoires

Domaines : théorie des vibrations, traitement du signal.

L'analyse en composantes indépendantes (ICA) est une approche capable de réaliser une séparation aveugle de sources, i.e., la reconstitution des sources à l'origine de signaux mesurés sans connaissance préalable du processus de mélange. A l'heure actuelle, différents algorithmes ICA sont disponibles. Ceux-ci sont toutefois soumis à certaines limitations.

De récentes recherches ont révélé l'utilité de la méthode ICA pour résoudre le problème de l'analyse modale. Des données vibratoires expérimentales constitueront dès lors une bonne base de données pour une étude comparative des algorithmes ICA.

Le travail consistera à réaliser un ensemble de mesures de vibrations sur une structure simple (une poutre dont on peut modifier le facteur d'amortissement). Les modes et fréquences propres de la structure seront ensuite extraits par la méthode ICA et comparés au modèle théorique de la poutre. L'analyse des résultats validera les avantages et les limitations des différents algorithmes.

Bibliographie :

Prérequis :

Les cours "Théorie des Vibrations" ainsi que "Mesures des Vibrations et Identification des Structures" sont vivement conseillés.

 

Modalités pratiques :

Possibilité de stage industriel

 

Renseignements/Encadrement :

M. Journée, G. Kerschen, R. Sepulchre (R.Sepulchre@ulg.ac.be), J.-C. Golinval.




Commande optimale et contrôle moteur de tâches coordonnées

Domaines : optimal control - motor coordination – neurophysiology

Lorsqu’un humain exécute un mouvement simple (par exemple, toucher quelque chose avec sa main), il doit coordonner de nombreux degrés de liberté mécaniques (épaule, coude, poignet, doigts) pour réaliser cette tâche. On peut dire que le système est largement sur-actué. Il est observé que la trajectoire de ces différents degrés de liberté est très variable, essais après essais, alors que l’objectif final de la tâche est lui toujours correctement atteint. La théorie du contrôle optimal peut expliquer ce phénomène: seuls les degrés de libertés qui influencent la performance de la tâche seront corrigés, tandis que les autres ne le seront pas, afin d’économiser l’"effort" de contrôle. Cela signifie également que l’humain possède un modèle interne de la tâche à exécuter, puisqu’il peut prévoir l’évolution de sa dynamique. Durant ce travail, l’étudiant devra analyser des données expérimentales de jonglerie et les mettre en relation avec la théorie du contrôle optimal. Plus généralement, il sera intéressant d’illustrer quel type de degré de liberté doit être précisément contrôlé lors de l’exécussion d’une tâche rythmique.

Références :

  • Poster SfN 2005 - Todorov and Jordan: Optimal feedback control as a theory of motor coordination

Renseignements/Encadrement :

R. Ronsse, R. Sepulchre (R.Sepulchre@ulg.ac.be).




Etude spectrale de systèmes dynamiques complexes

Domaines : systèmes dynamiques, chaos, propriétés statistiques

Les systèmes dynamiques en temps discret peuvent exhiber des dynamiques très complexes avec des équations très simples. Le mémoire étudiera des travaux récents qui étudient les propriétés statistiques des solutions de ces systèmes complexes à partir d’un opérateur linéaire. L’accent du mémoire sera mis sous l’angle de la synthèse: on étudiera comment "programmer" ou "contrôler" des systèmes dynamiques pour obtenir des propriétés statistiques désirées sur les solutions. Le mémoire étudiera quelques applications de ces techniques en cryptographie et en télécommunications.

Bibliographie

  • Spectral properties of dynamical systems, model reduction, and decompositions. I. Mezic, Nonlinear Dynamics (4), pp. 309-325, 2005. Available here
  • Statistical modeling of discrete-time chaotic processes %Gâ€“%@ basic finite dimensional tools and applications. G. Setti et al., Proceedings of the IEEE, pp. 662-290, vol. 90, 2002.

Renseignements/Encadrement :

R. Sepulchre (R.Sepulchre@ulg.ac.be).




Etude et construction d’un vélo incontrôlable

Domaine: Automatique–limitations de performance

Le vélo constitue un bel exemple d’objet de la vie courante qui est instable par construction mais facilement stabilisé par l’être humain. Une modification du vélo usuel consiste à utiliser la roue arrière plutôt que la roue avant comme roue directrice. Cette modification apparemment bénigne peut rendre le vélo impossible à contrôler. Des résultats classiques de l’automatique permettent de prédire et de quantifier ces limitations de performance sur un modèle dynamique simple, indépendamment de ses propriétés de commandabilité. Le mémoire visera à comprendre la nature paradoxale de ce phénomène dynamique et à l’illustrer par la construction d’un vélo "incontrôlable". Référence: Une conférence plénière de Karl Aström (Lund, Sweden) sur le sujet (Aout 2003). "Many people have seen theoretical advantages in (...) front-drive, rear-steered bicycles (...). The US Department of Transportation commissioned the construction of a safe motorcycle with this configuration. It turned out to be safe in an unexpected way: No one could ride it." F. Whitt and D. Wilson. Egonomics and mechanics, MIT Press (1974).

Renseignements/Encadrement :

R. Sepulchre (R.Sepulchre@ulg.ac.be).




Développement d’un capteur de navigation inertielle pour l’aérobot

Domaines: robotique – navigation inertielle

L’aérobot est un petit robot mobile propulsé par deux ventilateurs (turbines). La commande du système de propulsion a été développée dans le cadre du tfe de Christophe Boniver (2002-2003). L’objectif du tfe consistera à développer un capteur de navigation inertielle pour l’aérobot et à “fermer la boucle", c’est-à-dire réaliser des trajectoires simples en boucle fermée.

Bibliographie:

  • Le mémoire constituera la suite du tfe de Christophe Boniver (2002-2003)

Renseignements/Encadrement :

R. Sepulchre (R.Sepulchre@ulg.ac.be).




Conception et implémentation d'une boucle de régulation pour les lignes d'agglomération sidérurgiques

Dans le but d'optimiser la production de l'aggloméré utilisé en haut fourneau pour produire de l'acier, il est intéressant d'utiliser des algorithme de contrôle permettant de réguler les quantités de coke et d'eau ajoutées au mélange, afin d'obtenir les propriétés mécaniques désirées.

Le travail de fin d'étude, réalisé consisterait en les tâches suivantes:
1) Analyse de la littérature pour trouver les modèles décrivant les deux processus à contrôler et comparaison de ces modèles
2) Design des boucles de régulation et démonstration de leurs performances
3) Implémentation pratique de ces boucles de régulation dans la plateforme informatique de la société
4) Possibilité de test en usine suivant le timing des commandes

Les boucles de régulation reposent principalement sur 2 capteurs développés par la société. L'étudiant pourrait également s'impliquer dans ce design et son interfaçage avec la plateforme informatique.

Renseignements/Encadrement :

R. Sepulchre (R.Sepulchre@ulg.ac.be), M. Dechesne (IRM group).




Développement d'une plateforme haute performance pour le Data Mining

Les méthodes d'apprentissage automatique telles que les ensembles d'arbres de décision [1] sont parmi les plus rapides pour l'analyse de grands volumes de données mais leur application reste dépendante de l'espace mémoire et de la puissance de calcul disponibles. Actuellement, sur un ordinateur individuel, on peut analyser en quelques heures des bases de données comportant quelques centaines de millions de valeurs.

Le but de ce travail est de développer une plateforme pour le traitement efficace de volumes de données encore plus importants. L'étudiant commencera son travail par une revue de l'état de l'art dans le domaine du Grid Computing et des modèles d'échanges de données (peer-to-peer, ...). Il développera ensuite une infrastructure performante de Data Mining avec gestion de la mémoire, partage de processus et de données. Son logiciel devra être évalué sur une base de données d'images médicales en utilisant la méthode de classification d'images de [2]. Cette application impliquera l'analyse de plusieurs milliards de valeurs numériques.

Modalités pratiques:
Pour ses essais, l'étudiant pourra utiliser les noeuds de calcul récemment installés par le SEGI à Montefiore.

Renseignements/Encadrement :
Raphael.Maree@ulg.ac.be, P.Geurts@ulg.ac.be, L.Wehenkel@ulg.ac.be

Bibliographie :

[1] Extremely Randomized Trees Pierre Geurts, Damien Ernst, Louis Wehenkel Machine Learning, Volume 36, Number 1, page 3-42 - 2006

[2] Random Subwindows for Robust Image Classification Raphaël Marée, Pierre Geurts, Justus Piater, Louis Wehenkel Proceedings of the IEEE International Conference on Computer Vision and Pattern Recognition (CVPR 2005), Volume 1, page 34--40 - June 2005