TFE 2008-2009

Ci-dessous la liste des travaux de fin d'études que nous proposons. Celle-ci sera complétée dans les prochaines semaines.


Bioinformatique/biomédical

Apprentissage supervisé et sélection de variables pour la reconstruction de réseaux de régulation génétiques à partir de cinétiques d'expression

Complétion du réseau OMIM par apprentissage automatique

Classification et régression à partir de graphes(attribué à Julien Becker)

Classification de spectres de masse protéiques

Réalisation d'un outil adaptatif de comptage de cellules (attribué à Nicolas Carlozzi)

Analyse automatique d'images expérimentales chez le poisson zèbre (attribué à Michael Menu)

Classification d'images et apprentissage automatique pour la cristallographie(attribué à Laura Moraga Ballesteros)

Power of genomewide association studies

Feature selection as pre-screening tool for multifactor dimensionality reduction

Optimal definition of high and low risk cells in MDR analysis

Apprentissage automatique / Analyse d'images

Utilisation de noyau en entrée des méthodes d'arbres de décision

Classification et régression à partir de graphes(attribué à Julien Becker)

Recherche d'images dans des bases de données distribuées(attribué à Philippe Denis)

Classification automatique et indexation de données audio(attribué à Pierre Demonceau)

Recherche d'une évaluation robuste de l’excentricité dans des systèmes binaires d’étoiles

Optimisation des tests électriques de composants à semi-conducteurs par une approche de Data Mining

Théorie des systèmes/contrôle/Traitement du signal

Optimisation

Conception d'un algorithme pour proposer différents choix discrets dans un problème de plus court chemin.

Planification de la localisation des bulles à verre et optimisation des tournées de collecte.

Recherche du vecteur le plus court d'un treillis entier par décomposition

Planification de l'offre de transports en commun de l'agglomération liégeoise




Apprentissage supervisé et sélection de variables pour la reconstruction de réseaux de régulation génétiques à partir de cinétiques d'expression

Comprendre la réponse de la cellule à un signal donné requiert l'élucidation des mécanismes complexes qui gouvernent l'expression génique et donc la synthèse de protéines. Ces mécanismes sont mis en oeuvre par un réseau d'interactions entre les gènes et/ou leurs produits. Identifier ces interactions notamment à partir de mesures expérimentales constitue à l'heure actuelle un problème majeur. Pour résoudre ce problème, l'apprentissage automatique offre un cadre à la fois formel et méthodologique.

Ce travail se focalisera sur la reconstruction de réseaux de régulation génétiques à partir de mesures expérimentales de cinétiques d'expression de gènes. La plupart des méthodes d'analyse de données cinétiques construisent un modèle probabiliste de la dynamique qui fait l'hypothèse markovienne que l'expression d'un gène à l'instant t est fonction de l'expression d'un certain nombre de gènes (régulateurs) à l'instant t-1. Ce problème peut donc être traduit en un problème d'apprentissage supervisé classique où chaque pas de temps constitue un échantillon pour l'apprentissage. On peut le traiter plus naturellement comme un problème de régression (prédiction directe de l'expression) mais également comme un problème de classification (après discrétisation des valeurs d'expression). L'intérêt étant la reconstruction du réseau de régulation, il est nécessaire de combiner cet apprentissage avec une recherche des régulateurs pour chacun des gènes. Dans ce contexte supervisé, cette recherche s'apparente à un problème de sélection de variables.

Ce travail étudiera différentes méthodes d'apprentissage et de sélection de variables pour ce problème. D'abord une revue de la littérature sur la sélection de variables en apprentissage supervisé sera faite, en privilégiant les méthodes à base de noyau et les méthodes d'arbre de décision. Ensuite, on étudiera nombre limité de méthodes, d'abord sur des données simulées, ensuite sur données réelles relatives au cycle cellulaire de la levure.

Renseignements: P. Geurts

Promoteur: Louis Wehenkel


Classification et régression à partir de graphes

Les objets manipulés en biologie moléculaire sont souvent représentés par des graphes. (Un composé chimique est réprésenté par un graphe entre atomes, la structure 2D d’une molécule d’ARN par un graphe entre nucléotides, la structure d’une protéine par un graphe entre acides aminés, etc.). Plusieurs propriétés de ces molécules liées à leur structure sont très difficiles à modéliser mathématiquement et coûteuse à vérifier expérimentalement. L’apprentissage automatique est donc souvent exploité pour généraliser les connaissances dont on dispose sur un petit nombre de molécules à d’autres molécules dont on ne connaît que la structure sous-jacente (le graphe). Des exemples d’applications sont la prédiction du caractère cancerigène ou de la toxicité de substances chimiques ou encore la prédiction de la fonction d’une protéine à partir de sa structure tri-dimensionnelle. La prise en compte de ce type de données en entrée des méthodes d’apprentissage a donné lieu à plusieurs algorithmes spécifiques.

Ce travail de fin d’étude visera à faire un état de l’art sur les méthodes proposées dans ce domaine. Ensuite, une méthode originale sera proposée, implémentée, et évaluée sur un ou plusieurs problèmes tests issus de la littérature. Plusieurs pistes seront proposées à l’étudiant, parmi lesquelles l’exploitation au sein des méthodes d’arbres de décision d’algorithmes efficace de recherche de pattern dans les graphes ou l’adaptation de l’approche “segment and combine” à ce type de données.

Bibliographie:

Renseignements: Pierre Geurts

Promoteur: Louis Wehenkel


Complétion du réseau OMIM par apprentissage automatique

La base de données OMIM (Online Mendelian Inheritance in Man) recense les liens connus entre les gènes humains et les différentes maladies génétique. Cette base de données permet de définir un réseau entre gènes dans lequel deux gènes sont connectés lorsqu’ils sont impliqués dans une même maladie. Ce réseau apporte une information très importante pour étudier les différentes maladies et le rôle des différents gènes au sein de ces dernières.

Le but de ce travail est d’évaluer la possibilité de prédire la co-occurence entre gènes dans une même maladie par apprentissage automatique. La première partie du travail consistera à bien comprendre la structure de la base de données OMIM et à collecter le réseau de gènes et les différentes information sur ces gènes qui seront utilisées pour la phase d’apprentissage. Ensuite, différentes méthodes d’inférence de réseau seront sélectionnées et testées par validation croisée sur le réseau collecté.

Bibliographie:

Renseignements: Pierre Geurts, Alexandre Irrthum

Promoteur: Louis Wehenkel

(taken from "the human disease network", Goh et al., PNAS 2007)


Classification de spectres de masse protéiques

Les techniques de spectrométrie de masse modernes permettent la détermination d'un profile protéique à partir de fluides corporels tels que le sang ou la salive. Ce profile protéique peut être utilisé dans beaucoup d'applications médicales, par exemple pour diagnostiquer l'état courant d'un patient ou prédire l'évolution future de sa maladie. L’unité de recherche en bioinformatique et modélisation collabore depuis plusieurs années avec le laboratoire de chimie médicale à l’analyse de ces spectres par apprentissage automatique.

Ce travail visera à explorer plusieurs voies pour améliorer les méthodes de classification qui sont habituellement utilisées sur ces données. Les voies d’amélioration qui pourront être explorées sont les suivantes: meilleure exploitation des réplicats de mesure, méthodes de sélection et de réduction de variables, normalisation des spectres et méthodes de détermination des pics.

Les différentes améliorations algorithmiques seront testées sur plusieurs bases de données réelles liées à l’étude de maladies inflammatoires.

Bibliographie:

  • Proteomic mass spectra classification using decision tree based ensemble methods, Pierre Geurts, Dominique deSeny, Marianne Fillet, Marie-Alice Meuwis, Michel Malaise, Marie-Paule Merville, Louis Wehenkel. Bioinformatics, Volume 21, Number 14, page 3138-3145, 2005.
  • Comparison of normalisation methods for surface-enhanced laser desorption and ionisation (SELDI) time-of-flight (TOF) mass spectrometry data, W Meuleman, JYMN Engwegen, MCW Gast, JH Beijnen, MJT Reinders and LFA Wessels, BMC Bioinformatics 2008, 9:88

Renseignements: Pierre Geurts, Raphaël Marée

Promoteur: Louis Wehenkel


Réalisation d'un outil adaptatif de comptage de cellules

Ce travail est proposé dans le cadre de notre collaboration avec des équipes du GIGA et co-encadré avec l'équipe du Prof. Marc Van Droogenbroeck.
Dans le cadre de recherches contre le cancer notamment, les biologistes tentent d'évaluer l'effet de diverses molécules sur des processus biologiques telle que l'angiogenèse (création de nouveaux vaisseaux sanguins par des tumeurs cancéreuses afin d'assurer leur alimentation). Une partie du travail qui en résulte consiste à devoir compter le nombre de cellules endothéliales (qui forment les vaisseaux) sur des plaques circulaires transparentes (cf photos obtenues par la technique de la chambre de Boyden): au plus ce nombre est élevé, le moins la molécule testée inhibe l'angiogenèse. Ce comptage est jusqu'à présent effectué manuellement. C'est là une tâche pénible et fastidieuse qui pourrait être automatisée. Le but de ce travail est de concevoir et de développer un programme permettant de compter automatiquement le nombre de cellules présentes sur une image donnée. Pour ce faire, l'étudiant devra faire appels à des outils de traitement d'image, ou d'apprentissage automatique, ou les deux. Des données réelles lui seront fournies afin qu'il puisse évaluer les performances des outils qu'il implémentera. Une bonne connaissance du Java et/ou du C est souhaitable.

Renseignements: Raphaël Marée, Geoffrey Gloire

Promoteur: Louis Wehenkel et Marc Van Droogenbroeck.


Analyse automatique d'images expérimentales chez le poisson zèbre

Ce travail est proposé dans le cadre de notre collaboration avec le laboratoire de biologie et génétique moléculaire du GIGA.
Afin de mieux comprendre des mécanismes biologiques fondamentaux (comme le développement des organes, la prolifération de cellules cancéreuses, l'efficacité/toxicité de médicaments), des recherches sont menées au GIGA sur des modèles animaux, en particulier sur le poisson zèbre dont le génome présente de nombreuses similitudes avec celui de l'humain.
Le but de ce travail est d'aider ces recherches, en particulier d'étudier la possibilité de quantifier automatiquement, à partir d'images obtenues par microscopie (voir ci-dessous), les effets de diverses conditions expérimentales (telles que l'administration d'une molécule, la suppression ou diminution de l'expression d'un gène, ...) sur le développement du poisson zèbre. Ce travail exploratoire sera mené sur quelques centaines d'images liées au développement du squelette obtenues suites à deux conditions expérimentales. Les performances d'une telle approche automatique conditionneront l'acquisition future de milliers d'images, correspondant à un plus grand nombre de conditions expérimentales et d'effets à étudier, car leur analyse à l'oeil par les biologistes n'est guère envisageable.

Renseignements: Raphaël Marée, Marc Muller.

Promoteur: Louis Wehenkel




Classification d'images et apprentissage automatique pour la cristallographie

Ce travail sera réalisé en collaboration avec l'Institut de Biotechnologies Moléculaires de Aix-la-Chapelle.
De part le monde, des laboratoires de cristallographie mènent des recherches qui visent à identifier les conditions physico-chimiques qui favorisent la cristallisation de molécules biologiques. Ces efforts se sont intensifiés après le séquencage du génome humain, dans l'attente de déterminer toutes les structure d’un organisme. Ces recherches en génomique structurale vont de pair avec une robotisation intensive des expériences, dont le produit sont des images qu'il est non seulement fastidieux d'analyser à l'oeil étant donné leur très grand nombre, mais qui présente à l’heure actuelle des problèmes technologiques.
L'Institut de Biotechnologies Moléculaires de Aix-la-Chapelle a développé un environnement expérimental robotisé qui permet de réaliser non seulement jusqu'à plusieurs milliers d'expériences par jour mais aussi il a implémenté des technologies nouvelles d'analyse quantitative de microscopie polarisante, ouvrant la voie au développement de nouvelles méthodes d’évaluation.
Dans ce contexte, l'objectif est de développer un système rapide de classification automatique d'images suivie d'une phase de Data Mining qui permettrait de mieux comprendre les conditions favorables de cristallisation. Le projet visera à évaluer les logiciels génériques actuellement disponibles au sein de notre unité (PiXiT, PEPITo) sur une base de données d'images. L'étudiant devra ensuite vraisemblablement proposer des améliorations spécifiques au problème et à la technologie utilisée.

Bibliographie:

Renseignements: Raphaël Marée.

Promoteur: Louis Wehenkel


Power of genomewide association studies

See PDF file for complete description.

Renseignements: Kristel Van Steen


Feature selection as pre-screening tool for multifactor dimensionality reduction

See PDF file for complete description.

Renseignements: Kristel Van Steen


Optimal definition of high and low risk cells in MDR analysis

See PDF file for complete description.

Renseignements: Kristel Van Steen


Utilisation de noyau en entrée des méthodes d'arbres de décision

L'apprentissage supervisé vise à construire automatiquement un modèle d'une relation entrée-sortie à partir uniquement d'observations de cette relation. L'apprentissage trouve des applications dans de nombreux domaines tels que la vision par ordinateur et la bioinformatique.

Parmi les méthodes d'apprentissage les plus populaires figurent les méthodes d'arbres de décision et les méthodes à noyau. Les méthodes d'arbres sont réputées pour leur interprétabilité et leur efficacité. Les méthodes à noyau fournissent des modèles de type boite noire et sont plus gourmandes en temps de calcul mais elles sont généralement plus précises. Un autre avantage important des méthodes à noyau est qu'elles peuvent traiter des entrées complexes. En effet, les entrées sont manipulées par l'algorithme via une mesure de similarité (un noyau) et donc ces méthodes peuvent traiter tout type de données pour lesquelles un telle mesure peut être définie.

Des travaux récents de l'équipe ont montré la possibilité d'utiliser un noyau sur la sortie des méthodes arbre, qui leur permettent de traiter des sorties complexes [1]. En entrée, ces méthodes sont cependant toujours limitées à une représentation classique, vectorielle, des entrées.

Ce travail consistera à proposer et à évaluer différentes stratégies pour exploiter un noyau en entrée des méthodes d'arbre. Trois approches pourraient être envisagées:

1) La première consiste à représenter chaque objet par un vecteur de ses similarités (au sens d'un noyau) aux objets de l'ensemble d'apprentissage et à utiliser cette information comme entrée pour les méthodes d'arbre.

2) Une autre approche consisterait à utiliser l'algorithme d'analyse en composante principale pour passer de la matrice de similarité définie par le noyau à une représentation de type vectoriel.

3) Une troisième approche est d'utiliser des machines à support vectoriel pour définir les tests aux noeuds internes de l'arbre.

Ce travail pourra être scindé en deux travaux de fin d'étude: le premier se focalisant sur les 2 premières approches, le deuxième sur la troisième option. Dans les deux cas, le travail commencera par un recherche bibliographique. Les développements en terme de méthode seront évalués sur différents problèmes de bioinformatique.

Renseignements: P. Geurts

Promoteur: Louis Wehenkel

Bibliographie :

  • Kernel Methods for Pattern Analysis. J. Shawe-Taylor, N. Cristianini. Cambridge University Press, 2004.
  • Kernelizing the output of tree-based methods. P. Geurts, L. Wehenkel, Florence d'Alché-Buc. Proceedings of the 23rd International Conference on Machine Learning, page 345-352, 2006
  • Prototype selection for dissimilarity-based classification. E. Pekalska, R.P.W. Duin, and P. Paclik. Pattern Recognition, vol. 39, no. 2, 2006, 189-208.
  • Margin Trees for High-dimensional Classification. Robert Tibshirani, Trevor Hastie, JMLR 8(Mar):637--652, 2007
  • A support vector machine approach to decision trees. K. Bennett and J. Blue. Technical report, Rensselaer Polytechnic Institute, NY, 1997. R.P.I Math Report No. 97-100.

Recherche d'images dans des bases de données distribuées

La recherche d’images est généralement possible uniquement sur base de mots-clés (cfr. Google Images). Dans ce contexte, un utilisateur soumet quelques mots-clés et un système lui répond par une liste d’images associées à ces termes. Au sein de notre équipe, nous avons développé une méthode de recherche d’images par le contenu où l’utilisateur soumet une image et la méthode retourne une liste d’images stockées localement qui sont visuellement similaires (voir figure ci-dessous). L'objectif de ce travail de fin d'études est d'étendre la méthode pour qu'elle puisse être appliquée à de très grandes bases de données d'images qui sont distribuées. Il s'agit d'un travail de recherche et développement dont l'implémentation pourra être testée sur une grille de calcul et quelques millions d'images.
content-based image retrieval

Bibliographie: Content-based Image Retrieval by Indexing Random Subwindows with Randomized Trees

Renseignements: Raphaël Marée.

Promoteur: Louis Wehenkel


Classification automatique et indexation de données audio

Le but de ce travail est de transposer et valider des algorithmes, que nous avons développés pour la classification et la recherche d'images, pour des données audio. Les applications potentielles sont nombreuses telles que la classification automatique de styles musicaux, d'instruments ou de sons divers, la recherche d'extraits sonores similaires pour la suggestion de musiques basées sur le contenu, ou l'identification de plagiats, etc.
Le travail comportera à la fois une composante de développement informatique (à partir de code existant en Java ou C++) et une importante phase d'évaluation des algorithmes et de leurs paramètres sur des données réelles.

Bibliographie: Segment and combine: a generic approach for supervised learning of invariant classifiers from topologically structured data, Content-based Image Retrieval by Indexing Random Subwindows with Randomized Trees

Renseignements: Raphaël Marée, Pierre Geurts.

Promoteur: Louis Wehenkel


Recherche d'une évaluation robuste de l’excentricité dans des systèmes binaires d’étoiles

Ce travail sera réalisé en collaboration avec le groupe d'astrophysique des hautes énergies (GAPHE) du Département d'astrophysique, géophysique et océanographie (AGO).

La mission Gaia est un projet Pierre Angulaire de l’ESA (agence spatiale européenne). Ce satellite est le successeur du satellite astrométrique HIPPARCOS qui, lancé en 1989, avait fourni des positions précises (quelques milli-secondes d’arc) pour 118000 étoiles explorant ainsi notre banlieue galactique. Gaia devrait quant à lui appréhender une partie importante de notre galaxie et mesurer les positions (sur le ciel) de plus d’un milliard d’étoiles avec une précision de quelques micro-secondes d’arc. Grâce à un spectrographe, il devrait également mesurer, par décalage Doppler, les vitesses radiales des étoiles les plus brillantes donnant ainsi accès avec la mesure des parallaxes à une troisiéme dimension.
Beaucoup d’étoiles sont binaires et tournent l’une et l’autre autour de leur centre de masse commun, obéissant aux lois du mouvement Képlerien. Pour beaucoup de systèmes binaires, il sera possible de mesurer au cours du temps les vitesses radiales des deux objets. L’évolution de ces vitesses radiales donne accès aux paramètres physiques de l’orbite et apporte des contraintes sur les masses des étoiles. C’est d’ailleurs la seule méthode fiable. La dérivation des paramètres physiques se fait par ajustement par moindres carrés des vitesses radiales issues du modèle d’orbite Képlerienne à celles observées. Cet ajustement est de nature non-linéaire (en les paramètres) et est donc effectué de manière itérative. Toutefois, les valeurs de départ des paramètres sont importantes afin de s’assurer que l’on se situe bien dans le minimum absolu. Il est de coutume chez les astronomes de dériver ces valeurs de départ des paramètres de manière empirique, au cas par cas. Cette approche n’est pas soutenable si le nombre d’objets à traiter atteint des sommets de l’ordre du million. Il est nécessaire d’avoir une bonne estimation de certains paramètres et en particulier de l’excentricité de l’orbite. Les astronomes ont mis au point quelques moyens analytiques d’avoir une première estimation de la courbe, toutefois ces moyens restent limités. Nous pensons qu’il est possible de relier la forme de la courbe en vitesses radiales à une estimation relativement précise de l’excentricité au travers de méthodes de reconnaissance de formes ou d’apprentissage supervisé. Le sujet du travail est la recherche et l’évalutation de l’efficacité de telles méthodes alternatives aux méthodes astronomiques classiques.

Renseignements: Pierre Geurts, Raphaël Marée, Eric Gosset.

Promoteur: Louis Wehenkel


Conception d'un algorithme pour proposer différents choix discrets dans un problème de plus court chemin.

De nombreux sites web ainsi que les appareils de navigation proposent à l'utilisateur le plus court chemin pour relier un point à un autre par la route. Dans la plupart des cas, une seule route est proposée. Cela ne permet, en général, pas à l'utilisateur de tenir compte de différents autres facteurs qu'il pourrait trouver pertinents: incertitude sur le trafic, agrément d'une route plutôt qu'une autre, souhait de variété... Dans ce travail de fin d'étude, nous proposons d'élaborer un algorithme qui permette de proposer différents choix de routes alternatives, tout en évitant les variantes triviales d'une route déjà donnée. Pour ce faire, on peut penser, par exemple, à des méthodes de pénalisation d'arêtes, ou à utiliser les variables duales de la formulation en programmation linéaire du problème. Il est également intéressant d'étudier comment le problème évolue lorsque l'on considère des questions de routage dans un réseau telecom.

Renseignements: Quentin Louveaux.

Promoteur: Quentin Louveaux.


Optimisation des tests électriques de composants à semi-conducteurs par une approche de Data Mining

La fabrication des semi-conducteurs est une séquence de processus complexes dans lesquelles de nombreux paramètres inter-agissent et jouent un rôle clé dans la qualité et la performance du produit final. Pour maintenir un haut niveau de qualité, le processus est surveillé de très près. Ce monitoring du processus a donc engendré un accumulation exponentielle d'informations. La caractérisation électrique, le probing et le test final ramènent également un volume considérable de données. Aujourd'hui, toutes ces données sont devenues si nombreuses qu'il est impossible de les utiliser « manuellement ».

En particuliers le test électrique des composants est une étape critique qui consomme un temps non négligeable. L'idée proposée est d'utiliser des données historiques de test électriques pour anticiper une non-conformité du produit. L'objectif est d'augmenter la productivité en réduisant le temps de test.

Ce travail sera réalisé en partenariat avec PEPITe SA, Briot & Associés et ST Micro-Electronics.

Renseignements: Philippe Mack (PEPITe).


Planification de la localisation des bulles à verre et optimisation des tournées de collecte.

Mémoire en collaboration avec FILGLASS (Contact chez FILGLASS : Jean- Pierre Delande)
La société FILGLASS est la filière de Fost Plus dédiée à la collecte sélective des déchets de verre d'emballages.
Une de ses responsabilités principales est de favoriser l'organisation du parc de "bulles à verre" pour la collecte des verres usagés et ensuite la vidange régulière de ces bulles pour envoyer les déchets de verre vers une usine d'épuration en vue de son recyclage dans la production de verre d'emballages neufs.
Le mémoire consiste en une double optimisation: l'optimisation de la localisation des bulles de façon à ce que chaque ménage ait une bulle disponible dans un rayon suffisamment proche et l'optimisation de la tournée des camions de récolte du verre. Ces deux problèmes sont évidemment également interconnectés.
L'investissement dans le nombre de bulles à verre pourra également être pris en compte en vue de son optimisation financière.
Les entreprises en charge de cette collecte son soumises à un cahier des charges établi par FOST Plus.

Renseignements: Quentin Louveaux.

Promoteur: Quentin Louveaux.


Recherche du vecteur le plus court d'un treillis entier par décomposition

Un treillis entier est l'ensemble des vecteurs obtenus par combinaisons entières d'une base de vecteurs entiers. La recherche du vecteur le plus court d'un treillis est un problème extrêmement difficile qui trouve des applications dans tous types de problèmes où l'objectif est de trouver une solution entière se rapprochant le plus possible d'un modèle continu. C'est par exemple le cas d'une situation où l'on doit trouver une affectation d'objets (ou de tranches horaires) ne favorisant personne dans un groupe. Le cas de deux vecteurs dans la base est l'unique cas pour lequel on peut résoudre le problème efficacement. Le but du mémoire est d'expérimenter l'idée de décomposer le treillis en plusieurs petits treillis sur lesquels on optimise, pour ensuite combiner les sous-optimisations.

Renseignements: Quentin Louveaux.

Promoteur: Quentin Louveaux.


Planification de l'offre de transports en commun de l'agglomération liégeoise

Avec l'augmentation du prix de l'énergie, de plus en plus de personnes se déplacent désormais en transports en commun. A Liège en particulier, la question de l'avenir des transports en commun est un sujet qui fait l'objet de nombreux commentaires et études. Le TEC Liège-Verviers adapte d'ailleurs son offre de manière récurrente et la question du tram à Liège fait régulièrement débat. L'idée de ce mémoire est de réaliser une étude "ex nihilo" sur les besoins de l'agglomération liégeoise en lignes de bus. Il s'agirait de déterminer à partir de données réelles une offre optimale de lignes de bus sans nécessairement qu'elles aient un lien avec les lignes existantes. De plus, il pourrait être intéressant de définir un critère de robustesse à l'augmentation de la demande et de l'appliquer soit aux lignes existantes, soit à la solution qui aurait été trouvée précédemment.

Renseignements: Quentin Louveaux.

Promoteur: Quentin Louveaux.