Liste de nos séminaires

(ordre anti-chronologique)


Séminaire DAPA du 5 / 4 / 2012 à 10h30

Approche Perceptuelle pour l'amélioration et l'évaluation de la qualité d'image

Azeddine Beghdadi


L2TI, Institut Galilée, Université Paris 13

Lieu : 25-26 105

L'abondance de méthodes de traitement et d'analyse d'image basées sur des approches purement orientées signal a permis de résoudre un grand nombre de problèmes dans divers domaines appliqués. Cependant, l'absence de critères objectifs corrélés à l'appréciation humaine limite l'efficacité de telles méthodes dans bon nombre d'applications. En effet, l'appréciation subjective de l'observateur, dernier maillon  de toute  chaîne de traitement et de transmission d'image, reste le critère le plus fiable pour l'évaluation de performance.  La prise en compte de critères perceptuels pour l'optimisation de méthodes de traitement, d'analyse et de compression d'information visuelle  apparaît ainsi de plus en plus comme la solution la plus prometteuse. Nous assistons depuis quelques années  à  un regain d'intérêt pour les méthodes bio-inspirées et en particulier   la prise en compte de critères lies à la perception visuelle via la modélisation des mécanismes du Système Visuel Humain (SVH). En effet, L'exploitation de quelques connaissances sur  le SVH, et notamment la sensibilité au contraste et l'architecture fonctionnelle du cortex, a ouvert de nouvelles perspectives en traitement d'images numériques.   Ce séminaire s'inscrit dans cette démarche et se présente sous forme de tutoriel où seront abordées quelques notions de bases sur les mécanismes du SVH ainsi que des applications des approches perceptuelles à diverses problématiques dans le domaine du traitement et de l'analyse de l'information visuelle. On s'intéressera plus particulièrement à la notion de qualité d'image. Je donnerai mon point de vue sur l'évolution de ce domaine à la lumière de l'état des connaissances actuelles et discuterai des possibilités d'extension des approches perceptuelles à d'autres domaines d'applications. L’abondance de méthodes de traitement et d’analyse d’image basées sur des approches purement orientées signal a permis de résoudre un grand nombre de problèmes dans divers domaines appliqués. Cependant, l’absence de critères objectifs corrélés à l’appréciation humaine limite l’efficacité de telles méthodes dans bon nombre d’applications. En effet, l’appréciation subjective de l’observateur, dernier maillon  de toute  chaîne de traitement et de transmission d’image, reste le critère le plus fiable pour l’évaluation de performance.  La prise en compte de critères perceptuels pour l’optimisation de méthodes de traitement, d’analyse et de compression d’information visuelle  apparaît ainsi de plus en plus comme la solution la plus prometteuse. Nous assistons depuis quelques années  à  un regain d’intérêt pour les méthodes bio-inspirées et en particulier   la prise en compte de critères lies à la perception visuelle via la modélisation des mécanismes du Système Visuel Humain (SVH). En effet, L'exploitation de quelques connaissances sur  le SVH, et notamment la sensibilité au contraste et l'architecture fonctionnelle du cortex, a ouvert de nouvelles perspectives en traitement d'images numériques.  
Ce séminaire s’inscrit dans cette démarche et se présente sous forme de tutoriel où seront abordées quelques notions de bases sur les mécanismes du SVH ainsi que des applications des approches perceptuelles à diverses problématiques dans le domaine du traitement et de l’analyse de l’information visuelle. On s’intéressera plus particulièrement à la notion de qualité d’image. Je donnerai mon point de vue sur l’évolution de ce domaine à la lumière de l’état des connaissances actuelles et discuterai des possibilités d’extension des approches perceptuelles à d’autres domaines d’applications.


Séminaire DAPA du 22 / 3 / 2012 à 9h30

Cluster Harnessing Analyses for High Dimension Low Sample-Size Data

Mika Sato-Ilic


University of Tsukuba

Lieu : 25-26 101

Recently, analyses of high dimension low sample-size data in which the number of variables is much larger than the number of objects has gained a tremendous amount of interest from many researchers in various areas, including genomics and other bioinformatics areas. For this type of data, due to the curse of dimensionality, we tend to obtain a poor classification result. The main cause of this is noise occurring from irrelevant and redundant variables (dimensions). Therefore, we need to use “an adaptable variable selection to reduce or summarize variables.” For the summarization of variables, correlation based analysis is well-known and many applications have proven their efficiency. One example, principal component analysis (PCA) is a typical correlation based analysis which can obtain the principal components in a lower dimensional space, and based on this coordinate spanned by these components, we can obtain the similarity relationship of objects in the lower dimensional space. Therefore, this method can be used for dimension reduction purposes. However, if we apply PCA to the high-dimension low-sample size data, then mathematically we cannot obtain a solution due to the singularity of the correlation matrix with respect to variables. In this talk, I will show that the inclusion of classification structures to the variable reduction and summarization methods can overcome these problems. We call these methods cluster harnessing analyses. First, I talk about the correlation of variables which can measure similarity between the correlation of variables and the correlation of classification structures. In addition, I will show that this correlation can be derived from the dissimilarity of data and from the classification structures for the two fixed variables which we call fuzzy self-organized dissimilarity. Second, I will talk about the variable selection criterion using the fuzzy clustering result. This criterion can show how the dissimilarity of variables at each object can match the given classification as the external information to the data. According to the value of this criterion for each variable, we can select the significant variables. In addition, based on these selected variables, I show how to obtain the data in which the number of objects is larger than the number of variables by exploiting the representation of interval-valued data. Several applications of the proposed cluster harnessing analyses for identifying a classifier of microarray data, which is a typical high dimension low sample-size data, will be demonstrated along with a new definition of marker factor instead of conventional maker gene.


Séminaire DAPA du 2 / 2 / 2012 à h

TextElaborator : un système prêt-à l'emploi pour la génération automatique de textes

Laurence Danlos


Université Paris 7

Lieu : 25-26 105

Nous présenterons TextElaborator, un système prêt-à l'emploi pour développer des applications de génération de textes. TextElaborator a été utilisé pour l'application EasyText, application opérationnelle  chez Kantar-Media (TNS-Sofres) pour commenter  des données numériques sur les investissements publicitaires de leurs clients.TextElaborator repose sur le formalisme G-TAG inspiré des grammaires  d'arbres adjoints. Il s'appuie donc sur des données linguistiques de  qualité, adaptées aux besoins de la génération de textes.


Séminaire DAPA du 26 / 1 / 2012 à 14h

Stratégie de fusion crossmedia pour l'indexation de documents mutimedia

Bertrand Delezoide


CEA-LIST

Lieu : 25-26 105

L'indexation automatique de documents multimédia a pour but de permettre, par le biais de techniques automatiques ou semi-automatiques d'extraction du contenu et de la structure, l'exploitation de collection de documents multimédia. Cette exploitation peut consister, par exemple, à rechercher un document donné dans une collection, à partir d'une description ou d'un autre document, à naviguer dans une collection pour parcourir son contenu, à résumer la collection ou un de ses documents, etc... De nombreuses publications du domaine [3,...] ont montré la pertinence de la fusion d'informations provenant de plusieurs media issus des documents eux-mêmes [1], ainsi que de sources externes [2,4]. Nous présenterons plusieurs stratégies de fusion crossmedia développées au laboratoire LVIC du CEA-List pour des applications de classification de scène et de segmentation de vidéo [1], de classification d'images fixes [2] ou de reconnaissance de visages et de monuments dans des films de fiction [4]. Enfin, nous introduirons les travaux sur le résumé de documents multimedia réalisés  dans le cadre du projet ANR Periplus. Biblio:[1] Bertrand Delezoide. Modèles d'indexation multimedia pour la description automatique de films de cinéma. PhD thesis, UNIVERSITE PARIS VI PIERRE ET MARIE CURIE, 2006.[2] Delezoide B., Pitel G., Le Borgne H., Grefenstette G., Moëllic P.-A., Millet C. Object/Background Scene Joint Classification in Photographs Using Linguistic Statistics from the Web. Proc. of OntoImage'2008 (2nd International "Language Resources for Content-Based Image Retrieval" Workshop in conjunction with LREC'2008), Marrakech, Marocco, p 24-30, May 26, 2008. [3] B. Delezoide et al. MM: modular architecture for multimedia information retrieval. Content-Based Multimedia Indexing (CBMI 2010), 2010 pp 136-141, Grenoble, France, 23-25 june 2010[4] B. Delezoide, D. Nouri, S. Hamlaoui. On-line characters identification in movies. Content-Based Multimedia Indexing (CBMI 2011), 2011 pp 169 - 174, Madrid, Spain, 13-15 June 2011.Dr. Bertrand Delezoide has received his MS degree and PhD in Signal Processing and Informatics from University of Pierre et Marie Curie, Paris, France, in 2001 and 2006. During 2004-2005 he was assistant professor at the Université Pierre et Marie Curie. Currently, he is a research engineer from the CEA-LIST. His research interests are in the area of heterogeneous multimedia document processing: video and audio automatic indexing, automatic video segmentation, speech to text and video retrieval.


Séminaire DAPA du 19 / 1 / 2012 à 10h

Recherche d'information : Distribution de mots et modèles d'information

Eric Gaussier


Professor (Computer Science) Université Joseph Fourier (Grenoble I)

Lieu : 25/26 105

Les modèles probabilistes sont à l'heure actuelle les modèles de choix pour la recherche d'information /ad hoc/ non supervisée. Ces modèles se sont développés à partir de différents principes :
ordonnancement probabiliste, modèle de langue, déviation à l'aléatoire.
Nous introduisons ici une nouvelle famille de modèles qui s'inscrit dans le cadre de la déviation à l'aléatoire tout en corrigeant et simplifiant les modèles précédemment proposés dans ce cadre. Nous montrons qu'une
des conditions pour que les modèles de cette famille se comportent bien est qu'ils soient fondés sur des distribution de probabilité "en rafale" (burstiness), un phénomène mis en avant de façon empirique dans diverses
études sur les collections textuelles. Ces modèles établissent donc un pont naturel entre recherche d'information et distributions des mots en corpus. Nous discutons également des liens entre les distributions de
probabilité en rafale et les différentes distributions à "longue" traîne (traîne grasse, longue ou lourde).


Séminaire DAPA du 6 / 12 / 2011 à 13h

Utilisation des media sociaux en finance quantitative, le cas de Twitter

Arnaud VINCENT


Mines ParisTech

Lieu : 25-26 105

D'après nombre de journalistes, marketeurs et chercheurs les medias sociaux constituent une sorte de miroir permettant de devancer le monde réel dans la compréhension de nouvelles tendances ou la survenance de nouveaux évènements.Si cette propriété est exacte, les medias sociaux devraient constituer un apport décisif pour améliorer les performances d'une stratégie de trading. En effet, les marchés réagissant aux informations connues des opérateurs, disposer d'un moyen d'anticiper même partiellement les informations les tendances et les rumeurs devrait constituer un avantage compétitif significatif.Parmi les media sociaux, Twitter est un support de travail idéal, c'est un media très ouvert, mondial, d'accès gratuit et généralement considéré comme une source d'information plus fiable que le reste des medias sociaux.Notre travail consiste à rechercher des éléments factuels attestant de l'apport de Twitter sur des modèles de finance quantitative exécutés dans des conditions réelles. Nous avons mis en oeuvre une expérimentation à grande échelle sur le FOREX en confiant à un algorithme génétique le soin de chercher des combinaisons pertinentes et nous avons proposé différentes méthodes de traitement du "signal" Twitter.Sur le périmètre étudié nous sommes parvenus à quantifier exactement l'apport de Twitter sur le PnL de nos stratégies de trading.


Séminaire DAPA du 25 / 11 / 2011 à 10h

From query processing to information integration: the power of decomposition techniques

Zoltan Miklos


EPFL, Switzerland

Lieu : LIP6 25-26/101

The prevalent use of information technology has created a number of new challenges. Applications often need to cope with massive amounts of data, integrated from multiple, heterogeneous sources. We discuss
various types of decomposition techniques that are useful to address these challenges. The decomposition techniques enable to focus on smaller sub-problems and then to combine their partial results for
obtaining solutions to the original problem.
First, we elaborate on decomposition techniques for Boolean conjunctive query processing over relational databases and we present a comprehensive picture of the corresponding complexity questions.
Then, we discuss entity resolution problems in Web data collections, where we rely on machine learning methods. In this case, a different type of problem decomposition led to effective techniques. Finally, we report about our ongoing work on P2P data integration, in particular, in the context of business networks. We present our model that focuses on some specific important, however widely ignored aspects of the integration problem. We demonstrate how can a (yet another type of) decomposition method help here.


Séminaire DAPA du 27 / 10 / 2011 à 10h

Des modèles de performances à la e-santé

Patrick Garda


LIP6 - Université Pierre et Marie Curie

Lieu : 25/26-105

Lors de ce séminaire, nous présenterons les principaux thèmes de recherche de l'équipe Systèmes Electroniques (SYEL) du LIP6, en mettant l'accent sur les sujets qui peuvent donner lieu à des collaborations dans
le domaine de l'apprentissage, en particulier :

- modèles de performance des objets communicants, comme la consommation d'énergie

- réseaux de capteurs et leurs applications dans le domaine de la santé


Séminaire DAPA du 19 / 10 / 2011 à 14h

Heuristic based Query Optimisation for SPARQL

Irini FUNDULAKI


ICS FORTH, Crète

Lieu : 26-00/101

During the last decade we have witnessed an increase in the amount of semantic data. The so called Web of Data extents the current Web to a global data space connecting data from diverse domains. A
central issue in such setting is the efficient support for storing, querying, and manipulating semantic RDF data. In this work we focus on the problem of scalable processing and optimisation of semantic queries
expressed in SPARQL using modern relational engines. Existing solutions heavily rely on statistics for the stored RDF graphs, and on cost-based planning algorithms. Extensive data statistics are quite expensive to
compute and maintain for large scale and always evolving semantic data. The main challenge is to devise heuristic-based query optimisation techniques generating near to optimal execution plans without any
knowledge of the underlying datasets.


Séminaire DAPA du 6 / 1 / 2011 à 14h

Fouille visuelle de données complexes en réalité virtuelle

Gilles Venturini


Université François Rabelais de Tours

Lieu : (à venir)

L'objectif de cet exposé est de donner un aperçu des travaux menés dans notre équipe en ce qui concerne la fouille visuelle de données en réalité virtuelle. Une vue d'ensemble sur la problématique des interfaces visuelles entre l'expert du domaine et ses données est d'abord proposée. Les trois projets communs de l'équipe servent ensuite d'illustration pour montrer les apports et les inconvénients des méthodes visuelles et interactives. Le premier projet (VRMiner) concerne l'exploration interactive de données pouvant être complexes (données classiques avec des images, textes, ...) ou encore des données temporelles ou bien des cubes de données OLAP. Le deuxième projet (VirtualSkinLAB) concerne la fouille d'images stéréoscopiques, avec toute la chaîne de traitement nécessaire (acquisition, calibration de caméras, mise en correspondance sur GPU, visualisation stéréoscopique, exploration interactive). Le troisième projet (FIBRATLAS) concerne l'acquisition au Laser des fibres blanches de cerveaux humains en cours de dissection, ainsi que la visualisation stéréoscopique et l'exploration des surfaces acquises, dans le but de construire un atlas de ces fibres.


Séminaire DAPA du 16 / 12 / 2010 à 9h30

L'apprentissage de l'apprentissage chez le jeune enfant

Jacques Pitrat


LIP6

Lieu : 25-26/105

La revue Cognitive Science a publié en septembre 2010 un numéro spécial sur la façon dont les jeunes enfants créent ou améliorent leur capacité d'apprentissage dans des domaines comme la perception visuelle ou le langage. Dans une première étape, un autre numéro spécial de ce même journal, paru en janvier 1990, avait montré qu'un bon ensemble de contraintes permet d'apprendre efficacement. Cela a conduit à réaliser de nombreuses expériences sur l'apprentissage des enfants ; cela a aussi amené des chercheurs à faire d'autres expériences pour passer à l'étape suivante : comment ces ensembles de contraintes sont-ils acquis, ce qui conduit alors à apprendre à apprendre. Certaines de ces contraintes sont innées, mais ces nouvelles études montrent que souvent l'enfant les découvre progressivement au cours de son développement cognitif.
Ces travaux ne relèvent pas directement de l'IA, mais ils devraient intéresser tout chercheur en IA qui peut ainsi s'inspirer des mécanismes utilisés par le plus grand expert en apprentissage : le jeune enfant.
Je parlerai plus particulièrement de quatre papiers de ce numéro. Ils portent sur l'apprentissage de contraintes pour la perception visuelle, pour construire des modèles causaux, pour trouver des catégories perceptuelles, et enfin pour établir un module géométrique.