Liste de nos séminaires

(ordre anti-chronologique)

Séminaire DAPA du 11 / 10 / 2012 à 10h

Prix boursiers, incertitude et couverture médiatique

Marie-Aude Laguna

DRM-Finance, Université Paris-Dauphine

Lieu : 25-26:105

Après avoir précisé les modalités de réaction des prix boursiers aux annonces financières en présence d’incertitude, nous présenterons les principaux défis empiriques posés par l’étude du rôle des médias sur les marchés boursiers : comment distinguer, notamment, le contenu informationnel des annonces du contexte informationnel des marchés.
La présentation s’appuiera sur le cas particulier de la réponse des marchés et des média aux accidents industriels.

Séminaire DAPA du 8 / 10 / 2012 à 14h

Global Technology Outlook (GTO) 2012

C. Mohan

IBM Fellow and Former IBM India Chief Scientist

Lieu : 2526:101

The Global Technology Outlook (GTO) is IBM Research's vision of the future for information technology (IT) and its impact on industries that use IT. This annual exercise highlights emerging software, hardware, and services technology trends that are expected to significantly impact the IT sector in the next 3-7 years. In particular, the GTO identifies technologies that may be disruptive to an existing business, have the potential to create new opportunity, and can provide new business value to our customers. The 2012 GTO is set to build not only on its 30 predecessors, but the 100 years of IBM innovation. The 2012 GTO reports on six key findings that share a common theme: analytics. The explosion of unstructured, and increasingly uncertain, data will amplify the need for the development of new models and new classes of computing systems that can handle the unique demands of analytics. The 2012 GTO focuses on six topics: Managing Uncertain Data at Scale, Systems of People, Outcome Based Business, Resilient Business and Services, Future of Analytics, and The Future Watson . In this talk, I will share the GTO 2012 findings with the audience. This talk should be of interest not only technical people but also to a much broader set of people.


Dr. C. Mohan has been an IBM researcher for 30 years in the information management area, impacting numerous IBM and non-IBM products, the research community and standards, especially with his invention of the ARIES family of locking and recovery algorithms, and the Presumed Abort commit protocol. This IBM, ACM and IEEE Fellow has also served as the IBM India Chief Scientist. In addition to receiving the ACM SIGMOD Innovation Award, the VLDB 10 Year Best Paper Award and numerous IBM awards, he has been elected to the US and Indian National Academies of Engineering, and has been named an IBM Master Inventor. This distinguished alumnus of IIT Madras received his PhD at the University of Texas at Austin. He is an inventor of 37 patents. He serves on the advisory board of IEEE Spectrum and on the IBM Software Group Architecture Board’s Council. More information can be found in his home page at

Séminaire DAPA du 4 / 10 / 2012 à 17h

Analytics, Cloud-Computing, and Crowdsourcing – or How To Destroy My Job...

Piero P. Bonissone

Chief Scientist, SSA, GE Global Research


A Chief Scientist at GE Global Research, Dr. Bonissone has been a pioneer in the field of fuzzy logic, AI, soft computing, and approximate reasoning systems applications since 1979. Recently he has led a Soft Computing (SC) group in the development of SC application to diagnostics and prognostics of processes and products, including the prediction of remaining life for each locomotive in a fleet, to perform efficient assets selection.  His current interests are the development of multi-criteria decision making systems for PHM and the automation of intelligent systems lifecycle to create, deploy, and maintain SC-based systems, providing customized performance while adapting to avoid obsolescence.

He is a Fellow of the Institute of Electrical and Electronics Engineers (IEEE), of the Association for the Advancement of Artificial Intelligence (AAAI), of the International Fuzzy Systems Association (IFSA), and a Coolidge Fellow at GE Global Research.  He is the recipient of the 2012 Fuzzy Systems Pioneer Award from the IEEE Computational Intelligence Society. Since 2010, he is the President of the Scientific Committee of the European Centre of Soft Computing.  In 2008 he received the II Cajastur International Prize for Soft Computing from the European Centre of Soft Computing. In 2005 he received the Meritorious Service Award from the IEEE Computational Intelligence Society. He has received two Dushman Awards from GE Global Research. He served as Editor in Chief of the International Journal of Approximate Reasoning for 13 years. He is in the editorial board of five technical journals and is Editor-at-Large of the IEEE Computational Intelligence Magazine. He has co-edited six books and has over 150 publications in refereed journals, book chapters, and conference proceedings, with an H-Index of 30 (by Google Scholar). He received 65 patents issued from the US Patent Office (plus 15 pending patents).  From 1982 until 2005 he has been an Adjunct Professor at Rensselaer Polytechnic Institute, in Troy NY, where he has supervised 5 PhD theses and 33 Master theses. He has co-chaired 12 scientific conferences and symposia focused on Multi-Criteria Decision-Making, Fuzzy sets, Diagnostics, Prognostics, and Uncertainty Management in AI. Dr. Bonissone is very active in the IEEE, where is has been a member of the Fellow Evaluation Committee from 2007 to 2009. In 2002, while serving as President of the IEEE Neural Networks Society (now CIS) he was also a member of the IEEE Technical Board Activities (TAB). He has been an Executive Committee member of NNC/NNS/CIS society since 1993 and an IEEE CIS Distinguished Lecturer since 2004.

General Electric Global Research

Lieu : LIP6 (UPMC), en salle 2526:105.

We are witnessing the resurgence of analytics as a key differentiator for creating new services, the emergence of cloud computing as a disrupting technology for service delivery, and the growth of crowdsourcing as a new phenomenon in which people play critical roles in creating information and shaping decisions in a variety of problems. After introducing the first two (well-known) concepts, we will analyze some of the opportunities created by the advent of crowdsourcing. Then, we will explore the intersections of these three concepts.  We will examine their evolution from the optics of a professional machine-learning researcher and try to understand how his job and roles have evolved over time. In the past, analytic model building was an artisanal process, as models were handcrafted by an experienced, knowledgeable model-builder. More recently, the use of meta-heuristics (such as evolutionary algorithms) has provided us with limited levels of automation in model building and maintenance.  In the not so distant future, we expect analytic models to become a commodity. We envision having access to a large number of data-driven models, obtained by a combination of crowdsourcing, crowdservicing, cloud-based evolutionary algorithms, outsourcing, in-house development, and legacy models. In this new context, the critical issue will be model ensemble selection and fusion, rather than model generation. We address this issue by proposing customized model ensembles on demand, inspired by Lazy Learning. In our approach, referred to as Lazy Meta-Learning, for a given query we find the most relevant models from a DB of models, using their meta-information. After retrieving the relevant models, we select a subset of models with highly uncorrelated errors (unless diversity was injected in their design process.)  With these models we create an ensemble and use their meta-information for dynamic bias compensation and relevance weighting. The output is a weighted interpolation or extrapolation of the outputs of the models ensemble. The confidence interval around the output is reduced as we increase the number of uncorrelated models in the ensemble. This approach is agnostic with respect to the genesis of the models, making it scalable and suitable for a variety of applications.  We have successfully tested this approach in a regression problem for a power plant management application, using two different sources of models: bootstrapped neural networks, and GP-created symbolic regressors evolved on a cloud.

Séminaire DAPA du 5 / 7 / 2012 à 10h

Gérer l'inconsistence et l'incertitude dans la fusion d'information via les sous-ensembles maximaux cohérents: concept et illustration

Sébastien Destercke

Laboratoire Heuristique et Diagnostic des Systèmes Complexes, Compiègne

Lieu : 2526:105

Dans exposé, je parlerai des problèmes de fusion d'information en présence d'incertitudes importantes (peu de données, manque de fiabilité) et de conflit entre les sources d'information. Je considèrerai l'utilisation des théories probabilistes imprécises comme un moyen de modéliser l'incertitude, et j'appliquerai le principe de sous-ensembles maximaux cohérents pour fusionner les différents éléments (conflictuels) d'information. J'illustrerai ensuite l'application de ce principe par quelques exemples.

Séminaire DAPA du 26 / 6 / 2012 à 10h

A Calculus for Practical Reasoning

Alexander Artikis

National Centre for Scientific Research "Demokritos"

Lieu : 2526:105

In the field of complex event processing, among others, there is a need for computational frameworks supporting real-time reasoning, reasoning under uncertainty and automated knowledge construction. I will present a dialect of the Event Calculus that meets these requirements. The Event Calculus is a logic programming language for representing and reasoning about events and their effects. Our dialect includes novel caching techniques that allow for efficient temporal reasoning, scalable to large data streams. Furthermore, when ported to probabilistic frameworks, it may support various types of uncertainty, such noisy data streams and imprecise knowledge. To avoid the time-consuming, error-prone process of manual knowledge construction, I will present techniques for incremental structure learning that take advantage of large datasets. The Event Calculus dialect will be illustrated with the use of two real-world applications: complex event recognition for city transport management and public space surveillance.

Séminaire DAPA du 24 / 5 / 2012 à 10h30

Transverse Subjectivity Classification

Gaël Harry Dias

Professeur à l'Université de Caen Basse-Normandie

Lieu : 25-26 105

In this talk, we will present our research on learning models for subjectivity classification across domain. After a small introduction about related works and challenges of sentiment analysis, we will start by presenting new features for subjectivity analysis. Then, we will present two different paradigms of multi-view learning strategies to learn transfer models: multi-view learning with agreement and guided multi-view learning. Then, we will present an exhaustive evaluation based on both paradigms including two states-of-the-art algorithms and show that accuracy over 91% can be obtained using three views. In our concluding remarks, we will talk about future extensions of the presented methodology.

Séminaire DAPA du 3 / 5 / 2012 à 10h

Fouille d'espaces de recherche en optimisation combinatoire

Pascale Kuntz

Laboratoire d'Informatique de Nantes Atlantique École Polytechnique de l'Université de Nantes

Lieu : 2526:105 (Grande Salle)

Dans cet exposé, nous discuterons de l'intérêt de la fouille exploratoire de données pour tenter de découvrir des structures dans des espaces de recherche associés à des problèmes d'optimisation combinatoire, et ainsi améliorer les performances expérimentales de certaines méta-heuristiques. Des illustrations seront données notamment sur le problème de coloration de graphes.

Séminaire DAPA du 5 / 4 / 2012 à 14h

Attribution d’auteur : Une approche basée sur le vocabulaire spécifique

Jacques Savoy

Institut d'informatique, Université de Neuchâtel – Suisse

Lieu : Salle 25-26 105

Dans cette présentation, nous discuterons des familles de méthodes proposées pour résoudre le problème de l’attribution d’auteur (sur la base d’un ensemble de texte écrits par des auteurs connus, peut-on déterminer l’auteur d’un nouveau document).  Après un survol des diverses questions reliées à l’attribution d’auteur, nous présenterons des solutions classiques à cette question.  Notre modèle s’inscrit dans cette perspective et s’appuie sur le concept de vocabulaire spécifique d’un texte ou d’une partie d’un corpus.  Nous avons ainsi la possibilité de définir la spécificité lexicale d’un texte (ou d’un auteur).  Ensuite nous indiquerons comment cette spécificité peut être comparée à des profils d’auteurs afin de déterminer l’auteur possible d’un texte.  Afin d’évaluer notre approche nous avons conduit deux expériences sur des corpus de presse (Glasgow Herald : 5 408 articles écrit par 20 journalistes ; La Stampa : 4 326 articles rédigés par 20 auteurs).  Cette expérience démontre les qualités relatives des méthodes Delta, chi-carré ou celle basée sur la divergence de Kullback-Leibler.    

Séminaire DAPA du 5 / 4 / 2012 à 10h30

Approche Perceptuelle pour l'amélioration et l'évaluation de la qualité d'image

Azeddine Beghdadi

L2TI, Institut Galilée, Université Paris 13

Lieu : 25-26 105

L'abondance de méthodes de traitement et d'analyse d'image basées sur des approches purement orientées signal a permis de résoudre un grand nombre de problèmes dans divers domaines appliqués. Cependant, l'absence de critères objectifs corrélés à l'appréciation humaine limite l'efficacité de telles méthodes dans bon nombre d'applications. En effet, l'appréciation subjective de l'observateur, dernier maillon  de toute  chaîne de traitement et de transmission d'image, reste le critère le plus fiable pour l'évaluation de performance.  La prise en compte de critères perceptuels pour l'optimisation de méthodes de traitement, d'analyse et de compression d'information visuelle  apparaît ainsi de plus en plus comme la solution la plus prometteuse. Nous assistons depuis quelques années  à  un regain d'intérêt pour les méthodes bio-inspirées et en particulier   la prise en compte de critères lies à la perception visuelle via la modélisation des mécanismes du Système Visuel Humain (SVH). En effet, L'exploitation de quelques connaissances sur  le SVH, et notamment la sensibilité au contraste et l'architecture fonctionnelle du cortex, a ouvert de nouvelles perspectives en traitement d'images numériques.   Ce séminaire s'inscrit dans cette démarche et se présente sous forme de tutoriel où seront abordées quelques notions de bases sur les mécanismes du SVH ainsi que des applications des approches perceptuelles à diverses problématiques dans le domaine du traitement et de l'analyse de l'information visuelle. On s'intéressera plus particulièrement à la notion de qualité d'image. Je donnerai mon point de vue sur l'évolution de ce domaine à la lumière de l'état des connaissances actuelles et discuterai des possibilités d'extension des approches perceptuelles à d'autres domaines d'applications. L’abondance de méthodes de traitement et d’analyse d’image basées sur des approches purement orientées signal a permis de résoudre un grand nombre de problèmes dans divers domaines appliqués. Cependant, l’absence de critères objectifs corrélés à l’appréciation humaine limite l’efficacité de telles méthodes dans bon nombre d’applications. En effet, l’appréciation subjective de l’observateur, dernier maillon  de toute  chaîne de traitement et de transmission d’image, reste le critère le plus fiable pour l’évaluation de performance.  La prise en compte de critères perceptuels pour l’optimisation de méthodes de traitement, d’analyse et de compression d’information visuelle  apparaît ainsi de plus en plus comme la solution la plus prometteuse. Nous assistons depuis quelques années  à  un regain d’intérêt pour les méthodes bio-inspirées et en particulier   la prise en compte de critères lies à la perception visuelle via la modélisation des mécanismes du Système Visuel Humain (SVH). En effet, L'exploitation de quelques connaissances sur  le SVH, et notamment la sensibilité au contraste et l'architecture fonctionnelle du cortex, a ouvert de nouvelles perspectives en traitement d'images numériques.  
Ce séminaire s’inscrit dans cette démarche et se présente sous forme de tutoriel où seront abordées quelques notions de bases sur les mécanismes du SVH ainsi que des applications des approches perceptuelles à diverses problématiques dans le domaine du traitement et de l’analyse de l’information visuelle. On s’intéressera plus particulièrement à la notion de qualité d’image. Je donnerai mon point de vue sur l’évolution de ce domaine à la lumière de l’état des connaissances actuelles et discuterai des possibilités d’extension des approches perceptuelles à d’autres domaines d’applications.

Séminaire DAPA du 22 / 3 / 2012 à 9h30

Cluster Harnessing Analyses for High Dimension Low Sample-Size Data

Mika Sato-Ilic

University of Tsukuba

Lieu : 25-26 101

Recently, analyses of high dimension low sample-size data in which the number of variables is much larger than the number of objects has gained a tremendous amount of interest from many researchers in various areas, including genomics and other bioinformatics areas. For this type of data, due to the curse of dimensionality, we tend to obtain a poor classification result. The main cause of this is noise occurring from irrelevant and redundant variables (dimensions). Therefore, we need to use “an adaptable variable selection to reduce or summarize variables.” For the summarization of variables, correlation based analysis is well-known and many applications have proven their efficiency. One example, principal component analysis (PCA) is a typical correlation based analysis which can obtain the principal components in a lower dimensional space, and based on this coordinate spanned by these components, we can obtain the similarity relationship of objects in the lower dimensional space. Therefore, this method can be used for dimension reduction purposes. However, if we apply PCA to the high-dimension low-sample size data, then mathematically we cannot obtain a solution due to the singularity of the correlation matrix with respect to variables. In this talk, I will show that the inclusion of classification structures to the variable reduction and summarization methods can overcome these problems. We call these methods cluster harnessing analyses. First, I talk about the correlation of variables which can measure similarity between the correlation of variables and the correlation of classification structures. In addition, I will show that this correlation can be derived from the dissimilarity of data and from the classification structures for the two fixed variables which we call fuzzy self-organized dissimilarity. Second, I will talk about the variable selection criterion using the fuzzy clustering result. This criterion can show how the dissimilarity of variables at each object can match the given classification as the external information to the data. According to the value of this criterion for each variable, we can select the significant variables. In addition, based on these selected variables, I show how to obtain the data in which the number of objects is larger than the number of variables by exploiting the representation of interval-valued data. Several applications of the proposed cluster harnessing analyses for identifying a classifier of microarray data, which is a typical high dimension low sample-size data, will be demonstrated along with a new definition of marker factor instead of conventional maker gene.

Séminaire DAPA du 2 / 2 / 2012 à h

TextElaborator : un système prêt-à l'emploi pour la génération automatique de textes

Laurence Danlos

Université Paris 7

Lieu : 25-26 105

Nous présenterons TextElaborator, un système prêt-à l'emploi pour développer des applications de génération de textes. TextElaborator a été utilisé pour l'application EasyText, application opérationnelle  chez Kantar-Media (TNS-Sofres) pour commenter  des données numériques sur les investissements publicitaires de leurs clients.TextElaborator repose sur le formalisme G-TAG inspiré des grammaires  d'arbres adjoints. Il s'appuie donc sur des données linguistiques de  qualité, adaptées aux besoins de la génération de textes.

Séminaire DAPA du 26 / 1 / 2012 à 14h

Stratégie de fusion crossmedia pour l'indexation de documents mutimedia

Bertrand Delezoide


Lieu : 25-26 105

L'indexation automatique de documents multimédia a pour but de permettre, par le biais de techniques automatiques ou semi-automatiques d'extraction du contenu et de la structure, l'exploitation de collection de documents multimédia. Cette exploitation peut consister, par exemple, à rechercher un document donné dans une collection, à partir d'une description ou d'un autre document, à naviguer dans une collection pour parcourir son contenu, à résumer la collection ou un de ses documents, etc... De nombreuses publications du domaine [3,...] ont montré la pertinence de la fusion d'informations provenant de plusieurs media issus des documents eux-mêmes [1], ainsi que de sources externes [2,4]. Nous présenterons plusieurs stratégies de fusion crossmedia développées au laboratoire LVIC du CEA-List pour des applications de classification de scène et de segmentation de vidéo [1], de classification d'images fixes [2] ou de reconnaissance de visages et de monuments dans des films de fiction [4]. Enfin, nous introduirons les travaux sur le résumé de documents multimedia réalisés  dans le cadre du projet ANR Periplus. Biblio:[1] Bertrand Delezoide. Modèles d'indexation multimedia pour la description automatique de films de cinéma. PhD thesis, UNIVERSITE PARIS VI PIERRE ET MARIE CURIE, 2006.[2] Delezoide B., Pitel G., Le Borgne H., Grefenstette G., Moëllic P.-A., Millet C. Object/Background Scene Joint Classification in Photographs Using Linguistic Statistics from the Web. Proc. of OntoImage'2008 (2nd International "Language Resources for Content-Based Image Retrieval" Workshop in conjunction with LREC'2008), Marrakech, Marocco, p 24-30, May 26, 2008. [3] B. Delezoide et al. MM: modular architecture for multimedia information retrieval. Content-Based Multimedia Indexing (CBMI 2010), 2010 pp 136-141, Grenoble, France, 23-25 june 2010[4] B. Delezoide, D. Nouri, S. Hamlaoui. On-line characters identification in movies. Content-Based Multimedia Indexing (CBMI 2011), 2011 pp 169 - 174, Madrid, Spain, 13-15 June 2011.Dr. Bertrand Delezoide has received his MS degree and PhD in Signal Processing and Informatics from University of Pierre et Marie Curie, Paris, France, in 2001 and 2006. During 2004-2005 he was assistant professor at the Université Pierre et Marie Curie. Currently, he is a research engineer from the CEA-LIST. His research interests are in the area of heterogeneous multimedia document processing: video and audio automatic indexing, automatic video segmentation, speech to text and video retrieval.

Séminaire DAPA du 19 / 1 / 2012 à 10h

Recherche d'information : Distribution de mots et modèles d'information

Eric Gaussier

Professor (Computer Science) Université Joseph Fourier (Grenoble I)

Lieu : 25/26 105

Les modèles probabilistes sont à l'heure actuelle les modèles de choix pour la recherche d'information /ad hoc/ non supervisée. Ces modèles se sont développés à partir de différents principes :
ordonnancement probabiliste, modèle de langue, déviation à l'aléatoire.
Nous introduisons ici une nouvelle famille de modèles qui s'inscrit dans le cadre de la déviation à l'aléatoire tout en corrigeant et simplifiant les modèles précédemment proposés dans ce cadre. Nous montrons qu'une
des conditions pour que les modèles de cette famille se comportent bien est qu'ils soient fondés sur des distribution de probabilité "en rafale" (burstiness), un phénomène mis en avant de façon empirique dans diverses
études sur les collections textuelles. Ces modèles établissent donc un pont naturel entre recherche d'information et distributions des mots en corpus. Nous discutons également des liens entre les distributions de
probabilité en rafale et les différentes distributions à "longue" traîne (traîne grasse, longue ou lourde).

Séminaire DAPA du 6 / 12 / 2011 à 13h

Utilisation des media sociaux en finance quantitative, le cas de Twitter


Mines ParisTech

Lieu : 25-26 105

D'après nombre de journalistes, marketeurs et chercheurs les medias sociaux constituent une sorte de miroir permettant de devancer le monde réel dans la compréhension de nouvelles tendances ou la survenance de nouveaux évènements.Si cette propriété est exacte, les medias sociaux devraient constituer un apport décisif pour améliorer les performances d'une stratégie de trading. En effet, les marchés réagissant aux informations connues des opérateurs, disposer d'un moyen d'anticiper même partiellement les informations les tendances et les rumeurs devrait constituer un avantage compétitif significatif.Parmi les media sociaux, Twitter est un support de travail idéal, c'est un media très ouvert, mondial, d'accès gratuit et généralement considéré comme une source d'information plus fiable que le reste des medias sociaux.Notre travail consiste à rechercher des éléments factuels attestant de l'apport de Twitter sur des modèles de finance quantitative exécutés dans des conditions réelles. Nous avons mis en oeuvre une expérimentation à grande échelle sur le FOREX en confiant à un algorithme génétique le soin de chercher des combinaisons pertinentes et nous avons proposé différentes méthodes de traitement du "signal" Twitter.Sur le périmètre étudié nous sommes parvenus à quantifier exactement l'apport de Twitter sur le PnL de nos stratégies de trading.

Séminaire DAPA du 25 / 11 / 2011 à 10h

From query processing to information integration: the power of decomposition techniques

Zoltan Miklos

EPFL, Switzerland

Lieu : LIP6 25-26/101

The prevalent use of information technology has created a number of new challenges. Applications often need to cope with massive amounts of data, integrated from multiple, heterogeneous sources. We discuss
various types of decomposition techniques that are useful to address these challenges. The decomposition techniques enable to focus on smaller sub-problems and then to combine their partial results for
obtaining solutions to the original problem.
First, we elaborate on decomposition techniques for Boolean conjunctive query processing over relational databases and we present a comprehensive picture of the corresponding complexity questions.
Then, we discuss entity resolution problems in Web data collections, where we rely on machine learning methods. In this case, a different type of problem decomposition led to effective techniques. Finally, we report about our ongoing work on P2P data integration, in particular, in the context of business networks. We present our model that focuses on some specific important, however widely ignored aspects of the integration problem. We demonstrate how can a (yet another type of) decomposition method help here.

Séminaire DAPA du 27 / 10 / 2011 à 10h

Des modèles de performances à la e-santé

Patrick Garda

LIP6 - Université Pierre et Marie Curie

Lieu : 25/26-105

Lors de ce séminaire, nous présenterons les principaux thèmes de recherche de l'équipe Systèmes Electroniques (SYEL) du LIP6, en mettant l'accent sur les sujets qui peuvent donner lieu à des collaborations dans
le domaine de l'apprentissage, en particulier :

- modèles de performance des objets communicants, comme la consommation d'énergie

- réseaux de capteurs et leurs applications dans le domaine de la santé

Séminaire DAPA du 19 / 10 / 2011 à 14h

Heuristic based Query Optimisation for SPARQL



Lieu : 26-00/101

During the last decade we have witnessed an increase in the amount of semantic data. The so called Web of Data extents the current Web to a global data space connecting data from diverse domains. A
central issue in such setting is the efficient support for storing, querying, and manipulating semantic RDF data. In this work we focus on the problem of scalable processing and optimisation of semantic queries
expressed in SPARQL using modern relational engines. Existing solutions heavily rely on statistics for the stored RDF graphs, and on cost-based planning algorithms. Extensive data statistics are quite expensive to
compute and maintain for large scale and always evolving semantic data. The main challenge is to devise heuristic-based query optimisation techniques generating near to optimal execution plans without any
knowledge of the underlying datasets.

Séminaire DAPA du 6 / 1 / 2011 à 14h

Fouille visuelle de données complexes en réalité virtuelle

Gilles Venturini

Université François Rabelais de Tours

Lieu : (à venir)

L'objectif de cet exposé est de donner un aperçu des travaux menés dans notre équipe en ce qui concerne la fouille visuelle de données en réalité virtuelle. Une vue d'ensemble sur la problématique des interfaces visuelles entre l'expert du domaine et ses données est d'abord proposée. Les trois projets communs de l'équipe servent ensuite d'illustration pour montrer les apports et les inconvénients des méthodes visuelles et interactives. Le premier projet (VRMiner) concerne l'exploration interactive de données pouvant être complexes (données classiques avec des images, textes, ...) ou encore des données temporelles ou bien des cubes de données OLAP. Le deuxième projet (VirtualSkinLAB) concerne la fouille d'images stéréoscopiques, avec toute la chaîne de traitement nécessaire (acquisition, calibration de caméras, mise en correspondance sur GPU, visualisation stéréoscopique, exploration interactive). Le troisième projet (FIBRATLAS) concerne l'acquisition au Laser des fibres blanches de cerveaux humains en cours de dissection, ainsi que la visualisation stéréoscopique et l'exploration des surfaces acquises, dans le but de construire un atlas de ces fibres.

Séminaire DAPA du 16 / 12 / 2010 à 9h30

L'apprentissage de l'apprentissage chez le jeune enfant

Jacques Pitrat


Lieu : 25-26/105

La revue Cognitive Science a publié en septembre 2010 un numéro spécial sur la façon dont les jeunes enfants créent ou améliorent leur capacité d'apprentissage dans des domaines comme la perception visuelle ou le langage. Dans une première étape, un autre numéro spécial de ce même journal, paru en janvier 1990, avait montré qu'un bon ensemble de contraintes permet d'apprendre efficacement. Cela a conduit à réaliser de nombreuses expériences sur l'apprentissage des enfants ; cela a aussi amené des chercheurs à faire d'autres expériences pour passer à l'étape suivante : comment ces ensembles de contraintes sont-ils acquis, ce qui conduit alors à apprendre à apprendre. Certaines de ces contraintes sont innées, mais ces nouvelles études montrent que souvent l'enfant les découvre progressivement au cours de son développement cognitif.
Ces travaux ne relèvent pas directement de l'IA, mais ils devraient intéresser tout chercheur en IA qui peut ainsi s'inspirer des mécanismes utilisés par le plus grand expert en apprentissage : le jeune enfant.
Je parlerai plus particulièrement de quatre papiers de ce numéro. Ils portent sur l'apprentissage de contraintes pour la perception visuelle, pour construire des modèles causaux, pour trouver des catégories perceptuelles, et enfin pour établir un module géométrique.