Thèses sur le sujet « Fonction information »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Fonction information.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Fonction information ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Masduraud, Claire. « Information présupposée et différenciation fonctionnelle des informations : étude de la fonction et du traitement de l'information présupposée ». Poitiers, 1995. http://www.theses.fr/1995POIT5006.

Texte intégral
Résumé :
Nous avons d'abord postule que la fonction essentielle de la presupposition est de marquer l'information comme etant secondaire, incitant ainsi l'allocutaire a traiter cette information de facon moins approfondie. Les experiences realisees s'attachent a verifier que la differenciation fonctionnelle des informations liees au statut asserte ou presuppose entraine une difference de traitement. Ces experiences soutiennent l'hypothese d'un traitement moins profond de l'information presupposee puisqu'elles montrent que l'information presupposee est moins accessible en memoire et est moins verifiee que l'information assertee. Cependant ces experiences amenent a s'interroger sur les mecanismes precis de traitement et d'enregistrement de l'information presupposee. Elles invitent, ainsi, a depasser l'approche purement fonctionnelle. Nous avons ainsi ete amene a revoir notre conception de la presupposition que nous proposons finalement de decrire comme un type particulier d'operation de reference. Cette definition nous permet de preciser les processus mis en jeu par la presupposition en comprehension comme en production et permet de preciser certains mecanismes de gestion des connaissances et de gestion de la situation d'interlocution
In a first step, we postulated that the main function of presupposition is to mark the information as secondary, so prompting the hearer to process the information less deeply. Several experiments were performed to assess that the functional differentiation of presupposed and asserted information entails a differrent processing of the information. The experiments supported the hypothesis that presupposed information is processed less deeply : they showed that presupposed information is less available in memory and is less often checked than asserted information. However the experiments led us to wonder about the precise mechanisms of presupposed information's processing and memorizing. Hence, in a second step, we revisited our view of presupposition. We described it as a kind of reference operation. This description allowed us to specify (1) the processes which underlie presupposition's understanding and generation, and (2) some of the mechanisms which manage knowlege and dialogue
Styles APA, Harvard, Vancouver, ISO, etc.
2

Piot, Alain. « Pouvoir des consommateurs ou pouvoir consommer. Fonction sociale du consumerisme francais ». Paris 4, 1987. http://www.theses.fr/1987PA040217.

Texte intégral
Résumé :
Le discours consumeriste en france se revele etre l'expression de fractions sociales appartenant aux couches moyennes en mobilite sociale ascendante, desirant obtenir une plus large part de biens reserves jusqu'alors a des classes plus privilegiees. Cette tentative est sous-tendue par des strategies qui se developpent a deux niveaux: celui de l'action concrete et celui de la lutte symbolique. L'enjeu est en effet d'imposer un autre systeme de valeurs au pole de la production, pour y avoir acces. Ce systeme de valeurs, ou cette ethique, a pour fonction de legitimer l'accession economique et rationnelle de ces fractions sociales aux modeles dominants de consommation. Un mouvement de synergie se dessine entre le courant consumeriste et les acteurs institutionnels du "systeme consommatoire", au benefice des couches montantes de la societe
The consumerist discourse in france is revealed as the expression of social fractions belonging to the upwardly mobile middle classes who wish to acquire a greater part of the goods previously reserved for the more privileged classes. This attempt implies strategies which develop on two levels: that of concrete action and that of a symbolic struggle. The aim in fact, is to impose a new system of values on the production end so as to be able to gain access to them. The function of this system of values, or this ethic, is to legitimize the economic and rational accession by these social fractions to the dominant consumer models. A synergic mouvement is created between the consumerist current and the established actors of the "consumer system" to the benefit of the ascending strata of society
Styles APA, Harvard, Vancouver, ISO, etc.
3

Quere, Bertrand. « L'information financière et comptable en Allemagne et en France du cadre conceptuel à la fonction sociale ». Nice, 1993. http://www.theses.fr/1993NICE0039.

Texte intégral
Résumé :
La quatrieme directive europeenne avait pour but d'harmoniser les regles d'etablissement et de presentation des etats financiers (comptes individuels) dans les differents pays de la ce. La mise en place de cette reglementation date de 1982 en france et de 1985 en allemagne : on pourrait donc croire que l'information financiere et comptable est aujourd'hui unifiee dans ces deux pays, sur la base d'un "standard" commun. Cependant, une analyse comparative des legislations allemandes et francaise en matiere comptable et des dispositifs de normalisation respectifs fait apparaitre plus que des divergences ponctuelles : elle montre que les approches de la comptabilite en tant que systeme d'information sont porteuses, dans chacun de ces deux pays, d'interpretations et de cadres conceptuels originaux herites de traditions et de cultures differentes. Ces specificites exercent encore une influence qui ne doit pas etre negligee, car elles conduisent a d'importantes divergences de fond qui sont en partie dissimulees par la convergence des presentations formelles issues de la quatrieme directive. Le systeme s'information comptable allemand ne doit donc pas etre analyse sous l'angle de ses particularites par rapport a un cadre commun, mais apprehende globalement et compris par reference a son contexte national qui rend irreductibles les divergences
The fourth ec directive intended to harmonize rules regulating financial statements (individual accounts) in the different countries of the european community. These regulations have been introduced in france in 1982 and in germany in 1985 : one could think, therefore that financial reporting is unified in both countries on a standard basis. Nevertheless a comparative anlysis between german and french law and their normalisation systems actually shows that financial reporting in both countries is still strongly influenced by original interpretations and conceptuel frameworks inherited from different traditions and cultures. Theses specificities must not be neglected, because they lead to important divergences which are partially hidden by formal regulations issued by the fourth ec directive. German financial reporting system must not therefore be anylised on particularities opposed to a common framework, but understood by referring to a national context which makes these differences irreducible
Styles APA, Harvard, Vancouver, ISO, etc.
4

Douyère, David. « Communication et poltique de la connaissance : le cas de la fonction hygiène, sécurité, conditions de travail chez France Télécom ». Paris 13, 2005. http://www.theses.fr/2005PA131018.

Texte intégral
Résumé :
Nous proposons de considérer comme relevant d'une " politique de la connaissance " les projets de communication des connaissances conçus dans la perspective d'une transformation sociale par les connaissances transmises. Le projet encyclopédique, du XVIIIe au XXe s. , entend ainsi non seulement porter à la connaissance du public des connaissances et une interprétation de celles-ci, mais changer, par là même, la société. Les discours sur la " société de l'information " ou " de la connaissance ", mais aussi les doctrines du Knowledge Management, entendent que soit remaniée l'organisation sociale par la diffusion de connaissances. Connaissance, communication et société trouvent donc une articulation dans la notion de " politique de la connaissance ". Une investigation en deux volets est entreprise qui entend d'abord forger le concept de " politique de la connaissance " et établir son lien avec la communication, puis analyser une politique de la connaissance à l'œuvre dans une entreprise. Le terrain considéré est la fonction hygiène, sécurité, conditions de travail (HSCT) chez France Télécom. L'approche de la communication des connaissances, fondée notamment sur l'observation de type ethnographique, est menée à trois niveaux : au niveau historique, de 1979 à 2000, par un travail effectué sur des archives, à un niveau social intermédiaire, par une analyse de la réorganisation sociale liée à la communication des connaissances (formation, création de réseaux, stigmatisation sociale), et enfin au niveau micro-social par une analyse de situations de production et de diffusion de connaissances, dans le cadre de la conception éditoriale d'un site intranet et au cours de réunions téléphoniques " de réseau ". Apparaît alors une " politique pratique " de la connaissance qui, à travers l'oral, l'écrit, et des dispositifs de communication, organise le social par la communication des connaissances.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Cauffriez, Laurent. « Contribution à la mesure en temps réel des performances de production d'ateliers manufacturiers dans les applications de supervision distribuées ». Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/597b9ca8-7598-4686-82b0-c5bebe7909ee.

Texte intégral
Résumé :
Les enjeux économiques obligent les entreprises manufacturières à améliorer leur productivité et à diminuer les coûts de production. La réalisation de ces objectifs, rendue difficile par la complexité sans cesse accrue des installations, impose la supervision de production. La supervision de production consiste à suivre l'état du système de production dans le but de détecter des non-performances. La recherche, qui a été menée dans le cadre d'une collaboration industrielle, vise à étudier la faisabilité d'un outil pour la mesure en temps-réel, ou en différé, des performances de production d'ateliers manufacturiers. Le principe de base est de mesurer les performances de production des installations à partir d'informations asynchrones, datées, issues de sites repartis de contrôle/commande communicant au niveau terrain. Deux thèmes majeurs se dégagent de cette recherche: le premier pose la problématique de la datation cohérente d'informations produites par des sites repartis de contrôle/commande. Les travaux sur ce thème ont conduit à la définition de la coherence temporelle des informations dans un système reparti. Le deuxième consiste en la spécification de l'outil de mesure de performances. Les concepts adoptés pour la spécification de l'outil concilient les approches flots de données et evenementielles, et sont inspirés des langages synchrones tels qu'esterel: hypothèse de synchronisme fort ; absence d'horloge interne à l'outil, le temps étant fourni par la date que portent les évènements. Vu le nombre important de fonctions logiques à évaluer en temps-réel, une nouvelle méthode originale d'évaluation a été mise au point et la supériorité de la solution a été montrée. Un prototype de l'outil, développé en langage orienté objet, a été réalisé. La validation de ce prototype a été effectuée sur la mesure des performances de production d'un centre d'usinage
Styles APA, Harvard, Vancouver, ISO, etc.
6

Archambault, Michèle. « Faculté imaginale du roman et fonction de médiation : vers la construction d’un domaine info-littéraire ». Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO20086/document.

Texte intégral
Résumé :
La thèse, qui pose la question de la description du roman et envisage une réponse par l’interrogation d’une problématique documentaire (proposition d’un modèle théorique de représentation, base pour la conception et la réalisation d’outils de navigation raisonnée dans la fiction) conduit une réflexion sur la place de la fiction littéraire dans la construction des savoirs et, par extension, d’une culture. La réflexion et l’expérimentation se font dans le contexte scolaire du lycée d’enseignement général (définition du statut du roman dans l’utilisation qui en est faite dans les programmes et objectifs d’enseignement, analyse de la notion de lecture littéraire en lycée) et par l’analyse d’un corpus de textes : étude de La mystérieuse flamme de la Reine Loana / Umberto Eco, 2004, traduction française, Paris, Grasset et Fasquelle, 2005, doublée de l’étude d’un corpus aléatoire sur le thème de la Shoah. L’objet d’étude étant le roman, les liens entre les Sciences de l’Information et de la Communication et la sémiotique sont abordés sous un jour nouveau : construction d’une théorie sémiotique (définition, mise en place d’un langage formel, choix d’un système de représentation) adaptée à l’objet d’étude par l’explicitation des conditions de production de sens, ce qui implique une hybridation des champs (SIC et théories d’analyse littéraire). Sont développés les éléments théoriques pour un modèle de représentation de la fiction. Les définitions du roman, de la fiction littéraire narrative, de l’information, de la fictiologie (nouveau champ de recherche ouvert par l’étude) et de l'information fictiologique critique, complétées par une description du positionnement dans le champ des Sciences de l’Information et de la Communication, posent le cadre de la réflexion. Un chapitre traitant de la littérature et de la notion de mémoire permet de décrire les liens entre roman et représentation de la réalité. Pour cela, sont définies et étudiées les notions de texte, de référence et de contexte. Enfin, est explicité le titre de la thèse par la description de la faculté imaginale et de la fonction de médiation prêtées au roman. Pour clôturer cette partie d’étude, un état de l’art de la classification de la fiction est opéré par l’élaboration d’un panorama des outils proposés et utilisés, renforcé par la définition d’une recherche ouverte d’information et une étude de la notion de sens dans le traitement de la fiction. Les analyses dans le champ pratique comportent un compte-rendu d’enquêtes, menées dans le cadre de l’enseignement secondaire et de la formation des documentalistes de l’Education Nationale, sur les pratiques de lecture. L’analyse des corpus de textes permet d’interroger la problématique de la réalité visible dans le roman. Ces travaux expérimentent une ontologie fictiologique par une analyse du roman comme document et un essai de formalisation sur la littérature des camps. La proposition d’un modèle théorique à expérimenter se concrétise par l’élaboration d’un système d’organisation de connaissances info-littéraires. Une réflexion sur l’environnement technique actuel justifie les choix retenus, les propositions et solutions réfléchies. En présentant une littératie fictiologique, prolongement de la littératie médiatique, la thèse se clôture par la description d’une médiation fictiologique qui s’ancre dans une renégociation des espaces et des typologies documentaires, investiguant les pratiques participatives et collaboratives
The dissertation, which investigates the description of the novel and considers an answer by interrogating an information problem (offering a theoretical model of representation, a basis for the conception and creation of tools for a carefully thought out navigation within fiction), carries out a reflection about the role of literary fiction in the construction of bodies of knowledge and, by extension, of a culture. These reflection and experimentation take place in the school context of the “lycee d’enseignement general” [mainstream education high school] (definition of the status of the novel in the way that it is used in education programs and objectives, analysis of the notion of literary reading in high school) and through the analysis of a body of texts: study of La Mysterieuse Flamme de la Reine Loana / Umberto Eco, 2004, French translation, Paris, Grasset et Fasquelle, 2005, combined with the study of an unpredictable collection of texts about the theme of the Shoah. Since the object of study is the novel, the links between Information and Communication Sciences and semiotics are approached in a new light: construction of a semiotic theory (definition, setting up of a formal language, choice of a representation system) made suitable to the object of study by clarifying the conditions of meaning production, which implies a hybridization of the fields (Information and Communication Sciences and literary analysis). The theoretical elements for a representation model of fiction are developed. Definitions of the novel, of literary narrative fiction, of information, of fictiology (a new field of research opened up by the study) and of critical fictiological information, complemented by a description of positioning of this research in the field of Information and Communication Sciences, frame the reflection. A chapter tackling literature and the notion of memory allows for a delineation of the links between novel and representation of reality. For this purpose, the notions of text, reference, and context are defined. Finally, the title of the dissertation is explained through the description of the imaginal faculty, and of the mediation function attributed to the novel. To close this part of the study, drafting a panorama of the proposed and employed tools helps operate a state of the art of fiction classification, reinforced by the definition of an open information research and a study of the notion of meaning in the handling of fiction. Analyses in the practical field include a report of investigations on reading practices conducted in the contexts of secondary education and of the training of ‘Education Nationale’ information librarians. Analyzing bodies of texts allows the problem of visible reality in the novel to be interrogated. This research tests out a fictiologic ontology by examining the novel as document and by attempting a formalization of the camps literature. The proposition of a theoretical model to be experimented is concretized by the development of a system of organization of information and literary knowledge. A reflection on the current technical environment justifies the choices considered, the propositions and solutions offered. By presenting a fictiological information literaty, an extension of media information literaty, the dissertation ends with the description of fictiological mediation anchored into a renegotiation of information spaces and typologies, investigating participatory and collaborative practices
Styles APA, Harvard, Vancouver, ISO, etc.
7

Brilland, Laurent. « Étude et réalisation de réseaux de Bragg inscrits dans une fibre optique monomode pour une fonction d'égalisation du gain des amplificateurs à fibre dopée ». Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-504.pdf.

Texte intégral
Résumé :
Le sujet du mémoire s'inscrit dans le domaine des télécommunications par fibres optiques. Il porte sur l'étude et la réalisation de réseaux de Bragg en tant que filtres égalisateurs de la bande de gain des amplificateurs à fibre dopée à l'erbium. Dans la technique de multiplexage en longueur d'onde (wdm), l'uniformisation du gain des amplificateurs garantit un rapport signal à bruit optimal de l'ensemble des signaux portés par différentes porteuses. Le taux d'erreurs binaires s'en trouve alors amelioré, ce qui permet d'augmenter la distance de propagation des signaux. La solution que nous avons adoptée pour aplanir le gain des amplificateurs consiste à réaliser des filtres égalisateurs de gain à base de réseaux de Bragg. Nous présentons d'abord les modèles théoriques aboutissant à la présentation de leurs réponses spectrales. En raison de leurs caractéristiques spectrales, deux types de réseaux de Bragg se distinguent : les réseaux à pas longs et les réseaux à traits inclinés
Un effort de modélisation nous a conduit à réaliser des fibres à structures d'indice particulières dans lesquelles nous avons inscrit des réseaux à pas longs mieux adaptés à la fonction d'égalisation. Les deux techniques d'inscription (photoinscription et déformation locale) sont analysées. Nous présentons un travail théorique et expérimental sur les caractéristiques spectrales des réseaux à traits inclinés photoinscrits dans une fibre à gaine photosensible. La stabilisation thermique de ces composants par un dispositif passif a été également effectuée. Une courbe de gain d'amplificateur à fibre dopée à l'erbium rendu uniforme par des réseaux à traits inclinés est présentée
Styles APA, Harvard, Vancouver, ISO, etc.
8

Monod, Emmanuel. « Efficacité du développement des systèmes d'information : le cas de la transformation d'IBM France ». Paris, ENST, 1996. http://www.theses.fr/1996ENST0044.

Texte intégral
Résumé :
La "crise du logiciel" décrit la manière dont des millions de francs sont gaspillés dans l'investissement dans les Systèmes d'Information (S. I. ). Devant une telle crise, une question apparaît être particulièrement importante: l'évaluation de l'efficacité des S. I. Ie plus tôt possible. Comment choisir entre différentes méthodes de développement des S. I. ? Avec quel critère de justification des investissements: la rentabilité ? Le positionnement concurrentiel ? Et quel est le lien avec les méthodes des transformation comme le reengineering ou la Qualité Totale ? De fait, le développement des S. I. Ne peut être séparé de l'organisation de l'entreprise. Tandis qu'un nombre croissant de projets de développement de S. I. Sont liés à la transformation de l'organisation (les projets Intranets, ERP, data warehouse, data mining e--commerce), de nombreux projets de transformation d'entreprise impliquent un développement de S. I. (notamment les projets de CRM, BPR, KM, SCM,. . . . )L'approche de l'évaluation de l'efficacité du développement des S. I. Proposée ici prend en compte trois niveaux: (1) le contexte; (2) la performance attendue et (3) les méthodes utilisées. (1) Le contexte implique une évaluation de l'environnement (est-il complexe, instable ?), de l'organisation-cible (est-elle supposée devenir une structure fonctionnelle, divisionnelle, professionnelle, entrepreneuriale ou innovante. ?) et le système de gestion du projet (est-il centralisé ou décentralisé; est-il mécanisé ou organique. ?) (2) La performance attendue est ici décrite en termes d'indicateurs (s'agit-il d'indicateurs économiques, systémiques, sociaux ou externes ?) et de focalisation (sur le contrôle, la vitesse et/ou les ressources humaines ?). (3) Les méthodes considérées sont ici les méthodes de développement des S. I. (s'agit-il de méthodologies structurées, de prototypage, de développement évolutif de formulation de problèmes, d'approches socio-techniques, syndicales ou d'approches par les pratiques professionnelles. . ?) mais également les méthodes de justification de projet (financières, compétitives,fondées sur la différenciation de structure, sur les intrapreneurs, sur l'apprentissage organisationnel,. . . ?) et les méthodes de transformation organisationnelles (utilise-t-on la planification, le rcengineering la Qualité Totale, I'ingénierie simultanée, I'organisational development, I'émergence ou les capacités organisationnelles. . . ?)
Styles APA, Harvard, Vancouver, ISO, etc.
9

Saoud, Mohamed. « Explorations neurocognitives chez des patients schizophrènes : études des fonctions attentionnelles et exécutives, des capacités d'identification olfactive et du traitement du contexte ». Lyon 1, 1999. http://www.theses.fr/1999LYO1T290.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Shirota, Chieko. « Syntaxe et prosodie en japonais. Lecture d'Informations télévisées / Dialogue spontané ». Thesis, Paris 3, 2012. http://www.theses.fr/2012PA030151/document.

Texte intégral
Résumé :
Cette recherche a deux objectifs, la systématisation de la prosodie fondamentale du japonais langue commune et l’application de ce système prosodique à une méthode didactique. Pour atteindre ces objectifs, nous cernons d'abord un cadre théorique adaptable au japonais en nous fondant sur la théorie de la "Grammaire de l’intonation" de Morel et Danon-Boileau (1998). Ensuite, nous analysons deux types de corpus, les premières phrases d'informations télévisées, dont le style est proche de celui de l’écrit, et des extraits de dialogue spontané. Les résultats de l’analyse du corpus d'écrit oralisé corroborent une hypothèse selon laquelle l’unité discursive, qui est dans l’ordre fondamental des constituants tel que défini par la fonction de détermination correspondant à un marqueur syntaxique/discursif spécifique, doit être réalisée par la prosodie fondamentale conformément à la fonction de détermination. Les indices suprasegmentaux de cette prosodie sont la position et la durée de la pause et la mélodie des séquences du modifiant et du modifié. En application de ce système prosodique, nous proposons une méthode d’enseignement d’accès facile pour l’enseignant et l’apprenant sur les plans théorique et didactique, grâce au critère binaire de la fonction de détermination d'une part, et d’un indice "écrit", le marqueur syntaxique/discursif, d'autre part. L’analyse du corpus d’oral montre que dans l’oral la fonction de détermination n’est pas représentée par le marqueur spécifique ni par la pause, qui sont remplacés par un indice intonatif à la fin du constituant, tandis que la fonction énonciative est réalisée par l’intonation des particules finales
This research has two objectives: a systematization of the fundamental prosody of Japanese as a common language, and an application of this prosodic system to teaching method. To attain these objectives, we first fix a theoretical framework adaptable to Japanese based on the theory "Grammaire de l’intonation" (Intonation Grammar) of Morel and Danon-Boileau (1998). We then analyze two types of corpus, readings of lead sentences of TV news, whose style are close to the written style, and extracts from spontaneous dialogues. The results of analysis of the corpus in uttered-written style corroborate the hypothesis that the discursive unit, which is in the fundamental constituent order defined by the function of determination corresponding to a specific syntactic/discursive marker, must be realized by the fundamental prosody conforming to the function of determination. The supra-segmental indicia of this prosody are the position and the length of pauses and the pitch pattern of sequences of modifier and modified. With application of this prosodic system, we propose a teaching method easily accessible both to the teacher and the learner in theoretical and didactical aspects through the binary criterion of the function of determination and a "written" indicium, the specific syntactic/discursive marker. The analysis of the corpus in spoken style shows that in this style, the function of determination is represented neither by the marker nor by the pause, which are replaced by the intonated indicium at the end of constituent, whereas the enunciative function is realized by intonation of the final particles
Styles APA, Harvard, Vancouver, ISO, etc.
11

Lefeuvre, Luce. « Analyse des marqueurs de relations conceptuelles en corpus spécialisé : recensement, évaluation et caractérisation en fonction du domaine et du genre textuel ». Thesis, Toulouse 2, 2017. http://www.theses.fr/2017TOU20051.

Texte intégral
Résumé :
L’intérêt d’utiliser des marqueurs de relations conceptuelles pour élaborer des ressources terminologiques à maintes fois été souligné, car ils permettent de passer d’un triplet repéré en corpus comme « Terme1 – Marqueur – Terme2 », à un triplet interprété comme « Terme1 – Relation – Terme2 » permettant une représentation sous forme relationnelle des connaissances. Le passage d’un triplet à l’autre soulève néanmoins la question de la stabilité d’un tel lien, indépendamment de tout corpus. Dans cette thèse, nous étudions la variation du fonctionnement des candidats-marqueurs de relation en prenant en compte le domaine et le genre textuel. Pour cela, nous avons constitué la liste des marqueurs des relations d’hyperonymie, de méronymie, et de cause en français et avons analysé le fonctionnement de chacune des occurrences de ces candidats-marqueurs dans un corpus traitant de deux domaines (volcanologie et cancer du sein) et relevant de deux genres textuels (scientifique et vulgarisé). La description systématique des contextes comportant un candidat-marqueur nous a permis de mesurer la précision de chacun des candidats-marqueurs, c’est-à-dire sa capacité à indiquer la relation attendue. Les analyses menées démontrent finalement la pertinence d’intégrer ces paramètres dans la description linguistique des candidats-marqueurs de relations
The use of markers of conceptual relation for building terminological resources has been frequently emphasized. Those markers are used in corpora to detect “Term1 – marker – Term2” triple, which are then interpreted as “Term1 - Conceptual Relation – Term2” triple allowing to represent knowledge as a relational system model. The transition from one triple to another questions the stability of this link, regardless of corpora. In this thesis, we study the variation of the “candidate-markers” of relation taking into account the domain and the text genre. To this end, we identified the French markers for the hyperonym, the meronym and the causal relation, and systematically analyzed their functioning within corpora varying according to the domain (breast cancer vs. volcanology) and the text genre (popular science vs. specialized texts). For each context containing a candidate-marker, we evaluated the capacity of the candidate-marker to really indicate the required relation. Our researches attest to the relevance of taking into account the domain and the text genre when describing the functioning of conceptual relation markers
Styles APA, Harvard, Vancouver, ISO, etc.
12

Petitjean, Caroline. « Recalage non rigide d'images par approches variationnelles statistiques - Application à l'analyse et à la modélisation de la fonction myocardique en IRM ». Phd thesis, Université René Descartes - Paris V, 2003. http://tel.archives-ouvertes.fr/tel-00273241.

Texte intégral
Résumé :
L'analyse quantitative de la fonction contractile myocardique constitue un enjeu majeur pour le dépistage, le traitement et le suivi des maladies cardio-vasculaires, première cause de mortalité dans les pays développés. Dans ce contexte, l'Imagerie par Résonance Magnétique (IRM) s'impose comme une modalité privilégiée pour l'exploration dynamique du coeur, renseignant, d'une part, sur l'évolution des parois (ciné IRM), et permettant, d'autre part, d'accéder à des informations cinématiques au sein du myocarde (IRM de marquage). L'exploitation quantitative de ces données est néanmoins actuellement limitée par la quasi-absence de méthodologies fiables, robustes et reproductibles d'estimation de mouvement non rigide à partir de séquences d'images acquises dans cette modalité.

Cette thèse se propose de démontrer que les techniques de recalage non rigide statistique constituent un cadre approprié pour l'estimation des déformations myocardiques en IRM, leur quantification à des fins diagnostiques, et leur modélisation en vue d'établir une référence numérique de normalité. Ses contributions concernent :

1. l'élaboration d'une méthode robuste non supervisée d'estimation des déplacements myocardiques à partir de séquences d'IRM de marquage. Elle permet l'obtention de mesures de mouvement fiables en tout point du myocarde, à tout instant du cycle cardiaque et sous incidence de coupe arbitraire.

2. le développement d'un outil de quantification dynamique des déformations à l'échelle du pixel et du segment myocardique, intégrant un étape de segmentation automatique du coeur par recalage d'images ciné IRM acquises conjointement aux données de marquage. Pour le coeur sain, la comparaison des mesures obtenues à des valeurs de référence issues d'une synthèse approfondie de la littérature médicale démontre une excellente corrélation. Pour des coeurs pathologiques, les expériences menées ont montré la pertinence d'une analyse quantitative multiparamétrique pour localiser et caractériser les zones atteintes.

3. la construction d'un modèle statistique (atlas) de contraction d'un coeur sain. Cet atlas fournit des modèles quantitatifs de référence locaux et segmentaires pour les paramètres de déformation. Son intégration, en tant que modèle de mouvement, au processus de recalage des données d'IRM de marquage conduit en outre à une description très compacte des déplacements myocardiques sans perte de précision notable.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Marsollier, Isabelle. « De la conception de produits industriels à celle de prestations intellectuelles : essai de transfert à la définition de formations, l’identification des sources d'informations pour l'activité de veille stratégique ». Angers, 1995. http://www.theses.fr/1995ANGE0016.

Texte intégral
Résumé :
Les entreprises et les écoles ont un besoin fondamental d'informations sur leur environnement pour être en adéquation avec leur marché et répondre aux contraintes imposées par l'environnement. Les entreprises, et en particulier celles de formation sont complexes par la multiplicité des échanges et des interactions internes et externes. Le traitement de la complexité fait apparaitre la nécessité d'emploi d'outils d'analyse fonctionnelle externe et interne, afin de répondre à la double question : quel besoin justifie l'existence de l'entreprise ? Comment le satisfaire ? En particulier, l'analyse des relations de l'entreprise à son environnement nécessite une bonne identification des informations nécessaires. Cette thèse examine les points suivants : 1) utilisation de l'analyse fonctionnelle et plus particulièrement la méthode QFD quality function deployment pour définir deux systèmes de formations : ? DESS SDMO : sureté de mission des organisations ? IUP santé : ingénierie et qualité des produits de biotransformation. Ce travail présente deux expériences conduites globalement (in extenso) de l'adaptation du QFD à la conception de prestations intellectuelles. 2) application de la méthode QFD à la définition des informations et de leurs sources. Des enquêtes menées au niveau d'une trentaine d'entreprises sur le thème de la veille font apparaitre une absence de méthode de recherche d'informations. Cette application de la méthode permet d'identifier les sources d'informations que doivent consulter les dirigeants afin que leur entreprise évolue en adéquation avec leur environnement.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Foucault, Nicolas. « Questions-Réponses en domaine ouvert : sélection pertinente de documents en fonction du contexte de la question ». Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00944622.

Texte intégral
Résumé :
Les problématiques abordées dans ma thèse sont de définir une adaptation unifiée entre la sélection des documents et les stratégies de recherche de la réponse à partir du type des documents et de celui des questions, intégrer la solution au système de Questions-Réponses (QR) RITEL du LIMSI et évaluer son apport. Nous développons et étudions une méthode basée sur une approche de Recherche d'Information pour la sélection de documents en QR. Celle-ci s'appuie sur un modèle de langue et un modèle de classification binaire de texte en catégorie pertinent ou non pertinent d'un point de vue QR. Cette méthode permet de filtrer les documents sélectionnés pour l'extraction de réponses par un système QR. Nous présentons la méthode et ses modèles, et la testons dans le cadre QR à l'aide de RITEL. L'évaluation est faite en français en contexte web sur un corpus de 500 000 pages web et de questions factuelles fournis par le programme Quaero. Celle-ci est menée soit sur des documents complets, soit sur des segments de documents. L'hypothèse suivie est que le contenu informationnel des segments est plus cohérent et facilite l'extraction de réponses. Dans le premier cas, les gains obtenus sont faibles comparés aux résultats de référence (sans filtrage). Dans le second cas, les gains sont plus élevés et confortent l'hypothèse, sans pour autant être significatifs. Une étude approfondie des liens existant entre les performances de RITEL et les paramètres de filtrage complète ces évaluations. Le système de segmentation créé pour travailler sur des segments est détaillé et évalué. Son évaluation nous sert à mesurer l'impact de la variabilité naturelle des pages web (en taille et en contenu) sur la tâche QR, en lien avec l'hypothèse précédente. En général, les résultats expérimentaux obtenus suggèrent que notre méthode aide un système QR dans sa tâche. Cependant, de nouvelles évaluations sont à mener pour rendre ces résultats significatifs, et notamment en utilisant des corpus de questions plus importants.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Chacornac, Jérôme. « Essai sur les fonctions de l'information en droit des instruments financiers ». Thesis, Paris 2, 2012. http://www.theses.fr/2012PA020019.

Texte intégral
Résumé :
L’information constitue l’élément ou l’enjeu de nombreuses règles juridiques en droit financier. Ces règles imposent des obligations d’information aux émetteurs, aux intermédiaires financiers et aux investisseurs. Elles sanctionnent en outre les abus de marché en ce qu’ils constituent des atteintes aux qualités de l’information, et encadrent l’élaboration des opinions émises par les analystes financiers et les agences de notation. Dans un ensemble aussi hétérogène de règles, l’information reçoit diverses qualifications juridiques. La cohérence en la matière provient de la nécessité d’informer l’ensemble des acteurs du risque inhérent aux instruments financiers. L’information peut être étudiée à partir de ses fonctions intellectuelles, comme savoir communicable permettant de connaître le risque attaché aux instruments financiers. Alors que certaines données permettent de décrire le risque d’investissement, d’autres en servent l’appréciation dans la durée en vue de la réalisation de prédictions. Le droit positif évolue ainsi en s’appuyant sur ces deux fonctions intellectuelles de l’information : sa fonction descriptive et sa fonction prédictive. Cette analyse permet de renforcer l’intelligibilité d’un dispositif en évolution constante, qui suppose l’articulation du droit des sociétés, du droit des contrats et du droit répressif. Le droit des instruments financiers peut ainsi faire l’objet d’une analyse ordonnée à partir de l’information comme exigence permettant la prise d’un risque d’investissement
Information constitutes the element or the stake of many a legal rule in financial Law. These rules dictate disclosure obligations to issuers, financial intermediaries and investors. Furthermore, they sanction market abuses, insofar as they undermine the qualities of the information, and provide a legal framework for the elaboration process of opinions voiced by financial analysts and credit rating agencies. In such a heterogeneous body of rules, diverse legal qualifications are applicable to information. The conistency of the discipline lies in the necessity to inform the participants of the risk inherent to financial instruments. From its intellectual functions, information can be studied as transmittable intelligence permitting a better understanding of the risk financial instruments entail. While some data allows for the description of the investment risk, other data enables its assesment over time in order to realize predictions. Substantive law evolves by drawing on the two intellectual functions of information: its descriptive function and its predictive function. This analysis helps to reinforce the intellegibility of constantly evolving legislation, which implies the joint study of company law, contract law and criminal business law. The law of financial instruments can thus be the subject of an analysis stemming from information as a requirement to the taking an investment risk
Styles APA, Harvard, Vancouver, ISO, etc.
16

Fabre, Sophie. « Apport de l'information contextuelle à la fusion multicapteurs : application à la fusion pixel ». Toulouse, ENSAE, 1999. http://www.theses.fr/1999ESAE0013.

Texte intégral
Résumé :
Deux méthodes théoriques générales de classification utilisant la fusion d'images multispectrales et intégrant l'information sur la validité des senseurs sont mises en place. Ces méthodes générales sont appliquées pour réaliser une classification au niveau du pixel et elles sont alors mises en œuvre sur des données physiques. La théorie de Dempster-Shafer, compte tenu de ses avantages inhérents, est utilisée pour intégrer une information supplémentaire sur les conditions d'acquisition des mesures par les senseurs. Cette information renseigne sur la fiabilité à accorder aux capteurs est appelée information contextuelle. Le formalisme de modélisation de l'information contextuelle est basé sur l'évaluation de domaines flous de validité, soit de chaque source prise isolément, soit de toutes les associations de sources considérées concurrentiellement. Ainsi deux méthodes de fusion et de modélisation de l'information contextuelle sont proposées. Lorsque l'apprentissage au préalable n'est pas disponible pour un objet de la scène, ces méthodes évoluent et une méthode globale est déduite. Les méthodes mises en place sont appliquées sur des cas typiques pour comparer les résultats de classification obtenus avec ceux issus d'une approche probabiliste classique sans prise en compte de la validité des capteurs. De plus, les méthodes sont appliquées pour réaliser une classification au niveau du pixel et sont mises en œuvre sur des données physiques. Seul un paramètre perturbateur atmosphérique, la vapeur d'eau, est introduit pour évaluer la fiabilité des mesures acquises par les capteurs. Les données utilisées sont obtenues à partir de bases de données (données météorologiques, mesures de réflectances spectrales). Ces simulations de cas typiques et cette application à la classification pixel permettent de montrer que l'information contextuelle est pertinente et correctement intégrée et que les performances de classification sont améliorées.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Avril, Eugénie. « Automatisation de l'information et fiabilité : effets sur le comportement humain ». Electronic Thesis or Diss., Toulouse 2, 2020. http://www.theses.fr/2020TOU20073.

Texte intégral
Résumé :
Face à la présence de plus en plus prépondérante des systèmes automatisés dans notre vie quotidienne, étudier les conséquences de problèmes de fiabilité de ces derniers sur le comportement humain est devenu une nécessité pour le domaine des facteurs humains. Cette thèse a pour objectif d’étudier les effets de systèmes automatisés imparfaits, dont la fiabilité n’est pas irréprochable, sur le comportement humain. Elle se focalise plus précisément sur les systèmes automatisés prenant en charge la fonction information comme présentée dans le modèle de Parasuraman, Sheridan et Wickens (2000). Ces effets sont étudiés à travers deux secteurs : le secteur aéronautique et le secteur du transport routier de marchandises. Croiser ces deux secteurs permet de mettre en place des méthodes complémentaires. Plus précisément, à travers une tâche de simulation de pilotage d’avion et une tâche d’évaluation de scénarios de planification, deux types de prise en charge de la fonction information présentant des problèmes de fiabilité ont été investigués. Ces études ont permis d’une part (1) d’approfondir les connaissances sur la fiabilité des systèmes automatisés selon les fonctions prises en charge et (2) d’apporter de nouvelles connaissances sur l’implémentation de nouveaux systèmes automatisés soutenant l’activité de planification où les études sur la fiabilité d’un système prenant en charge l’information sont inexistantes
In our daily life, it is easy to notice the overwhelming increase of automated systems. Studying the consequences of reliability problems of these systems on human behavior has become a necessity for different fields and especially for the human factors. The purpose of this thesis is to study the effects of imperfect automated systems on human behavior, knowing that their reliability is not perfect. More specifically, it focuses on automated systems that support the information function as presented in the model of Parasuraman, Sheridan and Wickens (2000). These effects are studied across two mains sectors: the aeronautical sector and the road freight transport sector. Using these two sectors allow to implement complementary methods. More precisely two types of support of the information function with reliability problems have been investigated. One is through an aircraft piloting simulation task and the second on a planning scenario evaluation task. These studies allowed on one hand (1) to deepen the knowledge on the reliability of automated systems according to the functions supported and (2) on another hand to bring new knowledge on the implementation of new automated systems supporting the planning activity where studies on the reliability of a system supporting information are non-existent
Styles APA, Harvard, Vancouver, ISO, etc.
18

Beauvais, Grégory. « Téléservice public et service public ». Lille 2, 2008. http://www.theses.fr/2008LIL20011.

Texte intégral
Résumé :
L’administration française connaît, depuis quelques années, une accélération de l’utilisation des technologies de l’information et de la communication. Celles-ci ont pour but d’améliorer l’organisation interne et externe de l’administration et des services publics. Dans ce cadre, se mettent en place des prestations d’intérêt général d’un genre nouveau : les téléservices publics. Un téléservice public est une activité d’intérêt général, mise en œuvre directement ou indirectement par une personne publique, qui utilise les outils de télécommunication. Cette définition rappelle celle du service public qui désigne une activité d’intérêt général, assumée ou assurée par une personne publique. Le téléservice public constitue pourtant, du fait des règles qui lui sont applicables, une notion juridique émergente qui s’automatise par rapport à celle du service public. Les règles relatives aux téléservices publics comprennent des dispositions ad hoc, dont la valeur normative n’est pas toujours claire, et des concepts et catégories juridiques applicables aux services publics qui connaissent, par leur adaptation aux téléservices publics, une redéfinition
French administration experiences and acceleration of new technologies uses. Tpublic services and administration’s internal organisation so the relationships with users. Inside this frame, new general interest services are provided : public teleservices. A public teleservice is a general interest activity, directly or inderectly applied by a public entity, wich uses telecommunication tools. This definition recalls the public services’ one which points out a general interest activity, assumed or endorsed by a public entity. Public teleservice constitutes, due to applicable rules, an emergent legal notion which is acquirring his autonomy from the public service’ definition. Rules applicable to public teleservices contain ad hoc legal notions whose normative value is not always clear. Some concepts and legal categories applicable to public services which know, by their adaptation to public teleservices, a redefinition
Styles APA, Harvard, Vancouver, ISO, etc.
19

Mayère, Anne. « Information et système productif : essai d'analyse économique des fonctions et valeur de l'information ». Lyon 2, 1988. http://www.theses.fr/1988LYO22010.

Texte intégral
Résumé :
Qu'est-ce que l'information ? Telle est la question première qui s'impose pour comprendre quelle est la place de l'information dans le système productif et son évolution. Ce préalable apparaît d'autant plus nécessaire que les évolutions actuelles soulignent le caractère réducteur de la référence à l'information-"donnée" usuelle dans les analyses économiques. Pour définir l'information et ses caractéristiques, l'investigation s'appuie sur les réflexions développées dans différents domaines scientifiques, et notamment par des ingénieurs des télécommunications, des biologistes, des psychologues et des théoriciens de la décision. L'information se précise alors comme processus pluridimensionnel engageant activement le système qui l'acquiert. Ces caractéristiques de l'information-processus permettent de réenvisager ses natures et fonctions dans les systèmes particuliers que sont les entreprises. L'information est caractérisée alors non seulement comme objet mais comme partie prenant aux processus même de production, et relevant de fonctions différenciées dans le fonctionnement et la dynamique d'évolution des organisations-entreprises et du système productif dans son ensemble. La définition de l'information, de ses natures et fonctions sert de base à une interrogation sur ce qui fonde la valeur économique de l'information et son statut lorsqu'elle est l'objet d'échanges marchands. Poser la question de la valeur de l'information et des conditions dans lesquelles elle peut être une marchandise conduit à reconsidérer certains concepts fondamentaux de l'analyse économique : en premier lieu celui de valeur d'usage, et celui de marchandise. Elle passe également par une clarification des relations qui lient services et information, à partir de la définition du service comme rapport spécifique de production et d'échange. Le cadre d'analyse ainsi élaboré permet de développer la réflexion sur la mutation du système productif et la place de l'information dans cette mutation. Deux dimensions fondamentales sont dégagées qui concernent d'une part l'évolution du travail et de son usage comme producteur d'information, et d'autre part la mise en place d'un nouveau mode de production et d'échange ; elles sont associées à des transformations qui engagent l'information dans ses différentes fonctions, dans ses conditions de production, et dans sa participation aux échanges marchands.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Mayère, Anne. « Information et système productif essai d'analyse économique des fonctions et valeur de l'information / ». Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37616116p.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
21

Daoudi, Khalid. « Généralisations des systèmes de fonctions itérées : applications au traitement du signal ». Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090078.

Texte intégral
Résumé :
Nous montrons dans cette thèse comment la caractérisation des propriétés fractales d'un signal peut être utilisée à des fins de modélisation, segmentation et synthèse. Le principe consiste à décrire comment une représentation du signal varie d'une échelle à une autre. L'idée la plus naturelle dans notre cadre est de considérer des opérateurs qui agissent sur les coefficients d'ondelette à des résolutions successives. Dans certains cas particuliers, nous montrons que ce programme revient à représenter un signal donné comme l'attracteur d'un système de fonctions itérées (ifs). Cela nous conduit naturellement à généraliser cette notion pour obtenir deux classes plus vastes de fonctions, que nous avons appelées GIFS et FAA. Nous obtenons une caractérisation de l'ensemble des fonctions de Hölder associées à des fonctions continues et une méthode non paramétrique pour estimer la fonction de Hölder d'un signal. Nous établissons aussi un formalisme multi fractal pour les FAA. Une première application concerne l'analyse de la turbulence. Nous développons un modèle compact qui permet de retrouver les principales caractéristiques multi fractales des signaux de turbulence. Une deuxième application est la modélisation de signaux de parole qui nous permet d'effectuer des synthèses de bonne qualité et qui pourrait fournir une nouvelle approche pour la caractérisation du locuteur.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Pouget, Cécile. « Les fonctions économiques du marché des actions ». Bordeaux 4, 2002. http://www.theses.fr/2002BOR40010.

Texte intégral
Résumé :
De par la place de plus en plus importante du marché des actions dans l'économie, la question de sa participation au mécanisme d'allocation de ressources entre les agents non financiers trouve une nouvelle dimension. Deux grandes fonctions du marché des actions peuvent être isolées. Pour le consommateur, le marché des actions est un instrument de lissage des fluctuations de son revenu. Il constitue pour le producteur un outil d'aide à la décision en matière d'investissement ainsi qu'une source de financement de ces investissements. Un arbitrage entre l'investissement physique et l'investissement en actions doit avoir lieu. Par le biais d'une modélisation espace-état nous testons cette hypothèse d'arbitrage pour la France entre 1978 et 1999. Nous examinons aussi l'hypothèse de lissage par le marché des actions, des fluctuations de revenu idiosyncratiques subies par les pays de l'Union européenne entre 1970 et 1993. . .
Styles APA, Harvard, Vancouver, ISO, etc.
23

Zayrit, Karima. « Fusion de données imparfaites multi-sources : application à la spatialisation qualifiée des pratiques agricoles ». Thesis, Reims, 2015. http://www.theses.fr/2015REIMS041/document.

Texte intégral
Résumé :
Notre thèse s'inscrit dans le cadre de la mise en place d'un observatoire des pratiques agricoles dans le bassin versant de la Vesle. L'objectif de ce système d'information agri-environnemental est de comprendre les pratiques responsables de la pollution de la ressource en eau par les pesticides d'origine agricole sur le territoire étudié et de fournir des outils pertinents et pérennes pour estimer leurs impacts. Notre problématique concerne la prise en compte de l'imperfection dans le processus de la fusion de données multi-sources et imparfaites. En effet, l'information sur les pratiques n'est pas exhaustive et ne fait pas l'objet d'une déclaration, il nous faut donc construire cette connaissance par l'utilisation conjointe de sources multiples et de qualités diverses en intégrant dans le système d'information la gestion de l'information imparfaite. Dans ce contexte, nous proposons des méthodes pour une reconstruction spatialisée des informations liées aux pratiques agricoles à partir de la télédétection, du RPG, d'enquêtes terrain et de dires d'experts, reconstruction qualifiée par une évaluation de la qualité de l'information. Par ailleurs, nous proposons une modélisation conceptuelle des entités agronomiques imparfaites du système d'information en nous appuyant sur UML et PERCEPTORY. Nous proposons ainsi des modèles de représentation de l'information imparfaite issues des différentes sources d'information à l'aide soit des ensembles flous, soit de la théorie des fonctions de croyance et nous intégrons ces modèles dans le calcul d'indicateurs agri-environnementaux tels que l'IFT et le QSA
Our thesis is part of a regional project aiming the development of a community environmental information system for agricultural practices in the watershed of the Vesle. The objective of this observatory is 1) to understand the practices of responsible of the water resource pollution by pesticides from agriculture in the study area and 2) to provide relevant and sustainable tools to estimate their impacts. Our open issue deals with the consideration of imperfection in the process of merging multiple sources and imperfect data. Indeed, information on practices is not exhaustive and is not subject to return, so we need to build this knowledge through the combination of multiple sources and of varying quality by integrating imperfect information management information in the system. In this context, we propose methods for spatial reconstruction of information related to agricultural practices from the RPG remote sensing, field surveys and expert opinions, skilled reconstruction with an assessment of the quality of the information. Furthermore, we propose a conceptual modeling of agronomic entities' imperfect information system building on UML and PERCEPTORY.We provide tools and models of representation of imperfect information from the various sources of information using fuzzy sets and the belief function theory and integrate these models into the computation of agri-environmental indicators such as TFI and ASQ
Styles APA, Harvard, Vancouver, ISO, etc.
24

Marot, Pierre-Yves. « Les données et informations à caractère personnel : essai sur la notion et ses fonctions ». Nantes, 2007. http://www.theses.fr/2007NANT4012.

Texte intégral
Résumé :
Alors même que la primauté de la personne est affirmée avec force, la profusion et l'éclatement des fondements juridiques consacrés aux données et informations afférentes à la personne (données personnelles, informations nominatives, vie privée. . . ) oeuvrent au démantèlement de la personne en autant de régimes juridiques spécifiques que de données et informations la concernant. La notion de vie privée participe grandement à ce péril puisque, si sa protection peut se ramener à celle d'une foule de données et informations, la nature de celles-ci ne détermine pas pour autant le régime juridique qui leur est applicable. Ainsi, il n'est pas si surprenant de constater qu'en jurisprudence, la modification de l'Etat civil, alors que celui-ci repose sur une bonne part d'imposition étatique, se fonde paradoxalement sur le droit au respect de la vie privée devant ces apories conceptuelles, nous constatons l'émergence de la catégorie des données et informations à caractère personnel dont le critère commun réside dans l'identification de la personne ainsi permise. À partir de cette notion fonctionnelle, il devient alors possible de penser son utilisation et d'en rendre compte. Il apparaît que l'utilisation exceptionnelle des données et informations à caractère personnel pour des finalités d'intérêt général (justice pénale, santé publique et information du public) est très extensive. Il convient dès lors de restaurer dans toute sa plénitude le principe de la protection des données et informations à caractère personnel en appréciant strictement ses dérogations et en s'appuyant notamment sur l'indispensable garde-fou que constitue l'indisponibilité
Whereas the primacy of the person is strongly stated by law, the splitting of the, legal sources devoted to the data and information pertaining to the person (personal data. Nominative information, privacy. . . ) is likely to set the dismantling of the person into as many specific legal statuses as there are data and information. The notion of privacy highly participates to this danger because, if its protection means the protection of an important amount of data and information, their nature doesn't indicate what legal status is to be applied in each case. In this context, it is not surprising to see courts allowing the modification of the civil status (names, surnames, sex. . . ) on the paradoxical rationale of the right of privacy, even if it in large parts depends on state decisions. Facing these conceptual contradictions, we note the emergence of a category of personal data and information which as common criterion holds the identification of the person thus allowed. Starting from this functional category, it becomes possible to explore its practical implication and to give an account of it. As it appears, if the use of personal data and information remains exceptional, it becomes massive as soon as public interest are concerned (e. G. Penal system, public health and public information). It is therefore advised to restore in all, its fullness. The principle of protection for personal data and information by strictly appreciating its exemptions and by relying on the necessary safeguard unavailability provides
Styles APA, Harvard, Vancouver, ISO, etc.
25

Dibie-Krajcman, Dorothée. « Informations génétiques et fonctions médicales : (essai sur l'ambivalence de la condition juridique des médecins) ». Paris 1, 2002. http://www.theses.fr/2002PA010268.

Texte intégral
Résumé :
La pratique de tests génétiques permet la révélation par les médecins d'informations relatives notamment au développement futur de maladies génétiques incurables et héréditaires. L'intégration de ces informations génétiques dans la relation médicale, traditionnellement envisagée dans le cadre du traitement individuel de la personne, devrait élargir le champ médical et révéler l'ambigui͏̈té de la condition juridique des médecins tiraillés entre intérêts collectifs et individuels. De même, les informations génétiques risquent d'être employées à des fins discriminatoires dans le mariage et surtout dans les contrats de travail et d'assurance-vie. Certains considèrent qu'elles pourraient néanmoins présenter un intérêt pour l'état de santé des salariés ou économique des assurés. On retrouve cette ambivalence de la génétique dans la condition juridique des médecins chargés d'informer les parties fortes au contrat tout en étant soumis aux règles protectrices de la personne.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Dibie-Krajcman, Dorothée. « Informations génétiques et fonctions médicales : essai sur l'ambivalence de la condition juridique des médecins / ». Bordeaux : les Études hospitalières, 2004. http://catalogue.bnf.fr/ark:/12148/cb39293439p.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
27

Jamet, Mallaury. « Place du traitement cognitif des informations sensorielles dans la performance de la fonction d'équilibration en situation multi-tâches ». Nancy 1, 2004. http://www.theses.fr/2004NAN10173.

Texte intégral
Résumé :
Le vieillissement normal ou sénescence affecte les trois fonctions principales utilisées pour le contrôle de l'équilibre et de la posture, la réception des informations sensorielles, l'intégration des ces informations et l'effection motrice de ces commandes par le système musculaire. Ce travail a eu pour objet d'évaluer la place du traitement cognitif des informations sensorielles dans la réalisation de l'équilibration. Les résultats sont discutés en termes d'évolution avec l'âge des places relatives des traitements automatique et cognitif des informations dans la performance d'équilibration, en particulier pour leur validation de l'hypothèse que le vieillissement s'accompagne d'une nécessaire augmentation relative de la charge cognitive par une mobilisation plus forte des ressources attentionnelles et des processus cognitifs opératoires qui, par ailleurs et dans le même temps, voient leur disponibilité et leur potentiel se réduire
Normal ageing or senescence is known to affect these three functions and incidentally balance control, reception of sensory information, integration of information destined to the construction and the programming by the nervous system of a set of instructions and motor execution of these orders by the muscular system. This work aimed to assess the place of cognitive sensorial information processing in balance performance. These results were discussed in terms of age-dependent evolution of the relative places of automatic and cognitive processings in balance performance, particularly for the validation of the assumption that ageing induces a requisite increase of cognitive load with expression in a large mobilisation of attentional resources and cognitive operative processes which, in the same time, decreased in availability and potentiality
Styles APA, Harvard, Vancouver, ISO, etc.
28

Zheng, Lilei. « Triangular similarity metric learning : A siamese architecture approach ». Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI045/document.

Texte intégral
Résumé :
Dans de nombreux problèmes d’apprentissage automatique et de reconnaissance des formes, il y a toujours un besoin de fonctions métriques appropriées pour mesurer la distance ou la similarité entre des données. La fonction métrique est une fonction qui définit une distance ou une similarité entre chaque paire d’éléments d’un ensemble de données. Dans cette thèse, nous proposons une nouvelle methode, Triangular Similarity Metric Learning (TSML), pour spécifier une fonction métrique de données automatiquement. Le système TSML proposée repose une architecture Siamese qui se compose de deux sous-systèmes identiques partageant le même ensemble de paramètres. Chaque sous-système traite un seul échantillon de données et donc le système entier reçoit une paire de données en entrée. Le système TSML comprend une fonction de coût qui définit la relation entre chaque paire de données et une fonction de projection permettant l’apprentissage des formes de haut niveau. Pour la fonction de coût, nous proposons d’abord la similarité triangulaire (Triangular Similarity), une nouvelle similarité métrique qui équivaut à la similarité cosinus. Sur la base d’une version simplifiée de la similarité triangulaire, nous proposons la fonction triangulaire (the triangular loss) afin d’effectuer l’apprentissage de métrique, en augmentant la similarité entre deux vecteurs dans la même classe et en diminuant la similarité entre deux vecteurs de classes différentes. Par rapport aux autres distances ou similarités, la fonction triangulaire et sa fonction gradient nous offrent naturellement une interprétation géométrique intuitive et intéressante qui explicite l’objectif d’apprentissage de métrique. En ce qui concerne la fonction de projection, nous présentons trois fonctions différentes: une projection linéaire qui est réalisée par une matrice simple, une projection non-linéaire qui est réalisée par Multi-layer Perceptrons (MLP) et une projection non-linéaire profonde qui est réalisée par Convolutional Neural Networks (CNN). Avec ces fonctions de projection, nous proposons trois systèmes de TSML pour plusieurs applications: la vérification par paires, l’identification d’objet, la réduction de la dimensionnalité et la visualisation de données. Pour chaque application, nous présentons des expérimentations détaillées sur des ensembles de données de référence afin de démontrer l’efficacité de notre systèmes de TSML
In many machine learning and pattern recognition tasks, there is always a need for appropriate metric functions to measure pairwise distance or similarity between data, where a metric function is a function that defines a distance or similarity between each pair of elements of a set. In this thesis, we propose Triangular Similarity Metric Learning (TSML) for automatically specifying a metric from data. A TSML system is loaded in a siamese architecture which consists of two identical sub-systems sharing the same set of parameters. Each sub-system processes a single data sample and thus the whole system receives a pair of data as the input. The TSML system includes a cost function parameterizing the pairwise relationship between data and a mapping function allowing the system to learn high-level features from the training data. In terms of the cost function, we first propose the Triangular Similarity, a novel similarity metric which is equivalent to the well-known Cosine Similarity in measuring a data pair. Based on a simplified version of the Triangular Similarity, we further develop the triangular loss function in order to perform metric learning, i.e. to increase the similarity between two vectors in the same class and to decrease the similarity between two vectors of different classes. Compared with other distance or similarity metrics, the triangular loss and its gradient naturally offer us an intuitive and interesting geometrical interpretation of the metric learning objective. In terms of the mapping function, we introduce three different options: a linear mapping realized by a simple transformation matrix, a nonlinear mapping realized by Multi-layer Perceptrons (MLP) and a deep nonlinear mapping realized by Convolutional Neural Networks (CNN). With these mapping functions, we present three different TSML systems for various applications, namely, pairwise verification, object identification, dimensionality reduction and data visualization. For each application, we carry out extensive experiments on popular benchmarks and datasets to demonstrate the effectiveness of the proposed systems
Styles APA, Harvard, Vancouver, ISO, etc.
29

Goswami, Parantapa. « Learning information retrieval functions and parameters on unlabeled collections ». Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM089.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons (a) à l'estimation des paramètres de modèles standards de Recherche d'Information (RI), et (b) à l'apprentissage de nouvelles fonctions de RI. Nous explorons d'abord plusieurs méthodes permettant, a priori, d'estimer le paramètre de collection des modèles d'information (chapitre. Jusqu'à présent, ce paramètre était fixé au nombre moyen de documents dans lesquels un mot donné apparaissait. Nous présentons ici plusieurs méthodes d'estimation de ce paramètre et montrons qu'il est possible d'améliorer les performances du système de recherche d'information lorsque ce paramètre est estimé de façon adéquate. Pour cela, nous proposons une approche basée sur l'apprentissage de transfert qui peut prédire les valeurs de paramètre de n'importe quel modèle de RI. Cette approche utilise des jugements de pertinence d'une collection de source existante pour apprendre une fonction de régression permettant de prédire les paramètres optimaux d'un modèle de RI sur une nouvelle collection cible non-étiquetée. Avec ces paramètres prédits, les modèles de RI sont non-seulement plus performants que les même modèles avec leurs paramètres par défaut mais aussi avec ceux optimisés en utilisant les jugements de pertinence de la collection cible. Nous étudions ensuite une technique de transfert permettant d'induire des pseudo-jugements de pertinence des couples de documents par rapport à une requête donnée d'une collection cible. Ces jugements de pertinence sont obtenus grâce à une grille d'information récapitulant les caractéristiques principale d'une collection. Ces pseudo-jugements de pertinence sont ensuite utilisés pour apprendre une fonction d'ordonnancement en utilisant n'importe quel algorithme d'ordonnancement existant. Dans les nombreuses expériences que nous avons menées, cette technique permet de construire une fonction d'ordonnancement plus performante que d'autres proposées dans l'état de l'art. Dans le dernier chapitre de cette thèse, nous proposons une technique exhaustive pour rechercher des fonctions de RI dans l'espace des fonctions existantes en utilisant un grammaire permettant de restreindre l'espace de recherche et en respectant les contraintes de la RI. Certaines fonctions obtenues sont plus performantes que les modèles de RI standards
The present study focuses on (a) predicting parameters of already existing standard IR models and (b) learning new IR functions. We first explore various statistical methods to estimate the collection parameter of family of information based models (Chapter 2). This parameter determines the behavior of a term in the collection. In earlier studies, it was set to the average number of documents where the term appears, without full justification. We introduce here a fully formalized estimation method which leads to improved versions of these models over the original ones. But the method developed is applicable only to estimate the collection parameter under the information model framework. To alleviate this we propose a transfer learning approach which can predict values for any parameter for any IR model (Chapter 3). This approach uses relevance judgments on a past collection to learn a regression function which can infer parameter values for each single query on a new unlabeled target collection. The proposed method not only outperforms the standard IR models with their default parameter values, but also yields either better or at par performance with popular parameter tuning methods which use relevance judgments on target collection. We then investigate the application of transfer learning based techniques to directly transfer relevance information from a source collection to derive a "pseudo-relevance" judgment on an unlabeled target collection (Chapter 4). From this derived pseudo-relevance a ranking function is learned using any standard learning algorithm which can rank documents in the target collection. In various experiments the learned function outperformed standard IR models as well as other state-of-the-art transfer learning based algorithms. Though a ranking function learned through a learning algorithm is effective still it has a predefined form based on the learning algorithm used. We thus introduce an exhaustive discovery approach to search ranking functions from a space of simple functions (Chapter 5). Through experimentation we found that some of the discovered functions are highly competitive with respect to standard IR models
Styles APA, Harvard, Vancouver, ISO, etc.
30

Bou, Farah Mira. « Méthodes utilisant des fonctions de croyance pour la gestion des informations imparfaites dans les réseaux de véhicules ». Thesis, Artois, 2014. http://www.theses.fr/2014ARTO0208/document.

Texte intégral
Résumé :
La popularisation des véhicules a engendré des problèmes de sécurité et d’environnement. Desprojets ont été lancés à travers le monde pour améliorer la sécurité sur la route, réduire l’encombrementdu trafic et apporter plus de confort aux conducteurs. L’environnement des réseaux devéhicules est complexe et dynamique, les sources sont souvent hétérogènes, de ce fait les informationséchangées peuvent souvent être imparfaites. La théorie des fonctions de croyance modélisesouplement les connaissances et fournit des outils riches pour gérer les différents types d’imperfection.Elle est utilisée pour représenter l’incertitude, gérer les différentes informations acquises etles fusionner. Nous nous intéressons à la gestion des informations imparfaites échangées entre lesvéhicules concernant les événements sur la route. Les événements locaux et les événements étendusn’ayant pas les mêmes caractéristiques, les travaux réalisés les distinguent. Dans un environnementsans infrastructure où chaque véhicule a son propre module de fusion, l’objectif est de fournir auxconducteurs la synthèse la plus proche possible de la réalité. Différents modèles fondés sur desfonctions de croyance sont proposés et différentes stratégies sont étudiées : affaiblir ou renforcervers l’absence de l’événement pour prendre en compte le vieillissement des messages, garder lesmessages initiaux ou seulement le résultat de la fusion dans la base des véhicules, considérer la miseà jour du monde, prendre en compte l’influence du voisinage pour gérer la spatialité des embouteillages.Les perspectives restent nombreuses, certaines sont développées dans ce manuscrit commela généralisation des méthodes proposées à tous les événements étendus tels que les brouillards
The popularization of vehicles has created safety and environmental problems. Projects havebeen launched worldwide to improve road safety, reduce traffic congestion and bring more comfortto drivers. The vehicle network environment is dynamic and complex, sources are often heterogeneous,and therefore the exchanged information may be imperfect. The theory of belief functionsoffers flexibility in uncertainty modeling and provides rich tools for managing different types of imperfection.It is used to represent uncertainty, manage and fuse the various acquired information.We focus on the management of imperfect information exchanged between vehicles concerningevents on the road. The carried work distinguishes local events and spatial events, which do nothave the same characteristics. In an environment without infrastructure where each vehicle is afusion center and creates its own vision, the goal is to provide to each driver the synthesis of thesituation on the road as close as possible to the reality. Different models using belief functionsare proposed. Different strategies are considered: discount or reinforce towards the absence of theevent to take into account messages ageing, keep the original messages or just the fusion result invehicle database, consider the world update, manage the spatiality of traffic jam events by takinginto account neighborhood. Perspectives remain numerous; some are developed in the manuscriptas the generalization of proposed methods to all spatial events such as fog blankets
Styles APA, Harvard, Vancouver, ISO, etc.
31

Rebaï, Mohamed. « Lateralisation hemispherique des potentiels evoques visuels stabilises chez l'homme en fonction des informations physiques des stimuli et de dominance manuelle ». Paris 6, 1990. http://www.theses.fr/1990PA066289.

Texte intégral
Résumé :
L'asymetrie hemispherique dans le traitement des informations visuelles est etudiee au moyen des potentiels evoques visuels (pev) stabilises. Les stimuli sont des reseaux sinusoidaux de luminance presentes en contrephase. Les activites evoquees sont analysees par transformee rapide de fourier (fft). Les resultats ont montre que la lateralisation hemispherique des pev est fortement dependante du stimulus. L'asymetrie observee chez les droitiers reposerait sur une meilleure sensibilite de l'hemisphere gauche (hg) a la variation temporelle du contraste et sur une meilleure sensibilite de l'hemisphere droit (hd) a la composante spatiale du stimulus. On suggere que l'hd et l'hg sont respectivement sensibles aux afferences des deux systemes tonique/phasique du systeme visuel. Chez les gauchers, la lateralisation des pev, moins marquee que chez les droitiers, depend d'une interaction des parametres spatio-temporels de la stimulation. Les resultats de cette etude sont discutes dans le cadre du modele soutenant la dichotomie frequences spatiales basses (hd)/frequences spatiales elevees (hg)
Styles APA, Harvard, Vancouver, ISO, etc.
32

François, Denis. « Approche méthodologique de la mise en place d'un réseau multiservice ». Phd thesis, Ecole Nationale des Ponts et Chaussées, 1994. http://tel.archives-ouvertes.fr/tel-00520758.

Texte intégral
Résumé :
L'intégration des fonctions techniques urbaines permet d'envisager à la fois un développement qualitatif et quantitatif des prestations de services aux citadins, et une meilleure efficacité globale de l'organisation technique locale. Elle repose sur l'échange d'informations entre les services techniques grâce à un réseau de télécommunications partagé. Divers projets de mis en place de réseaux partagés ont existé en France à partir de 1987. Constatant d'une part l'intérêt présenté par l'intégration pour les politiques urbaines locales actuelles, et d'autre part le manque de réussite de ces initiatives, notre objectif dans ce travail est d'apporter une réponse globale au problème de la mise en place d'un réseau partagé pour l'intégration des fonctions techniques urbaines. Cela consiste à identifier les causes des problèmes et déterminer leurs remèdes. Nous avons recensés six collectivités locales (Besançon, Gardanne, Nîmes, Montpellier, Nancy et Paris) qui ont été le siège de tels projets. Grâce à la connaissance du contexte général dans lequel doit naître tout projet de ce type (Partie A), il est plus aisé d'expliquer les écueils mis en évidence comme s'étant opposés à la réussite des divers projets (Partie B). D'une part ces écueils tiennent au manque de référence, tant réelle que conceptuelle, relative au réseau partagé et à l'intégration, ils tiennent d'autre part à la difficile conduite d'un projet multi-acteur et innovant Proposé comme pouvant servir de référence conceptuelle à des projets futurs, un modèle générique de réseau pour l'intégration des fonctions est présenté. Le réseau multiservice - RMS - est une plate-forme télé-informatique intégrant des modules autonomes. Proposé comme pouvant servir de guide aux partenaires engagés dans la définition des caractéristiques d'un RMS spécifiquement local, (répondant au projet local d'intégration), une méthode de conception est présentée. Elle conduit à l'élaboration du Schéma Directeur du RMS.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Gergaud, Olivier. « Fonctions de prix hedonistiques et information imparfaite : le role de la reputation sur le marche du vin de champagne ». Reims, 2000. http://www.theses.fr/2000REIME001.

Texte intégral
Résumé :
Initialement concue dans un cadre d'information parfaite, la methode des prix hedonistiques de rosen (1974) a connu recemment un elargissement de son champ d'application, comme en temoignent ses applications nombreuses a la peinture et aux vins. Cette extension aux cas d'information imparfaite ne s'est pas accompagnee d'une reflexion globale sur la methode elle-meme ; en particulier sur sa premiere etape, celle consistant a estimer la fonction de prix hedonistiques. Pour contribuer a remedier a ce cas d'econometrie sans theorie, nous proposons une fonction de prix hedonistiques elargie, integrant la possibilite d'une information imparfaite. Concu pour s'appliquer a tout type de biens, le modele privilegie la relation prix - reputation. Cela signifie que pour comprendre la formation des prix en information imparfaite, il est indispensable d'analyser au prealable la dynamique du phenomene de reputation : la maniere dont les consommateurs apprennent la qualite. Dans cette construction, la relation prix - qualite (cas d'information parfaite de rosen) n'est qu'un cas limite ; la reputation evolue, non seulement en fonction de la qualite, mais aussi en fonction des signaux de qualite emis par les producteurs. Le modele se presente sous la forme d'un systeme de deux equations simultanees (une equation de prix hedonistiques et une equation de reputation). Une fois specifie (chapitre 2), le modele est applique au vin de champagne. Les caracteristiques de ce produit sont presentees dans le chapitre 1. Le chapitre 3 contient les resultats d'estimation de la fonction de prix hedonistiques ; le chapitre 4 ceux de l'equation de reputation. Cette derniere est estimee simultanement avec une equation de notoriete (le signal pertinent ici). Les donnees utilisees sont issues d'enquetes d'opinions et d'etudes experimentales originales.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Xu, Philippe. « Information fusion for scene understanding ». Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP2153/document.

Texte intégral
Résumé :
La compréhension d'image est un problème majeur de la robotique moderne, la vision par ordinateur et l'apprentissage automatique. En particulier, dans le cas des systèmes avancés d'aide à la conduite, la compréhension de scènes routières est très importante. Afin de pouvoir reconnaître le grand nombre d’objets pouvant être présents dans la scène, plusieurs capteurs et algorithmes de classification doivent être utilisés. Afin de pouvoir profiter au mieux des méthodes existantes, nous traitons le problème de la compréhension de scènes comme un problème de fusion d'informations. La combinaison d'une grande variété de modules de détection, qui peuvent traiter des classes d'objets différentes et utiliser des représentations distinctes, est faites au niveau d'une image. Nous considérons la compréhension d'image à deux niveaux : la détection d'objets et la segmentation sémantique. La théorie des fonctions de croyance est utilisée afin de modéliser et combiner les sorties de ces modules de détection. Nous mettons l'accent sur la nécessité d'avoir un cadre de fusion suffisamment flexible afin de pouvoir inclure facilement de nouvelles classes d'objets, de nouveaux capteurs et de nouveaux algorithmes de détection d'objets. Dans cette thèse, nous proposons une méthode générale permettant de transformer les sorties d’algorithmes d'apprentissage automatique en fonctions de croyance. Nous étudions, ensuite, la combinaison de détecteurs de piétons en utilisant les données Caltech Pedestrian Detection Benchmark. Enfin, les données du KITTI Vision Benchmark Suite sont utilisées pour valider notre approche dans le cadre d'une fusion multimodale d'informations pour de la segmentation sémantique
Image understanding is a key issue in modern robotics, computer vison and machine learning. In particular, driving scene understanding is very important in the context of advanced driver assistance systems for intelligent vehicles. In order to recognize the large number of objects that may be found on the road, several sensors and decision algorithms are necessary. To make the most of existing state-of-the-art methods, we address the issue of scene understanding from an information fusion point of view. The combination of many diverse detection modules, which may deal with distinct classes of objects and different data representations, is handled by reasoning in the image space. We consider image understanding at two levels : object detection ans semantic segmentation. The theory of belief functions is used to model and combine the outputs of these detection modules. We emphazise the need of a fusion framework flexible enough to easily include new classes, new sensors and new object detection algorithms. In this thesis, we propose a general method to model the outputs of classical machine learning techniques as belief functions. Next, we apply our framework to the combination of pedestrian detectors using the Caltech Pedestrain Detection Benchmark. The KITTI Vision Benchmark Suite is then used to validate our approach in a semantic segmentation context using multi-modal information
Styles APA, Harvard, Vancouver, ISO, etc.
35

Duchesneau, Guylaine. « Évaluation de la sensibilité et de la validité concomitante du test informatisé des fonctions attentionnelles (TIFA) ». Master's thesis, Université Laval, 2004. http://hdl.handle.net/20.500.11794/43295.

Texte intégral
Résumé :
L'objectif de cette étude est d'évaluer la sensibilité et la validité concomitante du Test informatisé des fonctions attentionnelles (TIFA) auprès de victimes de traumatisme cranio-cérébral (TCC). En effet, les déficits d'attention sont l'une des séquelles les plus fréquentes suite à ce trouble neurologique. Ce récent test évalue en modalité auditive et visuelle les temps de réaction, l'attention sélective, l'attention divisée, l'attention soutenue et le contrôle attentionnel. Le TIFA ainsi que trois autres tests d'attention (le Ruff 2 et 7, la double tâche de Baddeley et le Continuous Performance Test) sont administrés à un groupe de TCC modéré-sévère adulte (n = 20) et à un groupe contrôle (n = 20). L'hypothèse en regard de la sensibilité du TIFA est confirmée alors que celle ayant trait à la validité concomitante est partiellement confirmée par deux des trois composantes évaluées. Une fois de mineures modifications apportées au TIFA, ce test pourrait contribuer à fournir une évaluation plus complète du système attentionnel chez les TCC.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Wu-Puigbo, Ya-Huei. « Validation d'un test de barrage informatisé sur tablette évaluant les fonctions exécutives auprès d'une population gériatrique ». Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB210/document.

Texte intégral
Résumé :
Dans le contexte du diagnostic précoce de la maladie d’Alzheimer, une direction de la recherche émerge autour de l’informatisation de tests cognitifs. Nous avons conçu un test de barrage informatisé sur tablette (test e-CT), développé à partir d’un test de barrage papier-crayon. Nous avons étudié les variables influençant les performances au test e-CT et ses propriétés psychométriques. Nous avons observé que chez les sujets âgés sains, la seule variable influençant était l’âge. Les performances au test e-CT n’étaient pas influencées par l’expérience avec un appareil informatique. Cependant, chez les patients présentant des troubles cognitifs, ceux qui utilisaient quotidiennement un appareil informatique avaient une meilleure performance que ceux qui n’avaient pas un usage quotidien. En effet, les patients utilisant quotidiennement un appareil informatique présentaient de meilleures capacités cognitives. Le test e-CT était corrélé avec plusieurs tests des fonctions exécutives (validité convergente), mais pas avec le test de la mémoire épisodique (validité divergente). Il présente aussi une bonne fidélité test-retest. Le test e-CT présente des bonnes performances diagnostiques, permettant de différencier les personnes âgées saines des patients présentant des troubles cognitifs. En conclusion, le test e-CT présente des propriétés psychométriques satisfaisantes et peut être utilisé pour l’évaluation cognitive chez le sujet âgé
In the context of early detection of cognitive impairment associated with dementia, an area of research focus concerns development and validation of computerized tests. We have developed a tablet-based cancellation test (e-CT), based on an existing paper-and-pencil cancellation test (K-T test). We studied the variables influencing performance on the e-CT and its psychometric properties. Among healthy older adults, only age was found to be an influencing variable. The performance on the e-CT was not influenced by experience with a computer-based device. However, for patients suffering from cognitive impairment, those using a computer-based device daily outperformed those who were not daily users. Further analyses showed that daily users conserved better cognitive capacities than non-daily users. The e-CT showed significant correlations with several measures of executive functions (convergent validity), but there was no relationship between the e-CT and the episodic memory test (divergent validity). It showed good test-retest reliability. The e-CT had good diagnostic accuracy in differentiating between healthy elderly subjects and patients with cognitive impairment. In conclusion, the e-CT test shows satisfying psychometric properties and is a promising tool for neuropsychological assessment in older adults
Styles APA, Harvard, Vancouver, ISO, etc.
37

Mallek, Sabrine. « Social Network Analysis : Link prediction under the Belief Function Framework ». Thesis, Artois, 2018. http://www.theses.fr/2018ARTO0204/document.

Texte intégral
Résumé :
Les réseaux sociaux sont de très grands systèmes permettant de représenter les interactions sociales entre les individus. L'analyse des réseaux sociaux est une collection de méthodes spécialement conçues pour examiner les aspects relationnels des structures sociales. L'un des défis les plus importants dans l'analyse de réseaux sociaux est le problème de prédiction de liens. La prédiction de liens étudie l'existence potentielle de nouvelles associations parmi des entités sociales non connectées. La plupart des approches de prédiction de liens se concentrent sur une seule source d'information, c'est-à-dire sur les aspects topologiques du réseau (par exemple le voisinage des nœuds) en supposant que les données sociales sont entièrement fiables. Pourtant, ces données sont généralement bruitées, manquantes et sujettes à des erreurs d'observation causant des distorsions et des résultats probablement erronés. Ainsi, cette thèse propose de gérer le problème de prédiction de liens sous incertitude. D'abord, deux nouveaux modèles de graphes de réseaux sociaux uniplexes et multiplexes sont introduits pour traiter l'incertitude dans les données sociales. L'incertitude traitée apparaît au niveau des liens et est représentée et gérée à travers le cadre de la théorie des fonctions de croyance. Ensuite, nous présentons huit méthodes de prédiction de liens utilisant les fonctions de croyance fondées sur différentes sources d'information dans les réseaux sociaux uniplexes et multiplexes. Nos contributions s'appuient sur les informations disponibles sur le réseau social. Nous combinons des informations structurelles aux informations des cercles sociaux et aux attributs des nœuds, ainsi que l'apprentissage supervisé pour prédire les nouveaux liens. Des tests sont effectués pour valider la faisabilité et l'intérêt de nos approches à celles de la littérature. Les résultats obtenus sur les données du monde réel démontrent que nos propositions sont pertinentes et valables dans le contexte de prédiction de liens
Social networks are large structures that depict social linkage between millions of actors. Social network analysis came out as a tool to study and monitor the patterning of such structures. One of the most important challenges in social network analysis is the link prediction problem. Link prediction investigates the potential existence of new associations among unlinked social entities. Most link prediction approaches focus on a single source of information, i.e. network topology (e.g. node neighborhood) assuming social data to be fully trustworthy. Yet, such data are usually noisy, missing and prone to observation errors causing distortions and likely inaccurate results. Thus, this thesis proposes to handle the link prediction problem under uncertainty. First, two new graph-based models for uniplex and multiplex social networks are introduced to address uncertainty in social data. The handled uncertainty appears at the links level and is represented and managed through the belief function theory framework. Next, we present eight link prediction methods using belief functions based on different sources of information in uniplex and multiplex social networks. Our proposals build upon the available information in data about the social network. We combine structural information to social circles information and node attributes along with supervised learning to predict new links. Tests are performed to validate the feasibility and the interest of our link prediction approaches compared to the ones from literature. Obtained results on social data from real-world demonstrate that our proposals are relevant and valid in the link prediction context
Styles APA, Harvard, Vancouver, ISO, etc.
38

Moisan, Patrick. « Utilisation pédagogique d'un environnement informatisé d'analyse de vidéos numériques dans un contexte d'apprentissage mathématique lié aux fonctions quadratiques ». Thesis, University of Ottawa (Canada), 2006. http://hdl.handle.net/10393/27274.

Texte intégral
Résumé :
La technologie évolue sans cesse et de nouveaux moyens technologiques maintenant accessibles en classe soulèvent du même coup de nouveaux enjeux pédagogiques. Cette recherche qualitative visait à étudier comment l'utilisation d'un environnement informatisé permettant l'analyse de vidéos numériques affecte l'apprentissage chez des élèves de 10e année dans un contexte d'apprentissage mathématique lié aux fonctions quadratiques. En dyade, les élèves ont eu à résoudre divers problèmes, faisant appel ou non à la vidéo numérique, en lien avec des situations décrivant un mouvement. Parmi les tendances qui semblent se dégager en ce qui concerne l'analyse de telles situations à partir de vidéos numériques, on remarque la mise en place d'une résolution de problèmes dynamique à l'intérieur de laquelle se présente naturellement plusieurs possibilités de clarification de concepts rattachés aux mathématiques ainsi qu'au domaine de la cinématique en physique.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Pichon, Frédéric. « Fonctions de croyance : décompositions canoniques et règles de combinaison ». Phd thesis, Université de Technologie de Compiègne, 2009. http://tel.archives-ouvertes.fr/tel-00793859.

Texte intégral
Résumé :
Comparé à la théorie des possibilités, le Modèle des Croyances Transférables (MCT) - une interprétation non probabiliste de la théorie de Dempster-Shafer - dispose d'assez peu de choix en terme d'opérateurs d'agrégation pour la fusion d'informations. Dans cette thèse, ce problème de manque de flexibilité pour la combinaison des fonctions de croyance - l'outil mathématique permettant la représentation de l'information dans le MCT - est abordé. Notre première contribution est la mise à jour de familles infinies de règles de combinaison conjonctives et disjonctives, rejoignant ainsi la situation en théorie des possibilités en ce qui concerne les opérateurs de fusion conjonctive et disjonctive. Notre deuxième contribution est un ensemble de résultats rendant intéressante, d'un point de vue applicatif, une famille infinie de règles de combinaison, appelée les alpha-jonctions et introduite initialement de manière purement formelle. Tout d'abord, nous montrons que ces règles correspondent à une connaissance particulière quant à la véracité des sources d'information. Ensuite, nous donnons plusieurs nouveaux moyens simples de calculer la combinaison par une alpha-jonction.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Saha, Suman. « Amélioration de la qualité des codes de gestion d'erreur dans les logiciels système en utilisant des informations locales aux fonctions ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00937807.

Texte intégral
Résumé :
En C, une stratégie classique pour implémenter les codes de gestion d'erreur est de faire suivre chaque opération qui peut générer une erreur d'une structure conditionnelle qui teste si l'opération a renvoyé une erreur. Ce stratégie basique, cependant, est sujette à erreurs, et il est courant d'oublier des opérations de nettoyage requises, ainsi que d'oublier de mettre à jour des codes de gestion d'erreur existants lorsque la fonction est étendue avec de nouvelles opérations. De plus, une partie importante du code doit souvent être dupliquée. Un style de programmation, stratégie goto , qui peut réduire en partie certaines de ces difficultés. Pour améliorer la structure des codes de gestion d'erreur dans les logiciels système, nous définissions un algorithme qui permet de transformer les codes de gestion d'erreur implémentés suivant la stratégie basique en codes de gestion d'erreur qui utilisent la stratégie goto. Même lorsque les codes de gestion d'erreurs sont structurés, la gestion et la libération des ressources allouées restent un problème lorsqu'il s'agit d'assurer la robustesse du code système. Dans cette thèse, nous proposons un algorithme microscopique de détection d'omission de libération de ressource, basé sur une analyse principalement intra-procédurale, qui prend en compte les flux et les chemins du code et qui cible et exploite les propriétés des codes de gestion d'erreur. Notre algorithme est résistant aux faux positifs dans l'ensemble des acquisitions de ressources et des opérations de libération, ce qui produit un faible taux de faux positifs dans les rapports renvoyés par l'outil tout en passant à l'échelle.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Ketterer, Andreas. « Modular variables in quantum information ». Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC290/document.

Texte intégral
Résumé :
L’information quantique peut être traitée de deux manières fondamentalement différentes: à l’aide de variables discrètes ou continues. Dans cette thèse, nous étudions de manière théorique la réalisation de protocoles d’information quantique dans les systèmes caractérisés par des variables continues. Pour ce faire, nous utilisons les variables modulaires comme outil afin de révéler des structures discrètes dans les états, opérations et observables. Le présent travail est fortement motivé par l’applicabilité expérimentale de nos idées dans des expériences d’optique quantique. Le thème principal de cette thèse est la formulation d’un cadre pour le traitement quantique de l’information dans l’espace des phases grâce aux variables modulaires. L’usage des variables modulaires permet d’encoder des états logique dans des espaces de Hilbert de dimension infinie et de définir des opérations qui permettent de les manipuler. En particulier, nous considérons des protocoles qui impliquent des mesures de variables modulaires qui permettent la lecture d’information discrète codée dans des variables continues. Grâce à ce formalisme, nous montrons comment il est possible de réaliser des tests des propriétés fondamentales de la mécanique quantique comme l’intrication, la non-localité ou la contextualité dans des espaces de Hilbert de dimensions finie ou infinie. Ensuite, nous discutons pourquoi les degrés de liberté transverse des photons sont des candidats naturels pour l’implémentation expérimentale des variables modulaires. À cet effet, nous démontrons comment il est possible d’utiliser l’effet Talbot - un effet d’interférence de champ proche - afin d’encoder de l’information discrète dans la distribution spatiales des photons. Finalement, nous montrons pour la première fois comment produire des photons intriqués de dimension arbitraire de manière déterministe en utilisant la conversion paramétrique et des éléments d’optique linéaire
Quantum information can be processed in two fundamentally different ways, using either discrete- or continuous-variable implementations. In this thesis we study theoretically how to implement discrete quantum information protocols in physical objects characterized by continuous variables. In order to do so we use modular variables as a helpful tool to reveal discrete structures in continuous-variable states, operations and observables. The present work is strongly guided by the experimental applicability of our ideas in quantum optics experiments, with a particular focus on the transverse degrees of freedom of single photons. One of the main themes of this thesis is the formulation of a framework for quantum information processing in phase-space based on the use of modular variables. The latter permit us to introduce logical states and operations allowing to manipulate discrete quantum information encoded in infinite dimensional Hilbert spaces. In particular, we consider protocols that involve measurements of judiciously chosen logical observables enabling the readout of the encoded discrete quantum information. Based on this framework we show how to perform tests of fundamental properties of quantum mechanics, such as entanglement, Bell nonlocality and contextuality, in Hilbert spaces of various dimensions. Further on, we discuss the transverse degrees of freedom of single photons as a natural platform to manipulate and measure modular variables. In particular, we demonstrate how to process discrete quantum information encoded in the spatial distribution of single photons via the optical Talbot effect - a near-field interference effect. Finally, we show for the first time how to produce deterministically d-dimensional entangled photon pairs using spontaneous parametric down-conversion and linear optical elements only
Styles APA, Harvard, Vancouver, ISO, etc.
42

Zhao, Yunpeng. « Operations booléennes sur les solides eulériens défini par NURBS utilisant les informations de proximité topologique ». Châtenay-Malabry, Ecole centrale de Paris, 1992. http://www.theses.fr/1992ECAP0214.

Texte intégral
Résumé :
Une méthode d’opérations booléennes sur les solides eulériens utilisant les informations de proximité topologique a été proposée dans ce travail. Les informations de proximité topologique peuvent être utilisées pour: 1) accélérer la classification d'un objet manipulé par les opérations booléennes; 2) déduire la classification de l'autre objet. Cette méthode traite aussi bien les solides polyédriques que les solides définis par des surfaces gauches telles que NURBS
Styles APA, Harvard, Vancouver, ISO, etc.
43

Ugur, Yigit. « An information-theoretic approach to distributed learning : distributed source coding under logarithmic loss ». Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2062.

Texte intégral
Résumé :
Une question de fond, souvent discutée dans l’apprentissage de la théorie, est de savoir comment choisir une fonction de `bonne' perte qui mesure la fidélité de la reconstruction à l’originale. La perte logarithmique est largement utilisée comme critère de pénalité dans divers contextes, notamment le regroupement et la classification, la reconnaissance de formes, l'apprentissage et la prédiction, ainsi que le traitement d'images. Compte tenu du nombre élevé de recherches effectuées récemment dans ces domaines, la perte logarithmique devient une métrique très importante et sera l’axe principal en tant que métrique de distorsion dans cette thèse. Dans cette thèse, nous étudions une configuration distribuée, appelée problème de Chief Executive Officer (CEO) dans le cadre d’une mesure de distorsion de perte logarithmique. Plus précisément, les agents observent les versions bruitées d'une source distante indépendamment corrompues et communiquent indépendamment avec un décodeur ou un chef de la direction via des liaisons sans bruit à contrainte de débit. Le CEO a également sa propre observation bruyante de la source et souhaite reconstruire la source distante dans les limites du niveau de distorsion prescrit, où la distorsion induite est mesurée selon le critère de pénalité de perte logarithmique. Une des contributions principales de la thèse est la caractérisation explicite de la région de distorsion du taux du problème vectoriel du PDG gaussien, dans laquelle la source, les observations et les informations complémentaires sont conjointement gaussiennes. Pour la preuve de ce résultat, nous étendons d'abord résultat de Courtade-Weissman sur la région de distorsion des taux du problème de CEO discret sans mémoire au cas où le CEO a accès à un flux d'informations secondaires corrélé qui est tel que les observations des agents sont indépendantes conditionnellement compte tenu des informations secondaires et de la source distante. Ensuite, nous obtenons une borne externe sur la région du problème de vecteur du CEO gaussien en évaluant la limite extérieure du modèle discret sans mémoire au moyen d'une technique qui s'appuie sur l'identité de Bruijn et les propriétés des informations de Fisher. L'approche est similaire à technique de la délimitation externe d'Ekrem-Ulukus pour le problème de vecteur du CEO gaussien sous mesure de distorsion quadratique, pour lequel il était là trouvé généralement non serré; mais il est montré ici pour donner une caractérisation complète de la région pour le cas de mesure de perte logarithmique. L’application de nos résultats nous permet de trouver des solutions complètes de trois problèmes connexes: le problème du CEO du vecteur quadratique gaussien avec contrainte déterminante, le test d'hypothèses gaussiennes distribuées par vecteur contre le problème de l'indépendance conditionnelle et le problème de goulot d'étranglement d'information distribué gaussien de vecteur. Avec la pertinence connue de la mesure logarithmique de fidélité à la perte dans le contexte de l’apprentissage et de la prédiction, développer des algorithmes pour calculer les régions fournies dans cette thèse peut trouver une utilité dans diverses applications où l'apprentissage est effectué de manière distributive. Motivés par ce fait, nous développons deux algorithmes de type: i) algorithmes numériques itératifs de type Blahut-Arimoto pour les modèles discrets et gaussiens dans lesquels la distribution conjointe des sources est connue; ii) un algorithme de type inférence variationnelle dans lequel les mappages de codage sont paramétrés par des réseaux de neurones et la borne de variation approchée par échantillonnage de Markov et optimisé avec descente de gradient stochastique pour le cas où il n'y a qu'un ensemble de données de formation disponible (...)
One substantial question, that is often argumentative in learning theory, is how to choose a `good' loss function that measures the fidelity of the reconstruction to the original. Logarithmic loss is a natural distortion measure in the settings in which the reconstructions are allowed to be `soft', rather than `hard' or deterministic. Logarithmic loss is widely used as a penalty criterion in various contexts, including clustering and classification, pattern recognition, learning and prediction, and image processing. Considering the high amount of research which is done recently in these fields, the logarithmic loss becomes a very important metric and will be the main focus as a distortion metric in this thesis.In this thesis, we investigate a distributed setup, so-called the Chief Executive Officer (CEO) problem under logarithmic loss distortion measure. Specifically, agents observe independently corrupted noisy versions of a remote source, and communicate independently with a decoder or CEO over rate-constrained noise-free links. The CEO also has its own noisy observation of the source and wants to reconstruct the remote source to within some prescribed distortion level where the incurred distortion is measured under the logarithmic loss penalty criterion. One of the main contributions of the thesis is the explicit characterization of the rate-distortion region of the vector Gaussian CEO problem, in which the source, observations and side information are jointly Gaussian. For the proof of this result, we first extend Courtade-Weissman's result on the rate-distortion region of the discrete memoryless (DM) CEO problem to the case in which the CEO has access to a correlated side information stream which is such that the agents' observations are independent conditionally given the side information and remote source. Next, we obtain an outer bound on the region of the vector Gaussian CEO problem by evaluating the outer bound of the DM model by means of a technique that relies on the de Bruijn identity and the properties of Fisher information. The approach is similar to Ekrem-Ulukus outer bounding technique for the vector Gaussian CEO problem under quadratic distortion measure, for which it was there found generally non-tight; but it is shown here to yield a complete characterization of the region for the case of logarithmic loss measure. Also, we show that Gaussian test channels with time-sharing exhaust the Berger-Tung inner bound, which is optimal. Furthermore, application of our results allows us to find the complete solutions of three related problems: the quadratic vector Gaussian CEO problem with determinant constraint, the vector Gaussian distributed hypothesis testing against conditional independence problem and the vector Gaussian distributed Information Bottleneck problem.With the known relevance of the logarithmic loss fidelity measure in the context of learning and prediction, developing algorithms to compute the regions provided in this thesis may find usefulness in a variety of applications where learning is performed distributively. Motivated from this fact, we develop two type algorithms : i) Blahut-Arimoto (BA) type iterative numerical algorithms for both discrete and Gaussian models in which the joint distribution of the sources are known; and ii) a variational inference type algorithm in which the encoding mappings are parametrized by neural networks and the variational bound approximated by Markov sampling and optimized with stochastic gradient descent for the case in which there is only a set of training data is available. Finally, as an application, we develop an unsupervised generative clustering framework that uses the variational Information Bottleneck (VIB) method and models the latent space as a mixture of Gaussians. This generalizes the VIB which models the latent space as an isotropic Gaussian which is generally not expressive enough for the purpose of unsupervised clustering
Styles APA, Harvard, Vancouver, ISO, etc.
44

Mumen, Mohamed. « Caractérisation du fonctionnement hydrique des sols à l'aide d'un modèle mécaniste de transferts d'eau et de chaleur mis en œuvre en fonction des informations disponibles sur le sol ». Avignon, 2006. http://www.theses.fr/2006AVIG0600.

Texte intégral
Résumé :
"L'objectif principal de ce travail est de proposer une méthode de prévision du régime hydrique du sol en se basant sur des informations facilement accessibles sur le sol et le climat. Nous nous sommes limités au cas des sols nus et à l'estimation de la teneur en eau dans la couche de surface (0-30 cm). Ce choix est guidé par le contexte finalisé dans lequel s'inscrit cette étude qui est le développement d'un outil d'aide à la décision pour choisir les dates d'implantation des cultures. La méthode proposée doit permettre de faire fonctionner un modèle mécaniste de transferts d'eau et de chaleur (le modèle TEC) avec des données climatiques standard et une caractérisation simplifiée du sol (granulométrie, teneur en matière organique et densité du sol). La mise en œuvre du modèle TEC exige beaucoup d'informations sur le sol, le climat et l'interface sol-atmosphère. Dans ce travail nous nous sommes focalisés sur trois types d'entrée que nous estimons avoir un impact sur la teneur en eau du sol. Il s'agit:(1) des propriétés hydrodynamiques du sol, (2) des conditions initiales du modèle, (3) des conditions aux limites inférieures. Les principaux résultats ressortant de ce travail sont : en ce qui concerne les propriétés hydrodynamiques du sol, l'utilisation de la fonction de pédotransfert de Wosten (1997) conduit aux meilleurs résultats. Nous avons trouvé que dans la plupart des cas, la précision sur la teneur en eau dans les 30 premiers centimètres présentait un RMSE meilleur que 0. 04 m3m-3. L'utilisation de mesure des propriétés hydrodynamique in situ par la méthode simplifiée de " BeerKan " ou en laboratoire par la méthode de " wind " ne conduisent pas nécessairement à une amélioration des simulations réalisées avec TEC. Cette étude a également montré que l'initialisation du modèle et les conditions limites inférieures conduisent à des erreurs comparables à celles induites par les propriétés hydrodynamiques. En se basant sur ces résultats, nous proposons une méthode pour mettre en œuvre le modèle TEC lorsque la caractérisation hydrique et les propriétés hydrodynamiques du sol n'est pas possible. L'application de cette méthode donne une précision d'environ 0. 04 m3m-3"
Styles APA, Harvard, Vancouver, ISO, etc.
45

Nguyen-Thi, Thu-Hien. « Towards a realistic analysis of sorting and searching algorithms ». Caen, 2014. http://www.theses.fr/2014CAEN2038.

Texte intégral
Résumé :
On revisite les algorithmes de tri et de recherche classiques en considérant que les entrées de l’algorithme sont des mots infinis et en prenant compte de comparaisons de symboles entre des mots. Nous travaillons sous des modèles probabilistes différents pour lesquels les symboles sont générés par une source générale qui comprend, par exemple, la source sans mémoire, la chaîne de Markov ou même des sources avec les corrélations non bornées. De ce point de vue, une assertion telle que « la complexité de QuickSort est O(n log n) » n’est plus vérifiée et il n’est pas aisé de comparer des algorithmes reposant sur des principes différents de comparaison entre eux. Dans ce cadre, nous trouvons que la complexité en moyenne pour le nombre de comparaisons de symboles de QuickSort devient O(n log2 n) alors que celle de QuickSelect reste en O(n). Nous proposons une méthode générale qui permet de revisiter trois algorithmes de tri QuickSort, Tri Insertion et Tri à Bulles et deux algorithmes de sélection QuickSelect et Sélection du Minimum. Pour chaque algorithme, nous calculons les asymptotiques du nombre moyen de comparaisons de symboles. Les constantes pour les termes dominants sont reliées à des notions différentes de coïncidence et dépendantes des algorithmes. Nous empruntons des méthodes de la combinatoire analytique. Dans notre cadre, nous obtenons de plus une borne inférieure pour le nombre moyen de comparaisons de symboles effectuées par des algorithmes de tri utilisant la comparaison usuelle entre des chaînes de caractères
We revisit classical textbook sorting or selecting algorithms under a complexity model that fully takes into account the elementary comparisons between symbols composing the records to be processed. Our probabilistic models belong to a broad category of information sources that encompasses memoryless (i. E. , independent-symbols) and Markov sources, as well as many unbounded-correlation sources. Under this perspective, commonly accepted assertions, such as ``the complexity of Quicksort is O(n log n)'', are to be challenged, and the relative merits of sorting and searching methods relying on different principles (e. G. , radix-based versus comparison-based) can be precisely assessed. For instance we establish that, under our conditions, the average-case complexity of QuickSort is O(n log2 n) (rather than O(n log n), classically),whereas that of QuickSelect remains O(n). In fact we propose a framework which allows to revisiting three sorting algorithms (QuickSort, Insertion Sort, Bubble Sort) and two selection algorithms (QuickSelect and Minimum Selection). For each algorithm a precise asymptotic estimate for the dominant term of the mean number of symbol comparisons is given where the constants involve various notions of coincidence depending on the algorithm. Explicit expressions for the implied constants are provided by methods from analytic combinatorics. As an aside, in our setting, we are able to derive a lower bound for the average number of symbol comparisons for algorithms solving the sorting problem and using usual comparisons between strings
Styles APA, Harvard, Vancouver, ISO, etc.
46

Gutiérrez, Celaya Jorge Arturo. « Fusion d'informations en identification automatique des langues ». Toulouse 3, 2005. http://www.theses.fr/2005TOU30098.

Texte intégral
Résumé :
En identification automatique des langues nous nous intéressons au problème de fusion des informations de décision issues de différents experts. Pour explorer et comparer des stratégies de fusion, nous les modélisons au moyen de méthodes formelles de classification provenant soit de la théorie statistique, comme les mélanges de lois gaussiennes, les réseaux de neurones et le classificateur discriminant, soit des travaux de recherche récents pour les théories des possibilités et des fonctions de croyance. Nous proposons une méthodologie formelle de fusion dans le paradigme bayésien : l'évaluation de la performance des experts par l'analyse factorielle discriminante fournit des indices de confiance, l'agrégation des décisions privilégie les méthodes donnant, directement ou par transformation, des valeurs de probabilité ou de vraisemblance pour les langues et la pondération de nouvelles fonctions de coût avec les indices de confiance conduit à la prise de décision par minimum de risque
Fusing decision information coming out of different experts is an important issue in Automatic Language Identification. In order to explore and compare different fusion strategies, the information behaviour is modelled by means of formal classification methods provided either by the Statistics Theory, such as the Gaussian Mixture Model, the Neural Networks and the Discriminant Classifier, or by recent research advances in Possibility and Evidential Theories. As an alternative to empirical procedures, a formal fusion methodology within the Bayesian paradigm is proposed: evaluating expert performance by means of the Discriminant Factor Analysis provides us with confidence indices, aggregating expert decisions takes us to choose those fusion methods that provide us directly, or after transformation, with probability or likelihood values of languages, and building and weighting new loss functions with confidence indices lead us to make unique decisions by minimum risk
Styles APA, Harvard, Vancouver, ISO, etc.
47

Siolas, Georges. « Modèles probabilistes et noyaux pour l'extraction d'informations à partir de documents ». Paris 6, 2003. http://www.theses.fr/2003PA066487.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
48

Rancourt, Julie. « L'évaluation des troubles de l'attention : validité discriminante et fidélité test-retest des sous-tests d'attendion sélective du test informatisé des fonctions attentionnelles (TIFA) ». Master's thesis, Université Laval, 2004. http://hdl.handle.net/20.500.11794/43331.

Texte intégral
Résumé :
La présente étude a pour but d'évaluer la fidélité test-retest et la validité discriminante des sous-tests d'attention sélective du TIFA (Test Informatisé des Fonctions Attentionnelles) chez une population d'enfants. On a trois hypothèses à valider. Premièrement, il n'y a pas de différence significative entre les résultats de la première et de la deuxième passation pour les participants du groupe contrôle. Deuxièmement, il existe une corrélation significative de plus de 0.80 entre les deux passations chez les sujets du groupe contrôle. Troisièmement, les résultats du groupe sain sont significativement plus élevés que ceux avec trouble déficitaire de l'attention. Pour ce faire, 74 participants âgés entre 8 et 12 ans, dont 38 ont un diagnostic de TDA/H ont été recrutés. L'examinateur a rencontré chaque participant individuellement. Ceux-ci ont passé les sous-tests d'attention sélective auditive et visuelle. Pour la fidélité test-retest, des corrélations de Pearson ont été effectuées afin de vérifier la constance de l'outil ainsi que des ANOVAS pour vérifier sa stabilité. La tâche auditive s'avère stable dans le temps. Pour ce qui est de la validité discriminante, les temps de réaction moyens ainsi que les scores pour chacun des sous-tests ont été comparés. On ne note une différence significative entre les groupes pour la tâche d'attention sélective visuelle.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Dhouib, Sofiane. « Contributions to unsupervised domain adaptation : Similarity functions, optimal transport and theoretical guarantees ». Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI117.

Texte intégral
Résumé :
L'explosion de la quantité de données produites chaque jour a fait de l' l'Apprentissage Automatique un outil vital pour extraire des motifs de haute valeur à partir de celles-là. Concrètement, un algorithme d'apprentissage automatique apprend de tels motifs après avoir été entraîné sur un jeu de données appelé données d'entraînement, et sa performance est évaluée sur échantillon différent, appelé données de test. L'Adaptation de Domaine est une branche de l'apprentissage automatique, dans lequel les données d'entraînement et de test ne sont plus supposées provenir de la même distribution de probabilité. Dans ce cas, les deux distributions des données d'entraînement et de test correspondent respectivement aux domaines source et cible. Nos contributions se focalisent sur trois aspects théoriques en relation avec l'adaptation de domaine pour les tâches de classification. Le premier est l'apprentissage avec des fonctions de similarité, qui traite les algorithmes de classification basés sur la comparaison d'une instance à d'autres exemples pour décider sa classe. Le deuxième est la classification à vaste marge qui concerne l'apprentissage d'un classifieur maximisant la séparation entre classes. Le troisième aspect est le Transport Optimal qui formalise un principe d'effort minimal pour le transport de masses de probabilité entre distributions. Au début de cette thèse, nous nous intéressions à l'apprentissage avec ce que l'on appelle fonctions de similarités (epsilon,gamma,tau)-bonnes dans le cadre de l'adaptation de domaine, puisque ces fonctions ont été introduites dans la littérature dans le cadre classique de l'apprentissage supervisé. C'est le sujet de notre première contribution dans laquelle nous étudions théoriquement la performance d'une fonction de similarité sur une distribution cible, étant donné qu'elle est adéquate pour la source. Puis, nous abordons plus généralement le thème de la classification à vaste marge pour l'adaptation de domaine, avec des hypothèses de départ plus faibles que celles adoptées dans la première contribution. Dans ce contexte, nous proposons une nouvelle étude théorique et un algorithme d'adaptation de domaine, ce qui constitue notre deuxième contribution. Nous dérivons de nouvelles bornes prenant en compte la marge de classification dans le domaine cible, que nous convexifions en tirant profit de la théorie du Transport Optimal, en vue de dériver un algorithme d'adaptation de domaine présentant une variation adversariale du problème classique de Kantorovitch. Finalement, nous dédions notre dernière contribution aux variations adversariales ou minimax du problème du transport optimal, où nous démontrons l'adaptabilité de notre approche
The surge in the quantity of data produced nowadays made of Machine Learning, a subfield of Artificial Intelligence, a vital tool used to extract valuable patterns from them and allowed it to be integrated into almost every aspect of our everyday activities. Concretely, a machine learning algorithm learns such patterns after being trained on a dataset called the training set, and its performance is assessed on a different set called the testing set. Domain Adaptation is an active research area of machine learning, in which the training and testing sets are not assumed to stem from the same probability distribution, as opposed to Supervised Learning. In this case, the two distributions generating the training and testing data correspond respectively to the source and target domains. Our contributions focus on three theoretical aspects related to domain adaptation for classification tasks. The first one is learning with similarity functions, which deals with classification algorithms based on comparing an instance to other examples in order to decide its class. The second is large-margin classification, which concerns learning classifiers that maximize the separation between classes. The third is Optimal Transport that formalizes the principle of least effort for transporting probability masses between two distributions. At the beginning of the thesis, we were interested in learning with so-called (epsilon,gamma,tau)-good similarity functions in the domain adaptation framework, since these functions have been introduced in the literature in the classical framework of supervised learning. This is the subject of our first contribution in which we theoretically study the performance of a similarity function on a target distribution, given it is suitable for the source one. Then, we tackle the more general topic of large-margin classification in domain adaptation, with weaker assumptions than those adopted in the first contribution. In this context, we proposed a new theoretical study and a domain adaptation algorithm, which is our second contribution. We derive novel bounds taking the classification margin on the target domain into account, that we convexify by leveraging the appealing Optimal Transport theory, in order to derive a domain adaptation algorithm with an adversarial variation of the classic Kantorovich problem. Finally, after noticing that our adversarial formulation can be generalized to include several other cases of interest, we dedicate our last contribution to adversarial or minimax variations of the optimal transport problem, where we demonstrate the versatility of our approach
Styles APA, Harvard, Vancouver, ISO, etc.
50

Leclercq, Bastien. « Rôle de la rétine dans les fonctions non-visuelles : traitement des informations relatives à la photopériode et impact de la lumière bleue sur le comportement ». Thesis, Strasbourg, 2021. http://www.theses.fr/2021STRAJ099.

Texte intégral
Résumé :
Les cellules ganglionnaires intrinsèquement photosensibles (ipRGCs) constituent une interface majeure dans la régulation de la physiologie et des comportements par la lumière. Ces travaux démontrent que la présence de ces cellules dans la rétine est suffisante pour permettre à des souris d’intégrer les variations saisonnières de la photopériode. De plus, nous décrivons des modifications dépendantes de la photopériode au sein des ipRGCs. Ces résultats suggèrent que la rétine pourrait intégrer les variations de la photopériode, afin d’assurer au mieux les fonctions visuelles et non-visuelles à travers les saisons. Par ailleurs, ces travaux ont exploré les effets de la surexposition aux écrans et notamment à un enrichissement en lumière bleue sur le comportement de type anxieux/agressif. Les ipRGCs, sensibles à la lumière bleue (460-480nm), sont connectées avec de nombreuses structures cérébrales impliquées dans la régulation des comportements. Nos résultats montrent qu’une exposition prolongée à un environnement enrichi en lumière bleue peut modifier les comportements de type agressif
The intrinsically photosensitive retinal ganglion cells (ipRGCs) constitute a key interface in the regulation of our physiology and behaviours by light. First, this thesis demonstrates that the ipRGCs are sufficient to ensure a normal photoperiod integration. Mice without rods nor cones still encode photoperiod variation through melatonin secretion and display photoperiod-dependent locomotor activity changes. This is the first time we describe photoperiod-dependent changes of the ipRGCs. These data suggest that the retina itself could integrate the photoperiod locally, and thus constitute an adaptative mechanism to regulate both visual and non-visual functions depending on the seasons. Secondly, this thesis assessed the effects of screen overexposure and notably to blue light enrichment on aggressive/anxious behaviour. ipRGCs are particularly sensitive to blue light (460-480nm) and are connected to various brain structures involved in behaviour regulation. We show that exposure to a blue light-enriched environment can modify behaviour such as aggressiveness
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie