Siga este link para ver outros tipos de publicações sobre o tema: Computationnelle.

Teses / dissertações sobre o tema "Computationnelle"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Computationnelle".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Debarnot, Valentin. "Microscopie computationnelle". Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30156.

Texto completo da fonte
Resumo:
Les travaux présentés de cette thèse visent à proposer des outils numériques et théoriques pour la résolution de problèmes inverses en imagerie. Nous nous intéressons particulièrement au cas où l'opérateur d'observation (e.g. flou) n'est pas connu. Les résultats principaux de cette thèse s'articulent autour de l'estimation et l'identification de cet opérateur d'observation. Une approche plébiscitée pour estimer un opérateur de dégradation consiste à observer un échantillon contenant des sources ponctuelles (microbilles en microscopie, étoiles en astronomie). Une telle acquisition fournit une mesure de la réponse impulsionnelle de l'opérateur en plusieurs points du champ de vue. Le traitement de cette observation requiert des outils robustes pouvant utiliser rapidement les données rencontrées en pratique. Nous proposons une boîte à outils qui estime un opérateur de dégradation à partir d'une image contenant des sources ponctuelles. L'opérateur estimé à la propriété qu'en tout point du champ de vue, sa réponse impulsionnelle s'exprime comme une combinaison linéaire de fonctions élémentaires. Cela permet d'estimer des opérateurs invariants (convolutions) et variants (développement en convolution-produit) spatialement. Une spécificité importante de cette boîte à outils est son caractère automatique : seul un nombre réduit de paramètres facilement accessibles permettent de couvrir une grande majorité des cas pratiques. La taille de la source ponctuelle (e.g. bille), le fond et le bruit sont également pris en compte dans l'estimation. Cet outil se présente sous la forme d'un module appelé PSF-Estimator pour le logiciel Fiji, et repose sur une implémentation parallélisée en C++. En réalité, les opérateurs modélisant un système optique varient d'une expérience à une autre, ce qui, dans l'idéal, nécessite une calibration du système avant chaque acquisition. Pour pallier à cela, nous proposons de représenter un système optique non pas par un unique opérateur de dégradation, mais par un sous-espace d'opérateurs. Cet ensemble doit permettre de représenter chaque opérateur généré par un microscope. Nous introduisons une méthode d'estimation d'un tel sous-espace à partir d'une collection d'opérateurs de faible rang (comme ceux estimés par la boîte à outils PSF-Estimator). Nous montrons que sous des hypothèses raisonnables, ce sous-espace est de faible dimension et est constitué d'éléments de faible rang. Dans un second temps, nous appliquons ce procédé en microscopie sur de grands champs de vue et avec des opérateurs variant spatialement. Cette mise en œuvre est possible grâce à l'utilisation de méthodes complémentaires pour traiter des images réelles (e.g. le fond, le bruit, la discrétisation de l'observation). La construction d'un sous-espace d'opérateurs n'est qu'une étape dans l'étalonnage de systèmes optiques et la résolution de problèmes inverses. [...]
The contributions of this thesis are numerical and theoretical tools for the resolution of blind inverse problems in imaging. We first focus in the case where the observation operator is unknown (e.g. microscopy, astronomy, photography). A very popular approach consists in estimating this operator from an image containing point sources (microbeads or fluorescent proteins in microscopy, stars in astronomy). Such an observation provides a measure of the impulse response of the degradation operator at several points in the field of view. Processing this observation requires robust tools that can rapidly use the data. We propose a toolbox that estimates a degradation operator from an image containing point sources. The estimated operator has the property that at any location in the field of view, its impulse response is expressed as a linear combination of elementary estimated functions. This makes it possible to estimate spatially invariant (convolution) and variant (product-convolution expansion) operators. An important specificity of this toolbox is its high level of automation: only a small number of easily accessible parameters allows to cover a large majority of practical cases. The size of the point source (e.g. bead), the background and the noise are also taken in consideration in the estimation. This tool, coined PSF-estimator, comes in the form of a module for the Fiji software, and is based on a parallelized implementation in C++. The operators generated by an optical system are usually changing for each experiment, which ideally requires a calibration of the system before each acquisition. To overcome this, we propose to represent an optical system not by a single operator (e.g. convolution blur with a fixed kernel for different experiments), but by subspace of operators. This set allows to represent all the possible states of a microscope. We introduce a method for estimating such a subspace from a collection of low rank operators (such as those estimated by the toolbox PSF-Estimator). We show that under reasonable assumptions, this subspace is low-dimensional and consists of low rank elements. In a second step, we apply this process in microscopy on large fields of view and with spatially varying operators. This implementation is possible thanks to the use of additional methods to process real images (e.g. background, noise, discretization of the observation).The construction of an operator subspace is only one step in the resolution of blind inverse problems. It is then necessary to identify the degradation operator in this set from a single observed image. In this thesis, we provide a mathematical framework to this operator identification problem in the case where the original image is constituted of point sources. Theoretical conditions arise from this work, allowing a better understanding of the conditions under which this problem can be solved. We illustrate how this formal study allows the resolution of a blind deblurring problem on a microscopy example.[...]
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Touret, Alain. "Vers une géométrie computationnelle". Nice, 2000. http://www.theses.fr/2000NICE5491.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Le, Calvez Rozenn. "Approche computationnelle de l'acquisition précoce des phonèmes". Paris 6, 2007. http://www.theses.fr/2007PA066345.

Texto completo da fonte
Resumo:
Pendant leur première année de vie, les bébés acquièrent très rapidement différents aspects de la phonologie de leur langue maternelle, notamment grâce à des mécanismes d'apprentissage statistique. Nous nous intéressons à l'hypothèse selon laquelle les bébés détectent les distributions complémentaires de segments pour apprendre les règles allophoniques (et les phonèmes) de leur langue. Nous avons étudié la faisabilité de cette hypothèse à l'aide d'un algorithme statistique testé sur des corpus de langues artificielles et naturelles. Nous avons trouvé que l'algorithme détecte efficacement les règles allophoniques ainsi que des fausses alertes qui peuvent être éliminées par un filtre phonotactique et des filtres linguistiques qui imposent des contraintes de naturalité sur les règles allophoniques. Au total, notre étude suggère qu'il est possible d'apprendre les règles allophoniques de façon prélexicale à partir de quelques principes computationnels et biais d'apprentissage.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Panel, Nicolas. "Étude computationnelle du domaine PDZ de Tiam1". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX062/document.

Texto completo da fonte
Resumo:
Les interactions protéine-protéine sont souvent contrôlées par de petits domaines protéiques qui régulent les chemins de signalisation au sein des cellules eucaryotes. Les domaines PDZ sont parmi les domaines les plus répandus et les plus étudiés. Ils reconnaissent spécifiquement les 4 à 10 acides aminés C-terminaux de leurs partenaires. Tiam1 est un facteur d'échange de GTP de la protéine Rac1 qui contrôle la migration et la prolifération cellulaire et dont le domaine PDZ lie les protéines Syndecan-1 (Sdc1), Caspr4 et Neurexine. Des petits peptides ou des molécules peptidomimétiques peuvent potentiellement inhiber ou moduler son activité et être utilisés à des fins thérapeutiques. Nous avons appliqué des approches de dessin computationnel de protéine (CPD) et de calcul d'énergie libre par simulations dynamique moléculaire (DM) pour comprendre et modifier sa spécificité. Le CPD utilise un modèle structural et une fonction d'énergie pour explorer l'espace des séquences et des structures et identifier des variants protéiques ou peptidiques stables et fonctionnels. Nous avons utilisé le programme de CPD Proteus, développé au laboratoire, pour redessiner entièrement le domaine PDZ de Tiam1. Les séquences générées sont similaires à celles des domaines PDZ naturels, avec des scores de similarité et de reconnaissance de pli comparables au programme Rosetta, un outil de CPD très utilisé. Des séquences contenant environ 60 positions mutées sur 90, ont été testées par simulations de DM et des mesures biophysiques. Quatre des cinq séquences testées expérimentalement (par nos collaborateurs) montrent un dépliement réversible autour de 50°C. Proteus a également déterminer correctement la spécificité de la liaison de quelques variants protéiques et peptidiques. Pour étudier plus finement la spécificité, nous avons paramétré un modèle d'énergie libre semi-empirique de Poisson-Boltzmann ayant la forme d'une énergie linéaire d'interaction, ou PB/LIE, appliqué à des conformations issues de simulations de DM en solvant explicite de complexes PDZ:peptide. Avec trois paramètres ajustables, le modèle reproduit correctement les affinités expérimentales de 41 variants, avec une erreur moyenne absolue de 0,4~kcal/mol, et donne des prédictions pour 10 nouveaux variants. Le modèle PB/LIE a ensuite comparé à la méthode non-empirique de calcul d'énergie libre par simulations alchimiques, qui n'a pas de paramètre ajustable et qui prédit correctement l'affinité de 12 complexes Tiam1:peptide. Ces outils et les résultats obtenus devraient nous permettre d'identifier des peptides inhibiteurs et auront d'importantes retombées pour l'ingénierie des interactions PDZ:peptide
Small protein domains often direct protein-protein interactions and regulate eukaryotic signalling pathways. PDZ domains are among the most widespread and best-studied. They specifically recognize the 4-10 C-terminal amino acids of target proteins. Tiam1 is a Rac GTP exchange factor that helps control cellmigration and proliferation and whose PDZ domain binds the proteins syndecan-1 (Sdc1), Caspr4, and Neurexin. Short peptides and peptidomimetics can potentially inhibit or modulate its action and act as bioreagents or therapeutics. We used computational protein design (CPD) and molecular dynamics (MD) free energy simulations to understand and engineer its peptide specificity. CPD uses a structural model and an energy function to explore the space of sequences and structures and identify stable and functional protein or peptide variants. We used our in-house Proteus CPD package to completely redesign the Tiam1 PDZ domain. The designed sequences were similar to natural PDZ domains, with similarity and fold recognition scores comarable to the widely-used Rosetta CPD package. Selected sequences, containing around 60 mutated positions out of 90, were tested by microsecond MD simulations and biophysical experiments. Four of five sequences tested experimentally (by our collaborators) displayed reversible unfolding around 50°C. Proteus also accurately scored the binding specificity of several protein and peptide variants. As a more refined model for specificity, we parameterized a semi-empirical free energy model of the Poisson-Boltzmann Linear Interaction Energy or PB/LIE form, which scores conformations extracted from explicit solvent MD simulations of PDZ:peptide complexes. With three adjustable parameters, the model accurately reproduced the experimental binding affinities of 41 variants, with a mean unsigned error of just 0.4 kcal/mol, andgave predictions for 10 new variants. The PB/LIE model was tested further by comparing to non-empirical, alchemical, MD free energy simulations, which have no adjustable parameters and were found to give chemical accuracy for 12 Tiam1:peptide complexes. The tools and insights obtained should help discover new tight binding peptides or peptidomimetics and have broad implications for engineering PDZ:peptide interactions
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Pauwels, Edouard. "Applications de l'apprentissage statistique à la biologie computationnelle". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00958432.

Texto completo da fonte
Resumo:
Les biotechnologies sont arrivées au point ou la quantité d'information disponible permet de penser les objets biologiques comme des systèmes complexes. Dans ce contexte, les phénomènes qui émergent de ces systèmes sont intimement liés aux spécificités de leur organisation. Cela pose des problèmes computationnels et statistiques qui sont précisément l'objet d'étude de la communauté liée à l'apprentissage statistique. Cette thèse traite d'applications de méthodes d'apprentissage pour l'étude de phénomène biologique dans une perspective de système complexe. Ces méthodes sont appliquées dans le cadre de l'analyse d'interactions protéine-ligand et d'effets secondaires, du phenotypage de populations de cellules et du plan d'expérience pour des systèmes dynamiques non linéaires partiellement observés.D'importantes quantités de données sont désormais disponibles concernant les molécules mises sur le marché, tels que les profils d'interactions protéiques et d'effets secondaires. Cela pose le problème d'intégrer ces données et de trouver une forme de structure sous tendant ces observations à grandes échelles. Nous appliquons des méthodes récentes d'apprentissage non supervisé à l'analyse d'importants jeux de données sur des médicaments. Des exemples illustrent la pertinence de l'information extraite qui est ensuite validée dans un contexte de prédiction.Les variations de réponses à un traitement entre différents individus posent le problème de définir l'effet d'un stimulus à l'échelle d'une population d'individus. Par exemple, dans le contexte de la microscopie à haut débit, une population de cellules est exposée à différents stimuli. Les variations d'une cellule à l'autre rendent la comparaison de différents traitement non triviale. Un modèle génératif est proposé pour attaquer ce problème et ses propriétés sont étudiées sur la base de données expérimentales.A l'échelle moléculaire, des comportements complexes émergent de cascades d'interactions non linéaires entre différentes espèces moléculaires. Ces non linéarités engendrent des problèmes d'identifiabilité du système. Elles peuvent cependant être contournées par des plans expérimentaux spécifiques, un des champs de recherche de la biologie des systèmes. Une stratégie Bayésienne itérative de plan expérimental est proposée est des résultats numériques basés sur des simulations in silico d'un réseau biologique sont présentées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Jacob, Laurent. "A priori structurés pour l'apprentissage supervisé en biologie computationnelle". Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005743.

Texto completo da fonte
Resumo:
Les méthodes d'apprentissage supervisé sont utilisées pour construire des fonctions prédisant efficacement le comportement de nouvelles entités à partir de données observées. Elles sont de ce fait très utiles en biologie computationnelle, où elles permettent d'exploiter la quantité grandissante de données expérimentales disponible. Dans certains cas cependant, la quantité de données disponible n'est pas suffisante par rapport à la complexité du problème d'apprentissage. Heureusement ce type de problème mal posé n'est pas nouveau en statistiques. Une approche classique est d'utiliser des méthodes de régularisation ou de manière équivalente d'introduire un a priori sur la forme que la fonction devrait avoir. Dans cette thèse, nous proposons de nouvelles fonctions de régularisation basées sur la connaissance biologique de certains problèmes. Dans le contexte de la conception de vaccins ou de médicaments, nous montrons comment l'utilisation du fait que les cibles similaires lient des ligands similaires permet d'améliorer sensiblement les prédictions pour les cibles ayant peu ou n'ayant pas de ligands connus. Nous proposons également une fonction prenant en compte le fait que seuls certains groupes inconnus de cibles partagent leur comportement de liaison. Finalement, dans le cadre de la prédiction de métastase de tumeurs à partir de données d'expression, nous construisons une fonction de régularisation favorisant les estimateurs parcimonieux dont le support est une union de groupes de gènes potentiellement chevauchants définis a priori, ou un ensemble de gènes ayant tendance à être connectés sur un graphe défini a priori.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Zheng, Léon. "Frugalité en données et efficacité computationnelle dans l'apprentissage profond". Electronic Thesis or Diss., Lyon, École normale supérieure, 2024. http://www.theses.fr/2024ENSL0009.

Texto completo da fonte
Resumo:
Cette thèse s’intéresse à deux enjeux de frugalité et d’efficacité dans l’apprentissage profond moderne : frugalité en données et efficacité en ressources de calcul. Premièrement, nous étudions l’apprentissage auto-supervisé, une approche prometteuse en vision par ordinateur qui ne nécessite pas d’annotations des données pour l'apprentissage de représentations. En particulier, nous proposons d’unifier plusieurs fonctions objectives auto-supervisées dans un cadre de noyaux invariants par rotation, ce qui ouvre des perspectives en termes de réduction de coût de calcul de ces fonctions objectives. Deuxièmement, étant donné que l’opération prédominante des réseaux de neurones profonds est la multiplication matricielle, nous nous penchons sur la construction d’algorithmes rapides qui permettent d’effectuer la multiplication matrice-vecteur avec une complexité presque linéaire. Plus spécifiquement, nous étudions le problème de factorisation creuse de matrices sous contrainte de parcimonie "butterfly", une structure commune à plusieurs transformées rapides comme la transformée de Fourier discrète. La thèse établit des garanties théoriques sur l’algorithme de factorisation butterfly, et étudie le potentiel de la parcimonie butterfly pour la réduction du coût computationnel des réseaux de neurones lors de leur phase d’apprentissage ou d’inférence. Nous explorons notamment l’efficacité des implémentations GPU de la multiplication matricielle avec parcimonie butterfly, dans le but d’accélérer réellement des réseaux de neurones parcimonieux
This thesis focuses on two challenges of frugality and efficiency in modern deep learning: data frugality and computational resource efficiency. First, we study self-supervised learning, a promising approach in computer vision that does not require data annotations for learning representations. In particular, we propose a unification of several self-supervised objective functions under a framework based on rotation-invariant kernels, which opens up prospects to reduce the computational cost of these objective functions. Second, given that matrix multiplication is the predominant operation in deep neural networks, we focus on the construction of fast algorithms that allow matrix-vector multiplication with nearly linear complexity. More specifically, we examine the problem of sparse matrix factorization under the constraint of butterfly sparsity, a structure common to several fast transforms like the discrete Fourier transform. The thesis establishes new theoretical guarantees for butterfly factorization algorithms, and explores the potential of butterfly sparsity to reduce the computational costs of neural networks during their training or inference phase. In particular, we explore the efficiency of GPU implementations for butterfly sparse matrix multiplication, with the goal of truly accelerating sparse neural networks
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Sander, David. "Approche computationnelle des mécanismes émotionnels : test de l'hypothèse de polarité". Lyon 2, 2002. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2002/sander_d.

Texto completo da fonte
Resumo:
Qu'est-ce qui distingue le traitement d'un événement neutre de celui d'un événement émotionnel ? L'évaluation d'un événement émotionnel positif est-elle de nature différente de celle d'un événement négatif ? L'évaluation de la valeur émotionnelle d'un stimulus peut-elle s'effectuer de façon inconsciente ? Ces questions sont au coeur de la problématique traitée. La logique de la thèse était, tout d'abord, de se fonder sur l'émergence d'une "neuroscience cognitive des émotions" pour identifier les contraintes fonctionnelles, computationnelles et neuronales qui nous ont permis de proposer un modèle des mécanismes émotionnels. Deux hypothèses générées par le modèle ont ensuite été opérationnalisées. La première, l'hypothèse de polarité, propose que certains mécanismes émotionnels soient différentiellement sensibles aux événements positifs et négatifs. La seconde, l'hypothèse d'automaticité, propose que l'évaluation des stimuli émotionnels s'effectue dans un mode automatique. Ces hypothèses ontété testées en utilisant des paradigmes dans lesquels les participants évaluaient de façon explicite ou implicite des stimuli dont la polarité (positive vs négative) variait. Cinq expériences ont été conduites : une étude utilisant le paradigme de présentation en champ visuel divisé chez des participants sains, une étude d'imagerie par résonance magnétique fonctionnelle événementielle chez des participants sains, une étude impliquant un patient présentant une hyperfusion amygdalienne, une étude impliquant des patients ayant une lésion cérébrale focale identifiée, et une étude impliquant des patients schizophrènes. Les résultats expérimentaux sont en faveur (1) de la validation de l'hypothèse de pol arité à la fois lorsque l'évaluation est explicite et lorsqu'elle est implicite, (2) du fait que l'ensemble des mécanismes impliq́ué dans l'évaluation explicite n'est pas identique à celui impliqué dans l'évaluation implicite, (3) de la validation de l'hypothèse d'automaticité.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Sander, David Koenig Olivier. "Approche computationnelle des mécanismes émotionnels test de l'hypothèse de polarité /". Lyon : Université Lumière Lyon 2, 2002. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2002/sander_d.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Bérenger, François. "Nouveaux logiciels pour la biologie structurale computationnelle et la chémoinformatique". Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1047/document.

Texto completo da fonte
Resumo:
Ma thèse introduit cinq logiciels de trois différents domaines: le calcul parallèle et distribué, la biologie structurale computationnelle et la chémoinformatique. Le logiciel pour le calcul parallèle et distribué s'appelle PAR. PAR permet d'exécuter des expériences indépendantes de manière parallèle et distribuée. Les logiciels pour la biologie structurale computationnelle sont Durandal, EleKit et Fragger. Durandal exploite la propagation de contraintes géométriques afin d'accélérer l'algorithme de partitionnement exact pour des modèles de protéines. EleKit permet de mesurer la similarité électrostatique entre une petite molécule et la protéine qu'elle est conçue pour remplacer sur une interface protéine-protéine. Fragger est un cueilleur de fragments de protéines permettant de sélectionner des fragments dans la banque de protéines mondiale. Enfin, le logiciel de chémoinformatique est ACPC. ACPC permet l'encodage fin, d'une manière rotation-translation invariante, d'une molécule dans un ou une combinaison des trois espaces chimiques (électrostatique, stérique ou hydrophobe). ACPC est un outil de criblage virtuel qui supporte les requêtes consensus, l'annotation de la molécule requête et les processeurs multi-coeurs
This thesis introduces five software useful in three different areas : parallel and distributed computing, computational structural biology and chemoinformatics. The software from the parallel and distributed area is PAR. PAR allows to execute independent experiments in a parallel and distributed way. The software for computational structural biology are Durandal, EleKit and Fragger. Durandal exploits the propagation of geometric constraints to accelerate the exact clustering algorithm for protein models. EleKit allows to measure the electrostatic similarity between a chemical molecule and the protein it is designed to replace at a protein-protein interface. Fragger is a fragment picker able to select protein fragments in the whole protein data-bank. Finally, the chemoinformatics software is ACPC. ACPC encodes in a rotation-translation invariant way a chemical molecule in any or a combination of three chemical spaces (electrostatic, steric or hydrophobic). ACPC is a ligand-based virtual screening tool supporting consensus queries, query molecule annotation and multi-core computers
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Pizzolato, Marco. "IRM computationnelle de diffusion et de perfusion en imagerie cérébrale". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4017/document.

Texto completo da fonte
Resumo:
Les techniques d'imagerie par résonance magnétique de Diffusion (IRMd) et de Perfusion (IRMp) permettent la détection de divers aspects importants et complémentaires en imagerie cérébrale. Le travail effectué dans cette thèse présente des contributions théoriques et méthodologiques sur les modalités d'IRM basées sur des images pondérées en diffusion, et sur des images de perfusion par injection de produit de contraste. Pour chacune des deux modalités, les contributions de la thèse sont liées au développement de nouvelles méthodes pour améliorer la qualité, le traitement et l'exploitation des signaux acquis. En IRM de diffusion, la nature complexe du signal est étudiée avec un accent sur l'information de phase. Le signal complexe est ensuite exploité pour corriger le biais induit par le bruit d'acquisition des images, améliorant ainsi l'estimation de certaines métriques structurelles. En IRM de perfusion, le traitement du signal est revisité afin de tenir compte du biais dû à la dispersion du bolus. On montre comment ce phénomène, qui peut empêcher la correcte estimation des métriques de perfusion, peut aussi donner des informations importantes sur l'état pathologique du tissu cérébral. Les contributions apportées dans cette thèse sont présentées dans un cadre théorique et méthodologique validé sur de nombreuses données synthétiques et réelles
Diffusion and Perfusion Magnetic Resonance Imaging (dMRI & pMRI) represent two modalities that allow sensing important and different but complementary aspects of brain imaging. This thesis presents a theoretical and methodological investigation on the MRI modalities based on diffusion-weighted (DW) and dynamic susceptibility contrast (DSC) images. For both modalities, the contributions of the thesis are related to the development of new methods to improve and better exploit the quality of the obtained signals. With respect to contributions in diffusion MRI, the nature of the complex DW signal is investigated to explore a new potential contrast related to tissue microstructure. In addition, the complex signal is exploited to correct a bias induced by acquisition noise of DW images, thus improving the estimation of structural scalar metrics. With respect to contributions in perfusion MRI, the DSC signal processing is revisited in order to account for the bias due to bolus dispersion. This phenomenon prevents the correct estimation of perfusion metrics but, at the same time, can give important insights about the pathological condition of the brain tissue. The contributions of the thesis are presented within a theoretical and methodological framework, validated on both synthetical and real images
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Magnaudet, Mathieu Stéphane. "Le défi anti-représentationnaliste : dynamicisme et théorie computationnelle de l'esprit". Bordeaux 2, 2006. http://www.theses.fr/2006BOR21314.

Texto completo da fonte
Resumo:
Composante clé des sciences cognitives contemporaines, l'hypothèse représentationnelle, entendue au sens de la reconnaissance de la pertinence explicative d'un certain concept de représentation mentale, demeure un objet de débat passionné. Au cours des années 80, le courant connexionniste avait déjà pris pour cible la version fodorienne du représentationnalisme. Les nouvelles approches dites dynamiques de la cognition proposent cependant une critique plus radicale et se présentent volontiers comme un anti-représentationnalisme cognitif. L'ambition de ce travail est donc double. Il s'agit d'une part de procéder à l'analyse minutieuse des concepts de jeu, afin de mieux dessiner les lignes de fracture d'un débat souvent confus. Et il s'agit d'autre part d'examiner la possibilité d'une théorie dynamique et non représentationnelle des phénomènes cognitifs. La première partie est consacrée à la clarification du concept de système computationnel, ainsi qu'à l'étude de l'articulation entre hypothèse computationnelle et hypothèse représentationnelle. Nous explicitons également les principales raisons théoriques et empiriques qui militent en faveur du recours à la propriété de représentation mentale. La deuxième partie est consacrée à l'étude des approches dynamiques de la cognition, leurs fondements théoriques et leurs critiques du représentationnalisme cognitif. Nous y mettons notamment en lumière les faiblesses de l'hypothèse dynamique en tant que principe fondateur d'une théorie des phénomènes cognitifs. La troisième partie est enfin dédiée à l'étude d'un courant particulier de l'intelligence artificielle : l'approche animat ou intelligence artificielle située. C'est là en effet, dans une instanciation particulière de l'hypothèse dynamique de l'incarnation, que nous avons trouvé l'expression la plus radicale d'un anti-représentationnalisme cognitif. Nous essayons d'en montrer la pertinence et les limites.
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Chateau-Laurent, Hugo. "Modélisation Computationnelle des Interactions Entre Mémoire Épisodique et Contrôle Cognitif". Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0019.

Texto completo da fonte
Resumo:
La mémoire épisodique est souvent illustrée par la madeleine de Proust comme la capacité à revivre une situation du passé suite à la perception d'un stimulus. Ce scénario simpliste ne doit pas mener à penser que la mémoire opère en isolation des autres fonctions cognitives. Au contraire, la mémoire traite des informations hautement transformées et est elle-même modulée par les fonctions exécutives pour informer la prise de décision. Ces interactions complexes donnent lieu à des fonctions cognitives supérieures comme la capacité à imaginer de futures séquences d'événements potentielles en combinant des souvenirs pertinents dans le contexte. Comment le cerveau implémente ce système de construction reste un mystère. L'objectif de cette thèse est donc d'employer des méthodes de modélisation cognitive afin de mieux comprendre les interactions entre mémoire épisodique reposant principalement sur l'hippocampe et contrôle cognitif impliquant majoritairement le cortex préfrontal. Elle propose d'abord des éléments de réponse quant au rôle de la mémoire épisodique dans la sélection de l'action. Il est montré que le Contrôle Episodique Neuronal, une méthode puissante et rapide d’apprentissage par renforcement, est en fait mathématiquement proche du traditionnel réseau de Hopfield, un modèle de mémoire associative ayant grandement influencé la compréhension de l'hippocampe. Le Contrôle Episodique Neuronal peut en effet s'inscrire dans le cadre du réseau de Hopfield universel, il est donc montré qu’il peut être utilisé pour stocker et rappeler de l'information et que d'autres types de réseaux de Hopfield peuvent être utilisés pour l'apprentissage par renforcement. La question de comment les fonctions exécutives contrôlent la mémoire épisodique est aussi posée. Un réseau inspiré de l'hippocampe est créé avec le moins d'hypothèses possible et modulé avec de l'information contextuelle. L'évaluation des performances selon le niveau auquel le contexte est envoyé propose des principes de conception de mémoire épisodique contrôlée. Enfin, un nouveau modèle bio-inspiré de l'apprentissage en un coup de séquences dans l'hippocampe est proposé. Le modèle fonctionne bien avec plusieurs jeux de données tout en reproduisant des observations biologiques. Il attribue un nouveau rôle aux connexions récurrentes de la région CA3 et à l'expansion asymétrique des champs de lieu qui est de distinguer les séquences se chevauchant en faisant émerger des cellules de séparation rétrospective. Les implications pour les théories de l'hippocampe sont discutées et de nouvelles prédictions expérimentales sont dérivées
Episodic memory is often illustrated with the madeleine de Proust excerpt as the ability to re-experience a situation from the past following the perception of a stimulus. This simplistic scenario should not lead into thinking that memory works in isolation from other cognitive functions. On the contrary, memory operations treat highly processed information and are themselves modulated by executive functions in order to inform decision making. This complex interplay can give rise to higher-level functions such as the ability to imagine potential future sequences of events by combining contextually relevant memories. How the brain implements this construction system is still largely a mystery. The objective of this thesis is to employ cognitive computational modeling methods to better understand the interactions between episodic memory, which is supported by the hippocampus, and cognitive control, which mainly involves the prefrontal cortex. It provides elements as to how episodic memory can help an agent to act. It is shown that Neural Episodic Control, a fast and powerful method for reinforcement learning, is in fact mathematically close to the traditional Hopfield Network, a model of associative memory that has greatly influenced the understanding of the hippocampus. Neural Episodic Control indeed fits within the Universal Hopfield Network framework, and it is demonstrated that it can be used to store and recall information, and that other kinds of Hopfield networks can be used for reinforcement learning. The question of how executive functions can control episodic memory operations is also tackled. A hippocampus-inspired network is constructed with as little assumption as possible and modulated with contextual information. The evaluation of performance according to the level at which contextual information is sent provides design principles for controlled episodic memory. Finally, a new biologically inspired model of one-shot sequence learning in the hippocampus is proposed. The model performs very well on multiple datasets while reproducing biological observations. It ascribes a new role to the recurrent collaterals of area CA3 and the asymmetric expansion of place fields, that is to disambiguate overlapping sequences by making retrospective splitter cells emerge. Implications for theories of the hippocampus are discussed and novel experimental predictions are derived
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Lopez, orozco Francisco. "Modélisation cognitive computationnelle de la recherche d'information utilisant des données oculomotrices". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00910178.

Texto completo da fonte
Resumo:
Cette thèse en informatique présente un travail de modélisation cognitive computationnelle, à partir de données de mouvements oculaires lors de tâches de recherche d'information dans des textes. Nous nous intéressons à cette situation quotidienne de recherche d'informations dans un journal ou une page web, dans laquelle il faut juger si un texte est sémantiquement relié ou non à un but, exprimé par quelques mots. Parce que le temps est souvent une contrainte, les textes ne sont souvent pas entièrement lus avant qu'intervienne la décision. Plus précisément, nous avons analysé les mouvements des yeux dans deux tâches de recherche d'information consistant à lire un paragraphe et à décider rapidement i) s'il est associé à un but donné et ii) s'il est plus associé à un but donné qu'un autre paragraphe traité auparavant. Un modèle est proposé pour chacune de ces situations. Nos simulations sont réalisées au niveau des fixations et des saccades oculaires. En particulier, nous prédisons le moment auquel les participants décident d'abandonner la lecture du paragraphe parce qu'ils ont suffisamment d'information pour prendre leur décision. Les modèles font ces prédictions par rapport aux mots qui sont susceptibles d'être traités avant que le paragraphe soit abandonné. Les jugements d'association sémantiques humains sont reproduits par le calcul des similarités sémantiques entre mots produits par l'analyse de la sémantique latente (LSA, Landauer et al., 2007). Nous avons suivi une approche statistique paramétrique dans la construction de nos modèles. Ils sont basés sur un classifieur bayésien. Nous proposons un seuil linéaire bi-dimensionnel pour rendre compte de la décision d'arrêter de lire un paragraphe, utilisant le Rang de la fixation et i) la similarité sémantique (Cos) entre le paragraphe et le but ainsi que ii) la différence de similarité sémantique (Gap) entre chaque paragraphe et le but. Pour chacun des modèles, les performances montrent que nous sommes capables de reproduire en moyenne le comportement des participants face aux tâches de recherche d'information étudiées durant cette thèse. Cette thèse comprend deux parties principales : 1) la conception et la passation d'expériences psychophysiques pour acquérir des données de mouvements oculaires et 2) le développement et le test de modèles cognitifs computationnels.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Mancheva, Lyuba. "Modélisation cognitive computationnelle de la lecture de textes chez les enfants". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS045/document.

Texto completo da fonte
Resumo:
L'apprentissage de la lecture nécessite notamment d'acquérir une coordination fine des mouvements des yeux, de l’attention et des traitements lexicaux afin de permettre une lecture fluide et efficace. Contrairement à ce que nous ressentons, le comportement des yeux est très complexe et dépend de plusieurs facteurs liés aux propriétés du langage, aux connaissances lexicales, à l’expertise en lecture de l’individu et à la nature de la tâche. L’étude des différences interindividuelles entre les experts, les bons et les faibles lecteurs peut nous aider à mieux comprendre les processus sous – jacents de la lecture.Le contrôle fin des mouvements des yeux peut être étudié en recourant à des analyses statistiques ou à des modèles computationnels qui simulent les processus de la lecture et reproduisent des mouvements oculaires, spatialement et temporellement. Dans ces travaux de thèse, nous avons utilisé les analyses statistiques et la modélisation computationnelle pour comprendre pourquoi nous observons des différences dans les comportements en lecture entre différents groupes d’âge (adultes vs enfants) et au sein du même groupe d’âge (faibles vs bons lecteurs). Ainsi, les changements observés entre ces différents groupes peuvent être expliqués par des différences dues à l’effet du développement du contrôle oculomoteur et/ou des compétences en lecture. Une question fondamentale est la compréhension de la cause et de l’effet de ces changements au niveau des mouvements des yeux.Ainsi, les questions cruciales auxquelles nous tenterons de répondre sont les suivantes: quelles sont les différences au niveau des comportements oculomoteurs entre les différents groupes d’âge des lecteurs (adultes vs enfants) ? Pourquoi observons- nous ces différences ? Pour un public ciblé d’enfants, quelles sont les caractéristiques des comportements oculaires sur les mots, en termes de fixations, de saccades ? Comment en rendre compte dans une démarche de modélisation des processus oculomoteurs de la lecture ?
Learning to read requires the coordination of eye movements, attention, as well as lexical processing in order to achieve smooth reading. Contrary to what we perceive, the behavior of our eyes is very complex and depends on several factors linked to the properties of the language, the lexical knowledge, the reading skills and the goal of the task. The study of interindividual differences could help us to better understand the reading processes.The eye movement control during reading could be analyzed with statistical methods and with computational models which can simulate the reading processes spatially and temporally. In this work, we used both methods in order to better understand why we observe differences in the reading patterns between different groups of readers of different ages (adults vs children) and of the same age (poor and good readers). The observed changes between different groups could be explained by differences in the oculomotor development and/or by differences in lexical knowledge. One fundamental question is to understand the causes of these changes at the level of eye movement control.The crucial questions that we tried to investigate in this work are the following: what are the differences in terms of eye movements between different groups of reading age? Why do we observe these differences? What are the patterns of eye movements for different groups of poor and good readers of the same age? How can we simulate the observed patterns with computational modeling of reading?
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Lopez, Orozco Francisco. "Modélisation cognitive computationnelle de la recherche d'information utilisant des données oculomotrices". Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENS013/document.

Texto completo da fonte
Resumo:
Cette thèse en informatique présente un travail de modélisation cognitive computationnelle, à partir de données de mouvements oculaires lors de tâches de recherche d'information dans des textes. Nous nous intéressons à cette situation quotidienne de recherche d'informations dans un journal ou une page web, dans laquelle il faut juger si un texte est sémantiquement relié ou non à un but, exprimé par quelques mots. Parce que le temps est souvent une contrainte, les textes ne sont souvent pas entièrement lus avant qu'intervienne la décision. Plus précisément, nous avons analysé les mouvements des yeux dans deux tâches de recherche d'information consistant à lire un paragraphe et à décider rapidement i) s'il est associé à un but donné et ii) s'il est plus associé à un but donné qu'un autre paragraphe traité auparavant. Un modèle est proposé pour chacune de ces situations. Nos simulations sont réalisées au niveau des fixations et des saccades oculaires. En particulier, nous prédisons le moment auquel les participants décident d'abandonner la lecture du paragraphe parce qu'ils ont suffisamment d'information pour prendre leur décision. Les modèles font ces prédictions par rapport aux mots qui sont susceptibles d'être traités avant que le paragraphe soit abandonné. Les jugements d'association sémantiques humains sont reproduits par le calcul des similarités sémantiques entre mots produits par l'analyse de la sémantique latente (LSA, Landauer et al., 2007). Nous avons suivi une approche statistique paramétrique dans la construction de nos modèles. Ils sont basés sur un classifieur bayésien. Nous proposons un seuil linéaire bi-dimensionnel pour rendre compte de la décision d'arrêter de lire un paragraphe, utilisant le Rang de la fixation et i) la similarité sémantique (Cos) entre le paragraphe et le but ainsi que ii) la différence de similarité sémantique (Gap) entre chaque paragraphe et le but. Pour chacun des modèles, les performances montrent que nous sommes capables de reproduire en moyenne le comportement des participants face aux tâches de recherche d'information étudiées durant cette thèse. Cette thèse comprend deux parties principales : 1) la conception et la passation d'expériences psychophysiques pour acquérir des données de mouvements oculaires et 2) le développement et le test de modèles cognitifs computationnels
This computer science thesis presents a computational cognitive modeling work using eye movements of people faced to different information search tasks on textual material. We studied situations of everyday life when people are seeking information on a newspaper or a web page. People should judge whether a piece of text is semantically related or not to a goal expressed by a few words. Because quite often time is a constraint, texts may not be entirely processed before the decision occurs. More specifically, we analyzed eye movements during two information search tasks: reading a paragraph with the task of quickly deciding i) if it is related or not to a given goal and ii) whether it is better related to a given goal than another paragraph processed previously. One model is proposed for each of these situations. Our simulations are done at the level of eye fixations and saccades. In particular, we predicted the time at which participants would decide to stop reading a paragraph because they have enough information to make their decision. The models make predictions at the level of words that are likely to be fixated before a paragraph is abandoned. Human semantic judgments are mimicked by computing the semantic similarities between sets of words using Latent Semantic Analysis (LSA) (Landauer et al., 2007). We followed a statistical parametric approach in the construction of our models. The models are based on a Bayesian classifier. We proposed a two-variable linear threshold to account for the decision to stop reading a paragraph, based on the Rank of the fixation and i) the semantic similarity (Cos) between the paragraph and the goal and ii) the difference of semantic similarities (Gap) between each paragraph and the goal. For both models, the performance results showed that we are able to replicate in average people's behavior faced to the information search tasks studied along the thesis. The thesis includes two main parts: 1) designing and carrying out psychophysical experiments in order to acquire eye movement data and 2) developing and testing the computational cognitive models
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Filipis, Luiza. "Etude optique et computationnelle de la fonction des canaux ioniques neuronaux". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAY078.

Texto completo da fonte
Resumo:
La physiologie des canaux ioniques est un sujet d’intérêt majeur dans les neurosciences modernes puisque le fonctionnement de ces molécules est la base biophysique du comportement électrique et chimique des neurones. Les canaux ioniques sont des protéines membranaires diverses qui permettent le passage sélectif des ions à travers la couche lipidique des cellules. Ils sont impliqués dans une variété de processus physiologiques fondamentaux, à partir de l’intégration des signaux électriques, la génération et la propagation de potentiel d’action jusqu’à la croissance cellulaire et même à l’apoptose, tandis que leur dysfonctionnement est la cause de plusieurs maladies. Les canaux ioniques ont été largement étudiés à l’aide de méthodes basés sur les électrodes, en particulier la technique du patch-clamp, mais ces approches sont limitées pour étudier les canaux natifs pendant l’activité physiologique in situ. En particulier, les électrodes fournissent des informations spatiales limitées alors qu’il est reconnu que la contribution des canaux dans tous les différents processus est fonction non seulement de leurs propriétés biophysiques discrètes, mais aussi de leur distribution dans la surface des neurones et des différents compartiments. Les techniques optiques, en particulier celles impliquant l’imagerie par fluorescence, peuvent surmonter les limites intrinsèques des techniques d’électrode car elles permettent d’enregistrer des signaux électriques et ioniques avec une résolution spatiale et temporelle élevée. Enfin, la capacité des techniques optiques combinées à la modélisation neuronale peut potentiellement fournir des informations essentielles permettant de mieux comprendre le fonctionnement des neurones. L’objectif ambitieux de ma thèse était de progresser dans cette direction en développant de nouvelles approches pour combiner des techniques d’imagerie de pointe avec la modélisation pour extraire les courants ioniques et la cinétique des canaux dans des régions neuronales spécifiques. Le corps de ce travail a été divisé en trois morceaux méthodologiques, chacun d’eux décrit dans un chapitre dédié
The physiology of ion channels is a major topic of interest in modern neuroscience since the functioning of these molecules is the biophysical ground of electrical and chemical behaviour of neurons. Ion channels are diverse membrane proteins that allow the selective passage of ions across the lipid bilayer of cells. They are involved in a variety of fundamental physiological processes from electrical signal integration, action potential generation and propagation to cell growth and even apoptosis, while their dysfunction is the cause of several diseases. Ion channels have extensively studied using electrode methods, in particular the patch-clamp technique, but these approaches are limited in studying native channels during physiological activity in situ. In particular, electrodes give limited spatial information while it is recognised that the contribution of channels in all different processes is a function not only of their discrete biophysical properties but also of their distribution across the neurons surface at the different compartments. Optical techniques, in particular those involving fluorescence imaging, can overcome intrinsic limitations of electrode techniques as they allow to record electrical and ionic signals with high spatial and temporal resolution. Finally, the ability of optical techniques combined with neuronal modelling can potentially give pivotal information significantly advancing our understanding on how neurons work.The ambitious goal of my thesis was to progress in this direction by developing novel approaches to combine cutting-edge imaging techniques with modelling to extract ion currents and channel kinetics in specific neuronal regions. The body of this work was divided in three methodological pieces, each of them described in a dedicated chapter
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Lartillot-Nakamura, Olivier. "Fondements d'un système d'analyse musicale computationnelle suivant une modélisation cognitiviste de l'écoute". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00006909.

Texto completo da fonte
Resumo:
Cette thèse développe une méthode informatique de recherche automatique de motifs musicaux, qui consiste en une détection de répétitions de successions d'identités, exprimées suivant une variétés de paramètres musicaux. Sur la séquence de notes se construit un réseau de motifs, subsumés à des classes motiviques, lesquelles forment une structure arborescente. Au sein de ces deux réseaux peuvent être tissées des relations de spécificité, qui rendent compte en particulier des inclusions entre motifs, et qui permettent une minimisation des deux réseaux, par annihilation des structures directement déductibles d'autres structures plus détaillées. Cette minimisation permet de remplacer la notion de segmentation musicale au profit du concept de groupement optimal superposable. Un mécanisme de rebouclage des classes permet une maîtrise de la combinatoire des structures répétées. La démarche informatique rend ainsi possible une explicitation et une radicalisation des procédures de découverte.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Da, Sylva Lyne. "Interprétation linguistique et computationnelle des valeurs par défaut dans le domaine syntaxique". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape9/PQDD_0001/NQ39734.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Roussel, Julien. "Analyse théorique et numérique de dynamiques non-réversibles en physique statistique computationnelle". Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1115/document.

Texto completo da fonte
Resumo:
Cette thèse traite de quatre sujets en rapport avec les dynamiques non-réversibles. Chacun fait l'objet d'un chapitre qui peut être lu indépendamment.Le premier chapitre est une introduction générale présentant les problématiques et quelques résultats majeurs de physique statistique computationnelle.Le second chapitre concerne la résolution numérique d'équations aux dérivées partielles hypoelliptiques, c'est-à-dire faisant intervenir un opérateur différentiel inversible mais non coercif. Nous prouvons la consistance de la méthode de Galerkin ainsi que des taux de convergence pour l'erreur. L'analyse est également conduite dans le cas d'une formulation point-selle, qui s'avère être la plus adaptée dans les cas qui nous intéressent. Nous démontrons que nos hypothèses sont satisfaites dans un cas simple et vérifions numériquement nos prédictions théoriques sur cet exemple.Dans le troisième chapitre nous proposons une stratégie générale permettant de construire des variables de contrôle pour des dynamiques hors-équilibre. Cette méthode permet en particulier de réduire la variance des estimateurs de coefficient de transport par moyenne ergodique. Cette réduction de variance est quantifiée dans un régime perturbatif. La variable de contrôle repose sur la solution d'une équation aux dérivées partielles. Dans le cas de l'équation de Langevin cette équation est hypoelliptique, ce qui motive le chapitre précédent. La méthode proposée est testée numériquement sur trois exemples.Le quatrième chapitre est connecté au troisième puisqu'il utilise la même idée de variable de contrôle. Il s'agit d'estimer la mobilité d'une particule dans le régime sous-amorti, où la dynamique est proche d'être Hamiltonienne. Ce travail a été effectué en collaboration avec G. Pavliotis durant un séjour à l'Imperial College London.Le dernier chapitre traite des processus de Markov déterministes par morceaux, qui permettent l'échantillonnage de mesure en grande dimension. Nous prouvons la convergence exponentielle vers l'équilibre de plusieurs dynamiques de ce type sous un formalisme général incluant le processus de Zig-Zag (ZZP), l'échantillonneur à particule rebondissante (BPS) et la dynamique de Monte Carlo hybride randomisée (RHMC). La dépendances des bornes sur le taux de convergence que nous démontrons sont explicites par rapport aux paramètres du problème. Cela permet en particulier de contrôler la taille des intervalles de confiance pour des moyennes empiriques lorsque la dimension de l'espace des phases sous-jacent est grande. Ce travail a été fait en collaboration avec C. Andrieu, A. Durmus et N. Nüsken
This thesis deals with four topics related to non-reversible dynamics. Each is the subject of a chapter which can be read independently. The first chapter is a general introduction presenting the problematics and some major results of computational statistical physics. The second chapter concerns the numerical resolution of hypoelliptic partial differential equations, i.e. involving an invertible but non-coercive differential operator. We prove the consistency of the Galerkin method as well as convergence rates for the error. The analysis is also carried out in the case of a saddle-point formulation, which is the most appropriate in the cases of interest to us. We demonstrate that our assumptions are met in a simple case and numerically check our theoretical predictions on this example. In the third chapter we propose a general strategy for constructing control variates for nonequilibrium dynamics. In particular, this method reduces the variance of transport coefficient estimators by ergodic mean. This variance reduction is quantified in a perturbative regime. The control variate is based on the solution of a partial differential equation. In the case of Langevin's equation this equation is hypoelliptic, which motivates the previous chapter. The proposed method is tested numerically on three examples. The fourth chapter is connected to the third since it uses the same idea of a control variate. The aim is to estimate the mobility of a particle in the underdamped regime, where the dynamics are close to being Hamiltonian. This work was done in collaboration with G. Pavliotis during a stay at Imperial College London. The last chapter deals with Piecewise Deterministic Markov Processes, which allow measure sampling in high-dimension. We prove the exponential convergence towards the equilibrium of several dynamics of this type under a general formalism including the Zig-Zag process (ZZP), the Bouncy Particle Sampler (BPS) and the Randomized Hybrid Monte Carlo (RHMC). The dependencies of the bounds on the convergence rate that we demonstrate are explicit with respect to the parameters of the problem. This allows in particular to control the size of the confidence intervals for empirical averages when the size of the underlying phase space is large. This work was done in collaboration with C. Andrieu, A. Durmus and N. Nüsken
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Tondo, Yoya Ariel Christopher. "Imagerie computationnelle active et passive à l’aide d’une cavité chaotique micro-ondes". Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S130/document.

Texto completo da fonte
Resumo:
Les travaux présentés dans cette thèse portent sur l’imagerie computationnelle active et passive en micro-ondes. L’utilisation d’une cavité chaotique comme composants compressif est étudiée tant théoriquement (modèle mathématique, résolution algorithmique du problème inverse) et expérimentalement. L’idée sous-jacente est de remplacer un réseau d’antennes par une unique cavité réverbérante dont un réseau d’ouvertures sur la face avant permet de coder l’information spatiale d’une scène dans la réponse temporelle de la cavité. La réverbération des ondes électromagnétique à l’intérieur de la cavité fournit les degrés de liberté nécessaires à la reconstruction d’une image de la scène. Ainsi il est possible de réaliser en temps réel une image haute-résolution d’une scène à partir d’une unique réponse impulsionnelle. Les applications concernent la sécurité ou l’imagerie à travers les murs. Dans ce travail, la conception et la caractérisation d’une cavité chaotique ouverte sont effectuées. L’utilisation de ce dispositif pour réaliser en actif des images de cibles de diverses formes est démontrée. Le nombre de degrés de liberté est ensuite amélioré en modifiant les conditions aux limites grâce à l’ajout lampes fluorescentes. L’interaction des ondes avec ces éléments plasma permet de créer de nouvelles configurations de la cavité, améliorant ainsi la résolution des images. L’imagerie compressive est ensuite appliquée à la détection et localisation passive du rayonnement thermique naturel de sources de bruit, à partir de la corrélation des signaux reçus sur deux voies. Enfin, une méthode novatrice d’imagerie interférométrique de cibles est présentée. Elle est basée sur la reconstruction de la réponse impulsionnelle entre deux antennes à partir du bruit thermique micro-ondes émis par un réseau de néons. Ces travaux constituent une avancée vers les systèmes d’imagerie futurs
The broad topic of the presented Ph.D focuses on active and passive microwave computational imaging. The use of a chaotic cavity as a compressive component is studied both theoretically (mathematical model, algorithmic resolution of the inverse problem) and experimentally. The underlying idea is to replace an array of antennas with a single reverberant cavity with an array of openings on the front panel that encodes the spatial information of a scene in the temporal response of the cavity. The reverberation of electromagnetic waves inside the cavity provides the degrees of freedom necessary to reconstruct an image of the scene. Thus it is possible to create a high-resolution image of a scene in real time from a single impulse response. Applications include security or imaging through walls. In this work, the design and characterization of an open chaotic cavity is performed. Using this device, active computational imaging is demonstrated to produce images of targets of various shapes. The number of degrees of freedom is further improved by changing the boundary conditions with the addition of commercial fluorescent lamps. The interaction of the waves with these plasma elements allows new cavity configurations to be created, thus improving image resolution. Compressive imaging is next applied to the passive detection and localization of natural thermal radiation from noise sources, based on the correlation of signals received over two channels. Finally, an innovative method of interferometric target imaging is presented. It is based on the reconstruction of the impulse response between two antennas from the microwave thermal noise emitted by a network of neon lamps. This work constitutes a step towards for future imaging systems
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Chanceaux, Myriam. "Modélisation cognitive computationnelle de trajets oculomoteurs lors d'une tâche de recherche d'information". Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10232.

Texto completo da fonte
Resumo:
Ce travail de thèse étudie la combinaison des processus visuels et sémantiques dans le traitement d'interfaces textuelles, comme des pages web. La méthodologie employée est la simulation de modèles cognitifs, une approche visant à concevoir un programme informatique s'inspirant de modèles cognitifs théoriques et reproduisant au mieux le comportement humain. Notre modèle simule les trajets oculomoteurs d'un utilisateur moyen lors d'une recherche d'information. Les processus mis en jeu dans ce type de tâche sont modélisés afin de reproduire les mouvements oculaires humains enregistrés lors de différentes expérimentations. Aux modèles des processus visuels et sémantiques est ajouté un modèle des processus mnésiques sous-jacents à la recherche d'information. Pour la partie visuelle, le modèle s'inspire des cartes de saillance qui prédisent les zones de l'écran susceptibles d'attirer l'attention, en fonction des informations à bas niveau (couleur, orientation et contraste), ainsi que des propriétés physiologiques de l'œil humain. Pour la partie sémantique, la technique de mesure de similarités sémantiques entre le but de l'utilisateur et les différentes parties de la page employée est LSA (Latent Semantic Analysis) (Landauer, 1998). Pour la partie mnésique, le mécanisme d'Inhibition of Return (Klein, 1999) et le Variable Memory Model (Horowitz, 2006) sont utilisés. Le travail de thèse intègre trois parties: conception d'un modèle théorique d'interaction, conception de l'outil de simulation, et mise en place d'expérimentations psychophysiques de relevés oculométriques permettant de valider et d'affiner le modèle proposé
This thesis examines the combination of visual and semantic processes in information seeking task on textual interfaces such as web pages. The methodology used is the simulation of cognitive models. This approach aims to design a program based on theoretical cognitive models replicating human behaviour. Our model simulates the oculomotor scan path of an average user searching for information. The processes involved in this kind of tasks are modelled to replicate human eye movements recorded during different experiments. Models of visual and semantics processes are added to a model of memory processes inherent in information retrieval task. For the visual part, we go by saliency maps which predict areas in the display attracting attention, according to low level information (color, orientation and contrast), and the physiological properties of human vision. For the semantic part, the method used to measure semantic similarities between the search goal of the user and the different parts of the page is LSA (Latent Semantic Analysis) (Landauer, 1998). For the memory part the mechanism of inhibition of return (Klein, 1999) and the Variable Memory Model (Horowitz, 2006) are used. The thesis includes three parts: designing a theoretical model of interaction, designing a simulation tool, and developing psychophysical experiments with eye-tracking techniques to validate and refine the proposed model
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Chanceaux, Myriam. "Modélisation cognitive computationnelle de trajets oculomoteurs lors d'une tâche de recherche d'information". Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00430624.

Texto completo da fonte
Resumo:
Ce travail de thèse étudie la combinaison des processus visuels et sémantiques dans le traitement d'interfaces textuelles, comme des pages web. La méthodologie employée est la simulation de modèles cognitifs, une approche visant à concevoir un programme informatique s'inspirant de modèles cognitifs théoriques et reproduisant au mieux le comportement humain. Notre modèle simule les trajets oculomoteurs d'un utilisateur moyen lors d'une recherche d'information. Les processus mis en jeu dans ce type de tâche sont modélisés afin de reproduire les mouvements oculaires humains enregistrés lors de différentes expérimentations. Aux modèles des processus visuels et sémantiques est ajouté un modèle des processus mnésiques sous-jacents à la recherche d'information. Pour la partie visuelle, le modèle s'inspire des cartes de saillance qui prédisent les zones de l'écran susceptibles d'attirer l'attention, en fonction des informations à bas niveau (couleur, orientation et contraste), ainsi que des propriétés physiologiques de l'œil humain. Pour la partie sémantique, la technique de mesure de similarités sémantiques entre le but de l'utilisateur et les différentes parties de la page employée est LSA (Latent Semantic Analysis) (Landauer, 1998). Pour la partie mnésique, le mécanisme d'Inhibition of Return (Klein, 1999) et le Variable Memory Model (Horowitz, 2006) sont utilisés. Le travail de thèse intègre trois parties: conception d'un modèle théorique d'interaction, conception de l'outil de simulation, et mise en place d'expérimentations psychophysiques de relevés oculométriques permettant de valider et d'affiner le modèle proposé.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Collins, Anne. "Apprentissage et contrôle cognitif : une théorie computationnelle de la fonction exécutive préfontale humaine". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00814840.

Texto completo da fonte
Resumo:
Le contrôle cognitif est la capacité à réagir à des stimuli de manière adaptée au contexte présent ou aux indices passés, en tenant compte de nos buts internes. Le contrôle cognitif et l'apprentissage entretiennent des liens profonds et réciproques. D'un côté, le contrôle cognitif requiert que nous ayons appris un répertoire de comportements ainsi que leur valeur dans différentes conditions, afin de les utiliser à bon escient. D'un autre côté, l'apprentissage d'un répertoire de comportements nécessite du contrôle cognitif, notamment pour réguler l'équilibre entre exploration et exploitation, mais également pour généraliser, décider d'un switch, induire une structure dans un problème, etc.. . . Le contrôle cognitif et l'apprentissage sont donc indissociablement liés dans la flexibilité qui carac- térise la fonction exécutive préfrontale humaine. Cependant, ce lien est actuellement mal compris et peu de travaux de psychologie ou neurosciences cognitives intègrent ces deux aspects. De même, les modèles computationnels d'apprentissage ou de décision existants ne rendent pas compte de leur interaction. Dans ce travail de thèse, nous proposons une théorie mathématique reposant sur des mécanismes d'apprentissage par renforcement et d'inférence bayésienne, qui intègre l'apprentissage de répertoires de comportements (task-sets) dans un milieu incertain et le contrôle cognitif (task-switching) en présence ou en l'absence d'information contextuelle. Cette théorie permet de faire des prédictions spécifiques que nous avons testées dans le cadre de deux expériences comportementales. Celles-ci ont permis de valider les prédictions de la théorie et d'invalider d'autres modèles existants. De plus, la théorie proposée permet d'avancer un facteur explicatif des différences qualitatives de stratégies d'exploration observées entre différents individus. La théorie proposée caractérise de façon intrinsèque des notions essentielles telles que le comporte- ment par défaut, le switch et l'exploration. Elle permet de faire émerger naturellement un mécanisme de contrôle du compromis exploitation - exploration, ainsi que son facteur de pondération. Enfin, les résultats empiriques valident les prédictions et confirment les hypothèses du modèle. Celui-ci pourra être utilisé pour comprendre les computations effectuées par le cerveau dans des études d'imagerie fonctionnelle, avec le cortex préfrontal, les ganglions de la base et des neuromodulateurs (dopamine et norépinephrine) comme centres d'intérêt principaux.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Um, Nlend Ingrid. "Analyse computationnelle des protéines kinases surexprimées dans le cancer du sein «Triple-négatif»". Mémoire, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5386.

Texto completo da fonte
Resumo:
Résumé : Malgré l’apport de nouvelles armes thérapeutiques, le cancer du sein reste la première cause de décès par cancer chez la femme de moins de 65 ans. Le cancer du sein dit «triple-négatif», un sous-type représentant environ 10 % des cancers du sein, est caractérisé par l’absence de récepteurs hormonaux aux oestrogènes et à la progestérone et aussi par l’absence d’expression du récepteur de croissance HER-2. Ce type de cancer considéré comme étant le plus agressif des cancers du sein, possède un profil clinique défavorable avec un haut risque de rechute métastatique. Les seuls outils thérapeutiques disponibles actuellement contre ce type de cancer sont la chimiothérapie et la radiothérapie, qui s’avèrent être très toxiques pour le patient et ne ciblent pas de manière spécifique la tumeur. Il a été ainsi démontré qu’il existe au sein du kinome (i.e. l’ensemble des protéines kinases du génome humain), 26 protéines kinases surexprimées dans le cancer du sein dit «triple-négatif» et dont le rôle s’avère être critique dans la croissance de ces cellules cancéreuses. Nous avons utilisé différentes méthodes computationnelles développées au sein de notre laboratoire afin de caractériser le site de liaison de l’ensemble de ces 26 protéines kinases. Plus précisément, nous avons calculé les similitudes entre les protéines kinases à plusieurs niveaux: 1. séquence globale, 2. séquence des sites de liaison, 3. structure des sites de liaison et 4. profils de liaison. Nous avons utilisé des outils de visualisation de données afin de mettre en évidence ces similarités. Le profil de liaison de 38 molécules inhibitrices a été déterminé pour un ensemble de 290 protéines kinases humaines, incluant 15 des protéines kinases appartenant à notre sous-ensemble de protéines d'intérêt. Ces profils de liaison sont utilisés pour définir les similarités fonctionnelles entre les protéines kinases d'intérêt, en utilisant le coefficient tau de corrélation des rangs de Kendall ([tau]). Nous avons effectué des simulations d’arrimage à l’aide du logiciel FlexAID, pour chacune des protéines et l’ensemble des 38 molécules inhibitrices afin d’élargir l’analyse précédente aux autres protéines qui n’ont pas été testé par Karaman et al. Grâce aux différentes études structurales et computationnelles effectuées ci-dessus, nous avons été à même de hiérarchiser les protéines kinases en fonction des similarités moléculaires vis-à-vis de leurs profils de liaison, en vue du développement futur d’outils thérapeutiques poly-pharmacologiques. // Abstract : Despite the development of novel therapeutic agents, breast cancer represents a major cause of death among women. Among breast cancer patients, triple negative (TN) breast cancer (TNBC) represents approximately 15% of cases. TNBC is characterized by the absence of the estrogen receptor, the progesterone receptor as well as the HER2 protein kinase. Recently, it has been shown that a subset of 26 protein kinases (TNVT set) is overexpressed in TNBC. Their inhibition in siRNA knockdown experiments leads to varying levels of growth inhibition in TN and sometimes non-TN cancer cell lines. These studies validate TNVT set kinases as potential therapeutic targets. The aim of this project is to characterize the binding site of TNVT set kinases using different computational methods developed in our research group and to determine which protein kinases of this subset could be more likely to bind similar ligands as part of a poly-pharmacological approach. We calculated global sequence similarities, binding-site sequence similarities and 3D atomic binding-site similarities for the TNVT set of kinases. This analysis shows that binding-site sequence similarities somehow reflect global sequence similarities. Binding-site 3D atomic similarities reflect binding-site sequence similarities but are more widespread. This may have potential functional consequences in terms of small-molecule molecular recognition. Such similarities can potentially lead to cross-reactivity effects but they can also be exploited in the development of multi-functional poly-pharmacological drugs. Recently, the dissociation constants (K[indice inférieur d]) of 38 small-molecule inhibitors for 290 protein kinases (including 17 kinases in the TNVT set) were calculated. These experimental bindingprofiles were used to define a measure of functional profile similarity using Kendall rank correlations ([tau]). We will present results using our docking program FlexAID for the 38 small-molecules tested by Karaman et al. against the 26 kinases in the TNVT set. Similar to experimental binding-profiles, the docking scores can be used to define docking bindingprofiles similarities using [tau] rank correlations. Docking binding-profile similarities are then used to cluster the 26 kinases in the TNVT set. Clusters represent subsets of kinases within the TNVT set with functionally similar binding-sites. Finally, we compare functional docking profile similarities to the sequence and 3D atomic similarities discussed above. This analysis will allow us to detect subsets of kinases in the TNVT set for which it may be possible to develop multi-functional inhibitors.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Cazé, Romain. "Le rôle des sommations non-linéaires dendritiques dans la puissance computationnelle du neurone". Paris 7, 2012. http://www.theses.fr/2012PA077238.

Texto completo da fonte
Resumo:
La majorité des modèles computationnels de neurones sont basés sur l'hypothèse d'une sommation linéaire des potentiels postsynaptique excitateurs (PPSEs). Mais la somme de multiples PPSEs peut être supérieure leur somme arithmétique ce phénomène est communément appelé potentiel d'action dendritique (PED). L'implication de PED dans la fonction du neurone reste encore débattu, notamment lorsque ces PED ne déclenchent pas de potentiel d'action somatique. De plus, la somme de multiples PPSEs peut aussi être inférieure à leur somme arithmétique, ces saturations sont souvent présentées comme un problème. Ce travail de thèse contredit ces deux opinions, il montre que les saturations dendritiques autant que les PED peuvent positivement influencer la fonction du neurone. Nous utilisons un modèle binaire de neurone et montrons qu'une seule non-linéarité dendritique suffit pour calculer des fonctions linéairement non-séparables. Ces fonctions sont inaccessibles pour les modèles de neurones ne tenant pas compte des sommations non-linéaire. Nous montrons que des modèles biophysique réalistes de neurones sont capables d'implémenter ces fonctions. Contrairement aux modèles binaires, ils ne présupposent pas l'existence de compartiments totalement indépendants. Pourtant ces modèles sont eux aussi capables de calculs linéairement non-separable. Ces résultats jettent un éclairage nouveau sur les réseaux de neurones, suggérant que la mémoire pourrait être stockée dans l'arbre dendritique des neurones
Seminal computational models of the neuron assume that excitatory post-synaptic inputs (EPSPs) sum linearly in dendrites. Nevertheless, the sum of multiple EPSPs can be larger than their arithmetic sum, a superlinear summation. The so-called dendritic spike. An impact of dendritic spikes on computation remains a malter of debate. Moreover, the sum of multiple of EPSPs can also be smaller than their arithmetic sum these saturations are sometime presented as a glitch which should be corrected by dendritic spikes. L provide here arguments against these daims, I show that dendritic saturations as well as dendritic spikes, even when they cannot directly make the neuron fire, enhance single neuron computation. I use a binary neuron models to demonstrate that a single dendritic non-linearity, either spiking or saturating, combined with somatic non-linearity, enables a neuron linearly non-separable functions. I coin these functions as spatial functions because the neuron's output depends more on the labeling of the active inputs than on their number. Secondly, we show that realistic biophysical models of the neuron are capable of computing spatial functions. Within these models the dendritic and somatic non-linearity are tightly coupled. We use this biophysical model to predict that some neurons will be more likely to fire when inputs are scattered over their dendritic tree than when they are clustered, we predict that such a neuron is capable of computing spatial functions. These results suggest a new perspective on neural networks, suggesting for instance that memory can be stored in the neurons themselves
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Gris, Barbara. "Approche modulaire sur les espaces de formes, géométrie sous-riemannienne et anatomie computationnelle". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN069/document.

Texto completo da fonte
Resumo:
Dans cette thèse, nous développons un nouveau modèle de déformation pour étudier les formes. Les déformations, et les difféomorphismes en particulier, jouent un rôle fondamental dans l'étude statistique de formes, comme un moyen de mesurer et d'interpréter les différences entre des objets similaires. Les difféomorphismes résultent généralement d'une intégration d'un flot régulier de champs de vitesses, dont les paramètres n'ont jamais encore vraiment permis de contrôler localement les déformations. Nous proposons un nouveau modèle dans lequel les champs de vitesses sont construits grâce à la combinaison de quelques champs de vecteurs locaux et interprétables. Ces champs de vecteurs sont générés à l'aide d'une structure que nous appelons module de déformation. Un module de déformation génère un champ de vecteurs d'un type particulier (e.g. homothétie) choisi à l'avance: cela permet d'incorporer des contraintes dans le modèle de déformation. Ces contraintes peuvent correspondre à un savoir que l'on a sur les formes étudiées, ou à un point de vue à partir duquel on veut étudier ces formes. Dans un premier chapitre nous définissons les modules de déformation et nous en donnons des exemples variés. Nous expliquons également comment construire facilement un module de déformation adapté à des contraintes complexes en combinant des modules de déformations simples. Ensuite nous construisons des grandes déformations modulaires en tant que flot de champs de vecteurs générés par un module de déformation. Les champs de vecteurs générés par un module de déformation sont paramétrés par deux variables : une géométrique (descripteur géométrique) et une de contrôle. Nous associons également un coût à chaque couple de descripteur géométrique et de contrôle. Dans un deuxième chapitre nous expliquons comment utiliser un module de déformation donné pour étudier des formes. Nous construisons tout d'abord une structure sous-Riemannienne sur l'espace défini comme le produit de l'espace de formes et de celui des descripteurs géométriques. La métrique sous-Riemannienne vient du coût choisi : nous munissons le nouvel espace d'une métrique choisie, qui en générale n'est pas le pull-back d'une métrique sur les champs de vecteurs mais tient compte la manière dont les champs de vecteurs sont construits à partir des contraintes. Grâce à cette structure nous définissons une distance sous-Riemannienne et nous montrons l'existence des géodésiques (trajectoires dont la longueur vaut la distance entre les points de départ et d'arrivée). L'étude des géodésiques se ramène à un problème de contrôle optimal, elles peuvent être obtenues grâce à un formalisme Hamiltonien. En particulier nous montrons qu'elles peuvent être paramétrées par une variable initiale, le moment. Après cela nous présentons les grandes déformations modulaires optimales transportant une forme source sur une forme cible. Nous définissons également l'atlas modulaire d'une population de formes par la donnée d'une forme moyenne et d'une grande déformation modulaire par forme. Dans la discussion nous étudions un modèle alternatif dans lequel les géodésiques sont paramétrées en dimension plus petite. Dans un troisième chapitre nous présentons l'algorithme implémenté pour obtenir les grandes déformations ainsi que la descente de gradient estimant les atlas. Dans un dernier chapitre nous présentons plusieurs exemples numériques grâce auxquels nous étudions certains aspects de notre modèle. En particulier nous montrons que le choix du module de déformation utilisé influence la forme moyenne, et que choisir un module de déformation adapté permet d'effectuer simultanément des recalages rigides et non linéaires. Dans le dernier exemple nous étudions des formes sans a priori, nous utilisons donc un module correspondant à des contraintes faibles et nous montrons que l'atlas obtenu est toujours intéressant
This thesis is dedicated to the development of a new deformation model to study shapes. Deformations, and diffeormophisms in particular, have played a tremendous role in the field of statistical shape analysis, as a proxy to measure and interpret differences between similar objects but with different shapes. Diffeomorphisms usually result from the integration of a flow of regular velocity fields, whose parameters have not enabled so far a full control of the local behaviour of the deformation. We propose a new model in which velocity fields are built on the combination of a few local and interpretable vector fields. These vector fields are generated thanks to a structure which we name deformation module. Deformation modules generate vector fields of a particular type (e.g. a scaling) chosen in advance: they allow to incorporate a constraint in the deformation model. These constraints can correspond either to an additional knowledge one would have on the shapes under study, or to a point of view from which one would want to study these shapes. In a first chapter we introduce this notion of deformation module and we give several examples to show how diverse they can be. We also explain how one can easily build complex deformation modules adapted to complex constraints by combining simple deformation modules. Then we introduce the construction of modular large deformations as flow of vector fields generated by a deformation module. Vector fields generated by a deformation module are parametrized by two variables: a geometrical one named geometrical descriptor and a control one. We build large deformations so that the geometrical descriptor follows the deformation of the ambient space. Then defining a modular large deformation corresponds to defining an initial geometrical descriptor and a trajectory of controls. We also associate a notion of cost for each couple of geometrical descriptor and control. In a second chapter we explain how we can use a given deformation module to study data shapes. We first build a sub-Riemannian structure on the space defined as the product of the data shape space and the space of geometrical descriptors. The sub-Riemannian metric comes from the chosen cost: we equip the new (shape) space with a chosen metric, which is not in general the pull-back of a metric on vector fields but takes into account the way vector fields are built with the chosen constraints. Thanks to this structure we define a sub-Riemannian distance on this new space and we show the existence, under some mild assumptions, of geodesics (trajectories whose length equals the distance between the starting and ending points). The study of geodesics amounts to an optimal control problem, and they can be estimated thanks to an Hamiltonian framework: in particular we show that they can be parametrized by an initial variable named momentum. Afterwards we introduce optimal modular large deformations transporting a source shape into a target shape. We also define the modular atlas of a population of shapes which is made of a mean shape, and one modular large deformation per shape. In the discussion we study an alternative model where geodesics are parametrized in lower dimension. In a third chapter we present the algorithm that was implemented in order to compute these modular large deformations and the gradient descent to estimate the optimal ones as well as mean shapes. In a last chapter we introduce several numerical examples thanks to which we study specific aspects of our model. In particular we show that the choice of the used deformation module influences the form of the estimated mean shape, and that by choosing an adapted deformation module we are able to perform in a satisfying and robust way simultaneously rigid and non linear registration. In the last example we study shapes without any prior knowledge, then we use a module corresponding to weak constraints and we show that the atlas computation still gives interesting results
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Lefort, Sébastien. ""How much is 'about'?" modélisation computationnelle de l'interprétation cognitive des expressions numériques approximatives". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066421/document.

Texto completo da fonte
Resumo:
Nos travaux portent sur les Expressions Numériques Approximatives (ENA), définies comme des expressions linguistiques impliquant des valeurs numériques et un adverbe d'approximation, telles que "environ 100". Nous nous intéressons d’abord à l’interprétation d’ENA non contextualisées, dans ses aspects humain et computationnel. Après avoir formalisé des dimensions originales, arithmétiques et cognitive, permettant de caractériser les ENA, nous avons conduit une étude empirique pour collecter les intervalles de plages de valeurs dénotées par des ENA, qui nous a permis de valider les dimensions proposées. Nous avons ensuite proposé deux modèles d'interprétation, basés sur un même principe de compromis entre la saillance cognitive des bornes des intervalles et leur distance à la valeur de référence de l’ENA, formalisé par un front de Pareto. Le premier modèle estime l’intervalle dénoté, le second un intervalle flou représentant l’imprécision associée. Leur validation expérimentale à partir de données réelles montre qu’ils offrent de meilleures performances que les modèles existants. Nous avons également montrél’intérêt du modèle flou en l’implémentant dans le cadre des requêtes flexibles de bases de données. Nous avons ensuite montré, par une étude empirique, que le contexte et les interprétations, implicite vs explicite, ont peu d’effet sur les intervalles. Nous nous intéressons enfin à l’addition et à la multiplication d’ENA, par exemple pour évaluer la surface d’une pièce d’"environ 10" par "environ 20 mètres". Nous avons mené une étude dont les résultats indiquent que les imprécisions liées aux opérandes ne sont pas prises en compte lors des calculs
Approximate Numerical Expressions (ANE) are imprecise linguistic expressions implying numerical values, illustrated by "about 100". We first focus on ANE interpretation, both in its human and computational aspects. After defining original arithmetical and cognitive dimensions allowing to characterize ANEs, we conducted an empirical study to collect the intervals of values denoted by ANEs. We show that the proposed dimensions are involved in ANE interpretation. In a second step, we proposed two interpretation models, based on the same principle of a compromise between the cognitive salience of the endpoints and their distance to the ANE reference value, formalized by Pareto frontiers. The first model estimates the denoted interval, the second one generates a fuzzy interval representing the associated imprecision. The experimental validation of the models, based on real data, show that they offer better performances than existing models. We also show the relevance of the fuzzy model by implementing it in the framework of flexible database queries. We then show, by the mean of an empirical study, that the semantic context has little effect on the collected intervals. Finally, we focus on the additions and products of ANE, for instance to assess the area of a room whose walls are "about 10" and "about 20 meters" long. We conducted an empirical study whose results indicate that the imprecisions associated with the operands are not taken into account during the calculations
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Lefort, Sébastien. ""How much is 'about'?" modélisation computationnelle de l'interprétation cognitive des expressions numériques approximatives". Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066421.

Texto completo da fonte
Resumo:
Nos travaux portent sur les Expressions Numériques Approximatives (ENA), définies comme des expressions linguistiques impliquant des valeurs numériques et un adverbe d'approximation, telles que "environ 100". Nous nous intéressons d’abord à l’interprétation d’ENA non contextualisées, dans ses aspects humain et computationnel. Après avoir formalisé des dimensions originales, arithmétiques et cognitive, permettant de caractériser les ENA, nous avons conduit une étude empirique pour collecter les intervalles de plages de valeurs dénotées par des ENA, qui nous a permis de valider les dimensions proposées. Nous avons ensuite proposé deux modèles d'interprétation, basés sur un même principe de compromis entre la saillance cognitive des bornes des intervalles et leur distance à la valeur de référence de l’ENA, formalisé par un front de Pareto. Le premier modèle estime l’intervalle dénoté, le second un intervalle flou représentant l’imprécision associée. Leur validation expérimentale à partir de données réelles montre qu’ils offrent de meilleures performances que les modèles existants. Nous avons également montrél’intérêt du modèle flou en l’implémentant dans le cadre des requêtes flexibles de bases de données. Nous avons ensuite montré, par une étude empirique, que le contexte et les interprétations, implicite vs explicite, ont peu d’effet sur les intervalles. Nous nous intéressons enfin à l’addition et à la multiplication d’ENA, par exemple pour évaluer la surface d’une pièce d’"environ 10" par "environ 20 mètres". Nous avons mené une étude dont les résultats indiquent que les imprécisions liées aux opérandes ne sont pas prises en compte lors des calculs
Approximate Numerical Expressions (ANE) are imprecise linguistic expressions implying numerical values, illustrated by "about 100". We first focus on ANE interpretation, both in its human and computational aspects. After defining original arithmetical and cognitive dimensions allowing to characterize ANEs, we conducted an empirical study to collect the intervals of values denoted by ANEs. We show that the proposed dimensions are involved in ANE interpretation. In a second step, we proposed two interpretation models, based on the same principle of a compromise between the cognitive salience of the endpoints and their distance to the ANE reference value, formalized by Pareto frontiers. The first model estimates the denoted interval, the second one generates a fuzzy interval representing the associated imprecision. The experimental validation of the models, based on real data, show that they offer better performances than existing models. We also show the relevance of the fuzzy model by implementing it in the framework of flexible database queries. We then show, by the mean of an empirical study, that the semantic context has little effect on the collected intervals. Finally, we focus on the additions and products of ANE, for instance to assess the area of a room whose walls are "about 10" and "about 20 meters" long. We conducted an empirical study whose results indicate that the imprecisions associated with the operands are not taken into account during the calculations
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Ben, Salamah Janan. "Extraction de connaissances dans des textes arabes et français par une méthode linguistico-computationnelle". Thesis, Paris 4, 2017. http://www.theses.fr/2017PA040137.

Texto completo da fonte
Resumo:
Dans le cadre de notre thèse, nous avons proposé une approche générique multilingue d'extraction automatique de connaissances. Nous avons validé l‟approche sur l'extraction des événements de variations des cours pétroliers et l‟extraction des expressions temporelles liées à des référentiels. Notre approche est basée sur la constitution de plusieurs cartes sémantiques par analyse des données non structurées afin de formaliser les traces linguistiques textuelles exprimées par des catégories d'un point de vue de fouille. Nous avons mis en place un système expert permettant d‟annoter la présence des catégories en utilisant des groupes de règles. Deux algorithmes d'annotation AnnotEV et AnnotEC ont été appliqués, dans la plateforme SemanTAS. Le rappel et précision de notre système d'annotation est autour de 80%. Nous avons présenté les résultats aussi sous forme des fiches de synthèses. Nous avons validé l'aspect Multilingue de l'approche sur la langue française et arabe, et l'aspect généricité et scalabilité en testant sur plusieurs corpus de taille confédérale
In this thesis, we proposed a multilingual generic approach for the automatic information extraction. Particularly, events extraction of price variation and temporal information extraction linked to temporal referential. Our approach is based on the constitution of several semantic maps by textual analysis in order to formalize the linguistic traces expressed by categories. We created a database for an expert system to identify and annotate information (categories and their characteristics) based on the contextual rule groups. Two algorithms AnnotEC and AnnotEV have been applied in the SemanTAS platform to validate our assumptions. We have obtained a satisfactory result; Accuracy and recall are around 80%. We presented extracted knowledge by a summary file. In order to approve the multilingual aspect of our approach, we have carried out experiments on French and Arabic. We confirmed the scalability level by the annotation of large corpus
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Domenech, Philippe. "Une approche neuro-computationnelle de la prise de décision et de sa régulation contextuelle". Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00847494.

Texto completo da fonte
Resumo:
Décider, c'est sélectionner une alternative parmi l'ensemble des options possibles en accord avec nos buts. Les décisions perceptuelles, correspondant à la sélection d'une action sur la base d'une perception, résultent de l'accumulation progressive d'information sensorielle jusqu'à un seuil de décision. Aux niveaux comportemental et cérébral, ce processus est bien capturé par les modèles de décision par échantillonnage séquentiel. L'étude neurobiologique des processus de décision, guidée par l'usage de modèles computationnels, a permis d'établir un lien clair entre cette accumulation d'information sensorielle et un réseau cortical incluant le sillon intra-pariétal et le cortex dorso-latéral préfrontal. L'architecture des réseaux biologiques impliqués dans la prise de décision, la nature des algorithmes qu'ils implémentent et surtout, l'étude des relations entre structure biologique et computation est au cœur des questionnements actuels en neurosciences cognitives et constitue le fil conducteur de cette thèse. Dans un premier temps, nous nous sommes intéressés aux mécanismes neuraux et computationnels permettant l'ajustement du processus de décision perceptuelle à son contexte. Nous avons montré que l'information a priori disponible pour prédire nos choix diminue la distance au seuil de décision, régulant ainsi dynamiquement la quantité d'information sensorielle nécessaire pour sélectionner une action. Pendant la prise de décision perceptuelle, le cortex cingulaire antérieur ajuste le seuil de décision proportionnellement à la quantité d'information prédictive disponible et le cortex dorso-latéral préfrontal implémente l'accumulation progressive d'information sensorielle. Dans un deuxième temps, nous avons abordé la question de l'unicité, au travers des domaines cognitifs, des mécanismes neuro-computationnels implémentant la prise de décision. Nous avons montré qu'un modèle de décision par échantillonnage séquentiel utilisant la valeur subjective espérée de chaque option prédisait avec précision le comportement de sujets lors de choix économiques risqués. Pendant la décision, la portion médiale du cortex orbito-frontal code la différence entre les valeurs subjectives des options considérées, exprimées sur une échelle de valeur commune. Ce signal orbito-frontal médian sert d'entrée à un processus de décision par échantillonnage séquentiel implémenté dans le cortex dorso-latéral préfrontal. Pris ensemble, nos travaux précisent les contours d'une architecture fonctionnelle de la prise de décision dans le cortex préfrontal humain en établissant une cartographie des modules computationnels qu'il implémente, mais aussi en caractérisant la façon dont l'intégration fonctionnelle de ces régions cérébrales permet l'émergence de la capacité à prendre des décisions
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Santolini, Marc. "Analyse computationnelle des éléments cis-régulateurs dans les génomes des drosophiles et des mammifères". Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00865159.

Texto completo da fonte
Resumo:
La différenciation cellulaire et la spécification des tissus biologiques dépendent en partie de l'établissement de programmes d'expression génétique caractéristiques. Ces programmes sont le résultat de l'interprétation de l'information génomique par des Facteurs de Transcription (TFs) se fixant à des séquences d'ADN spécifiques. Décoder cette information dans les génomes séquencés est donc un enjeu majeur. Dans une première partie, nous étudions l'interaction entre les TFs et leurs sites de fixation sur l'ADN. L'utilisation d'un modèle de Potts inspiré de la physique des verres de spin et de données de fixation à grande échelle pour plusieurs TFs de la drosophile et des mammifères permet de montrer que les sites de fixation exhibent des corrélations entre nucléotides. Leur prise en compte permet d'améliorer significativement la prédiction des sites de fixations sur le génome. Nous présentons ensuite Imogene, l'extension au cas des mammifères d'un algorithme bayésien utilisant la phylogénie afin d'identifier les motifs et modules de cis-régulation (CRMs) contrôlant l'expression d'un ensemble de gènes co-régulés, qui a précédemment été appliqué au cas de la régulation chez les drosophiles. Partant d'un ensemble d'apprentissage constitué d'un petit nombre de CRMs chez une espèce de référence, et sans connaissance a priori des TFs s'y fixant, l'algorithme utilise la sur-représentation et la conservation des sites de fixation chez des espèces proches pour prédire des régulateurs putatifs ainsi que les CRMs génomiques sous-tendant la co-régulation. Nous montrons en particulier qu'Imogene peut distinguer des modules de régulation conduisant à différents motifs d'expression génétique sur la seule base de leur séquence ADN. Enfin, nous présentons des applications de ces outils de modélisation à des cas biologiques réels : la différenciation des trichomes chez la drosophile, et la différenciation musculaire chez la souris. Dans les deux cas, les prédictions ont été validées expérimentalement en collaboration avec des équipes de biologistes, et pointent vers une grande flexibilité des processus de cis-régulation.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Mercier, Steeve. "Phénomènes d'interface, stades d'acquisition et variabilité : explications en termes de degrés de complexité computationnelle". Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27898/27898.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Passot, Jean-Baptiste. "Etude computationnelle du rôle du cervelet dans les mouvements volontaires et la navigation spatiale". Paris 6, 2011. http://www.theses.fr/2011PA066382.

Texto completo da fonte
Resumo:
Ma thèse a pour objectif de mettre en évidence les propriétés computationnelles ainsi que les processus d’adaptation du cervelet communs aux apprentissages moteurs et à la cognition spatiale. Dans la première partie, nous nous intéressons aux mécanismes d’apprentissage procédural lors de l'adaptation de mouvements volontaires. Nous proposons un nouveau schéma de couplage de modèles internes du cervelet. Le microcomplexe cérébelleux est modélisé en utilisant un réseau de neurones formels impulsionnels reproduisant les éléments fondamentaux de la cytoarchitecture cérébelleuse. Le modèle est testé sur une tâche d'adaptation de rotation. Les résultats obtenus sur une version simulée de ce paradigme montrent que seul le modèle d’apprentissage est capable de reproduire les résultats expérimentaux dont la consolidation post-sommeil. Dans la seconde partie, nous inscrivons notre modèle de microcomplexe cérébelleux dans une architecture neurale plus étendue afin d’étudier le rôle du cervelet dans la composante procédurale et déclarative de la cognition spatiale. Nos résultats de simulation suggèrent que le cervelet serait impliqué à la fois dans l'optimisation locale d'une trajectoire et aussi dans la mise en place de procédures adaptées à la réalisation d'une tache, i. E. La composante locale et globale de la mémoire procédurale. Finalement, nos résultats suggèrent que le cervelet serait aussi impliqué dans l'intégration des informations idiothétiques, ce qui affecterait indirectement la mise en place d'une représentation stable de l'environnement au niveau des cellules de lieu hippocampiques, et par conséquent l’acquisition de mémoires à caractère déclaratif.
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Guyader, Nathalie. "Scènes visuelles : catégorisation basée sur des modèles de perception. Approches (neuro) computationnelle et psychophysique". Université Joseph Fourier (Grenoble), 2004. http://www.theses.fr/2004GRE10082.

Texto completo da fonte
Resumo:
Le but de cette thèse est de s'inspirer du système visuel humain pour procurer des descripteurs d'images. Deux approches sont abordées : une approche modélisation et une approche en psychologie expérimentale. Le modèle que nous proposons ici permet d'aboutir à des taux de bonne classification de plus de 80%. Cette classification se fait sur des images de scènes naturelles. Ces taux de bonne classification sont obtenus avec un modèle qui échantillonne le spectre d'ampltiude des images de scènes naturelles. Nous montrons ensuite que le système visuel utilise l'information contenue dans le spectre d'amplitude des images pour la catégorisation rapide et que le spectre de phase ne joue aucun role
The aim is to use the biology of the human visual system in order to describe images of natural scenes. This wrok is based on two main approaches : a computational and a psychophysical ones. We show that human use the information contained is the amplitude spectrum of images in order to categorize. Ln the opposite the phase amplitude does not play a role. This is shown only for rapid categorization
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Mercier, Jonathan. "Logique paracohérente pour l’annotation fonctionnelle des génomes au travers de réseaux biologiques". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLE007/document.

Texto completo da fonte
Resumo:
Face à l’augmentation des capacités de séquençage, on assiste à une accumulation de prédictions in silico dans les banques de séquences biologiques. Cette masse de données dépasse nos capacités d’expertise humaine et, malgré des progrès méthodologiques, ces analyses automatisées produisent de nombreuses erreurs notamment dans la prédiction de la fonction biologique des protéines. Par conséquent, il est nécessaire de se doter d’outils capables de guider l’expertise humaine par une évaluation des prédictions en confrontation avec les connaissances sur l’organisme étudié.GROOLS (pour “Genomic Rule Object-Oriented Logic System”) est un système expert capable de raisonner à partir d’informations incomplètes et contradictoires. Il a été développé afin de devenir l’assistant du biologiste dans un processus d’annotation fonctionnelle de génome intégrant une grande quantité d’information de sources diverses. GROOLS utilise une représentation générique des connaissances sous la forme d’un graphe de concepts qui est orienté et acyclique. Les concepts représentent les différents composants de processus biologiques (e.g. voies métaboliques) et sont connectés par des relations de différents types (i.e. “part-of”, “subtype-of”). Ces "Connaissances-a-priori" représentent des théories dont on souhaite élucider leur présence dans un organisme. Elles vont servir de socle au raisonnement afin d’être évaluées à partir d’observations de type “Prédiction” (e.g. activités enzymatiques prédites) ou “Expectation” (e.g. phénotypes de croissance). Pour cela, GROOLS met en œuvre une logique paraconsistante sur des ensembles de faits que sont les observations. Au travers de différentes règles, les valeurs de “Prédiction” et d’“Expectation” vont être propagées dans le graphe sous la forme d’ensembles de valeurs de vérité. A la fin du raisonnement, une conclusion sera donnée pour chaque "Connaissance-a-priori" en combinant leur valeurs de “Prédiction” et d' “Expectation”. Les valeurs de conclusion peuvent, par exemple, indiquer une “Présence-confirmée” (i.e. fonction prédite et attendue), une “Absence” (i.e. fonction non prédite mais attendue) ou une “Présence-non-attendue” (i.e. fonction prédite mais pas attendue dans l’organisme). Le raisonnement de GROOLS a été appliqué sur plusieurs organismes microbiens avec différentes sources de “Prédictions” (i.e. annotations d’UniProtKB ou de MicroScope) et de processus biologiques (i.e. GenomeProperties et UniPathway). Pour les “Expectations”, des données de phénotype de croissance et les voies de biosynthèse des acides aminés ont été utilisées. Les résultats obtenus permettent rapidement d’évaluer la qualité globale des annotations d’un génome et de proposer aux biologistes des annotations à compléter ou à corriger car contradictoires. Plus généralement, le logiciel GROOLS peut être utilisé pour l’amélioration de la reconstruction du réseau métabolique d’un organisme qui est une étape indispensable à l’obtention d’un modèle métabolique de qualité
One consequence of increasing sequencing capacity is the the accumulation of in silico predictions in biological sequence databanks. This amount of data exceeds human curation capacity and, despite methodological progress, numerous errors on the prediction of protein functions are made. Therefore, tools are required to guide human expertise in the evaluation of bioinformatics predictions taking into account background knowledge on the studied organism.GROOLS (for “Genomic Rule Object-Oriented Logic System”) is an expert system that is able to reason on incomplete and contradictory information. It was developed with the objective of assisting biologists in the process of genome functional annotation by integrating high quantity of information from various sources. GROOLS adopts a generic representation of knowledge using a directed acyclic graph of concepts that represent the different components of a biological process (e.g. a metabolic pathway) connected by two types of relations (i.e. “part-of” and “subtype-of”). These concepts are called “Prior Knowledge concepts” and correspond to theories for which their presence in an organism needs to be elucidated. They serve as basis for the reasoning and are evaluated from observations of “Prediction” (e.g. a predicted enzymatic activity) or “Expectation” (e.g. growth phenotypes) type. Indeed, GROOLS implements a paraconsistent logic on set of facts that are observations. Using different rules, “Prediction” and “Expectation” values are propagated on the graph as sets of truth values. At the end of the reasoning, a conclusion is given on each “Prior Knowledge concepts” by combining “Prediction” and “Expectation” values. Conclusions may, for example, indicate a “Confirmed-Presence” (i.e. the function is predicted and expected), a “Missing” concept (i.e. the function is expected but not predicted) or an “Unexpected-Presence” (i.e. the function is predicted but not expected in the organisms).GROOLS reasoning was applied on several organisms and with different sources of “Predictions” (i.e. annotations from UniProtKB or MicroScope) and biological processes (i.e. GenomeProperties and UniPathway). For “Expectations”, growth phenotype data and amino-acid biosynthesis pathways were used. GROOLS results are useful to quickly evaluate the overall annotation quality of a genome and to propose annotations to be completed or corrected by a biocurator. More generally, the GROOLS software can be used to improve the reconstruction of the metabolic network of an organism which is an essential step in obtaining a high-quality metabolic model
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Maignan, Luidnel. "Points, distances, et automates cellulaires : algorithmique géométrique et spatiale". Paris 11, 2010. http://www.theses.fr/2010PA112325.

Texto completo da fonte
Resumo:
Le calcul spatial a pour but de fournir un cadre de travail passant à l'échelle où les calculs sont distribués sur un milieu de calculs uniforme à communications locales. Nous étudions le cas particulier des automates cellulaires, utilisant une grille régulière et une communication synchrone. Nous proposons de développer des primitives permettant de structurer le milieu de calculs autour d'un ensemble de particules. Nous considérons trois problèmes géométriques : déplacer les particules afin d'uniformiser leur densité, construire leur enveloppe convex, et construire un graphe de proximité connexe connectant les plus proches particules entre elles. Ces deux derniers problèmes sont considérés sur grille multidimensionnelle, tandis que l'uniformisation est résolue sur un espace à une dimension. Notre approche est de considérer l'espace métrique correspondant à l'automate cellulaire et de construire des objets mathématiques basés sur cette métrique seule. Les algorithmes obtenues se généralisent ainsi vers des grilles arbitraires. Nous implantons les grilles usuelles : hexagonale et carré avec 4 et 8 voisins. Toutes les solutions sont basées sur la même brique de base : le champ de distances, associant à chaque point de l'espace sa distance à la plus proche particule. Alors que ces valeurs de distances ne sont pas bornées, nous utilisons le fait que la différence entre valeurs voisines l'est afin d'encoder les gradients sur un nombre fini d'états. Nos algorithmes, exprimés en terme de mouvement par rapport à ces gradients et de détection de motifs de gradient, s'encodent donc en automates d'états finis, avec un petit nombre d'états
Spatial computing aims at providing a scalable framework where computation is distributed on a uniform computing medium and communication happen locally between nearest neighbors. We study the particular framework of cellular automata, using a regular grid and synchronous update. We propose to develop primitives allowing to structure the medium around a set of particles. We consider three problems of geometrical nature: moving the particles on the grid in order to uniformize the density, constructing their convex hull, constructing a connected proximity graph establishing connection between nearest particles. The last two problems are considered for multidimensional grid while uniformization is solved specifically for the one dimensional grid. The work approach is to consider the metric space underlying the cellular automata topology and construct generic mathematical object based solely on this metric. As a result, the algorithms derived from the properties of those objects, generalize over arbitrary regular grid. We implemented the usual ones, including hexagonal, 4 neighbors, and 8 neighbors square grid. All the solutions are based on the same basic component: the distance field, which associates to each site of the space its distance to the nearest particle. While the distance values are not bounded, it is shown that the difference between the values of neighboring sites is bounded, enabling encoding of the gradient into a finite state field. Our algorithms are expressed in terms of movements according to such gradient, and also detecting patterns in the gradient, and can thus be encoded in finite state of automata, using only a dozen of state
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Pichené, Matthieu. "Analyse multi-niveaux en biologie systémique computationnelle : le cas des cellules HeLa sous traitement apoptotique". Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S026/document.

Texto completo da fonte
Resumo:
Cette thèse examine une nouvelle façon d'étudier l'impact d'une voie de signalisation donnée sur l'évolution d'un tissu grâce à l'analyse multi-niveaux. Cette analyse est divisée en deux parties principales: La première partie considère les modèles décrivant la voie au niveau cellulaire. A l'aide de ces modèles, on peut calculer de manière résoluble la dynamique d'un groupe de cellules, en le représentant par une distribution multivariée sur des concentrations de molécules clés. La deuxième partie propose un modèle 3d de croissance tissulaire qui considère la population de cellules comme un ensemble de sous-populations, partitionnée de façon à ce que chaque sous-population partage les mêmes conditions externes. Pour chaque sous-population, le modèle résoluble présenté dans la première partie peut être utilisé. Cette thèse se concentre principalement sur la première partie, tandis qu'un chapitre couvre un projet de modèle pour la deuxième partie
This thesis examines a new way to study the impact of a given pathway on the dynamics of a tissue through Multi-Level Analysis. The analysis is split in two main parts: The first part considers models describing the pathway at the cellular level. Using these models, one can compute in a tractable manner the dynamics of a group of cells, representing it by a multivariate distribution over concentrations of key molecules. % of the distribution of the states of this pathway through groups of cells. The second part proposes a 3d model of tissular growth that considers the population of cell as a set of subpopulations, partitionned such as each subpopulation shares the same external conditions. For each subpopulation, the tractable model presented in the first part can be used. This thesis focuses mainly on the first part, whereas a chapter covers a draft of a model for the second part
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Najjar, Mohamed Mehdi. "Une approche cognitive computationnelle de représentation de la connaissance au sein des environnements informatiques d'apprentissage". Thèse, Université de Sherbrooke, 2006. http://savoirs.usherbrooke.ca/handle/11143/5069.

Texto completo da fonte
Resumo:
Nonobstant l'idée d'utiliser les ressources logicielles à des fins pédagogiques remonte à quelques décennies, le recours aux environnements informatiques d'apprentissage (EIA) dans l'enseignement et la formation constitue, actuellement, un axe d'intérêt qui ne cesse de croître. Néanmoins, si l'on souhaite concevoir des EIA pour enseigner des domaines complexes et qui soient dotés de mécanismes tutoriels susceptibles d'interagir avec des apprenants ayant différents niveaux d'intelligence et diverses capacités d'acquisition de connaissances, alors appréhender le processus de l'apprentissage humain et comprendre la manière de structurer et manipuler la connaissance durant ce processus est une tâche fondamentale. Incontestablement, modéliser et représenter le savoir est un objectif dont la réalisation constitue un véritable défi. Cette thèse présente une approche cognitive et computationelle de représentation de la connaissance des domaines d'apprentissage et celle des usagers apprenant au moyen des EIA. L'approche proposée s'inspire des recherches en intelligence artificielle sur la modélisation computationnelle pour la structuration et l'organisation de la connaissance et des théories de la psychologie cognitive qui offrent une modélisation fine de l'activité cognitive humaine et l'expliquent en termes de sous-systèmes de la mémoire et de leurs processus. L'hypothèse soutenue est que ces sous-systèmes et ces processus---simulés au sein d'un EIA---, parce qu'ils sont fortement similaires à ceux utilisés par un apprenant, facilitent, d'une part, l'identification de la connaissance acquise correcte et erronée, et suggèrent, d'autre part, la planification d'une séquence d'activités pédagogiques pour améliorer de manière significative le niveau cognitif de cet apprenant.
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Robinet, Vivien. "Modélisation cognitive computationnelle de l'apprentissage inductif de chunks basée sur la théorie algorithmique de l'information". Grenoble INPG, 2009. http://www.theses.fr/2009INPG0108.

Texto completo da fonte
Resumo:
Cette thèse présente un modèle cognitif computationnel de l’apprentissage inductif qui se base d’une part sur le MDL et d’autre part sur le mécanisme de chunking qui est à la base de nombreux modèles cognitifs. Le MDL est quant à lui utilisé comme formalisation du principe de simplicité. Il permet d’implémenter la notion de simplicité grâce au concept clairement défini de taille de codage. Les résultats théoriques correspondants peuvent être établis grâce à la complexité de Kolmogorov dont le MDL fournit une approximation calculable. Utilisant ces deux mécanismes, le modèle proposé est capable de générer automatiquement la représentation la plus courte d’un ensemble de stimuli discrets. Les représentations ainsi produites sont comparées à celles créées par des participants humains confrontés aux mêmes stimuli. Le but de cette thèse est d’évaluer à la fois les fondements théoriques et l’efficacité pratique du principe de simplicité dans le cadre de la modélisation cognitive
This thesis presents a computational cognitive model of inductive learning based both on the MDL and on the chunking mechanism. The chunking process is used as a basis for many computational cognitive models. The MDL principle is a formalisation of the simplicity principle. It implements the notion of simplicity through the well-defined concept of codelength. The theoretical results justifying the simplicity principle are established through the algorithmic information theory. The MDL principle could be considered as a computable approximation of measures defined in this theory. Using these two mechanisms the model automatically generates the shortest representation of discrete stimuli. Such a representation could be compared to those produced by human participants facing the same set of stimuli. Through the proposed model and experiments, the purpose of this thesis is to assess both the theoretical and the practical effectiveness of the simplicity principle for cognitive modeling
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Cohendet, Romain. "Prédiction computationnelle de la mémorabilité des images : vers une intégration des informations extrinsèques et émotionnelles". Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4033/document.

Texto completo da fonte
Resumo:
La mémorabilité des images est un sujet de recherche récent en vision par ordinateur. Les premières tentatives ont reposé sur l’utilisation d’algorithmes d’apprentissage pour inférer le degré de mémorabilité d’une image d’un ensemble de caractéristiques de bas niveau. Dans cette thèse, nous revenons sur les fondements théoriques de la mémorabilité des images, en insistant sur les émotions véhiculées par les images, étroitement liées à leur mémorabilité. En considération de cet éclairage théorique, nous proposons d’inscrire la prédiction de la mémorabilité des images dans un cadre de travail plus large, qui embrasse les informations intrinsèques mais également extrinsèques de l’image, liées à leur contexte de présentation et aux observateurs. En conséquence, nous construisons notre propre base de données pour l’étude de la mémorabilité des images ; elle sera utile pour éprouver les modèles existants, entraînés sur l’unique vérité terrain disponible jusqu’alors. Nous introduisons ensuite l’apprentissage profond pour la prédiction de la mémorabilité des images : notre modèle obtient les meilleures performances de prédiction à ce jour. En vue d’amender ces prédictions, nous cherchons alors à modéliser les effets contextuels et individuels sur la mémorabilité des images. Dans une dernière partie, nous évaluons la performance de modèles computationnels d’attention visuelle, de plus en plus utilisés pour la prédiction de la mémorabilité, pour des images dont le degré de mémorabilité et l’information émotionnelle varient. Nous présentons finalement le film interactif « émotionnel », qui nous permet d’étudier les liens entre émotion et attention visuelle dans les vidéos
The study of image memorability in computer science is a recent topic. First attempts were based on learning algorithms, used to infer the extent to which a picture is memorable from a set of low-level visual features. In this dissertation, we first investigate theoretical foundations of image memorability; we especially focus on the emotions the images convey, closely related to their memorability. In this light, we propose to widen the scope of image memorability prediction, to incorporate not only intrinsic, but also extrinsic image information, related to their context of presentation and to the observers. Accordingly, we build a new database for the study of image memorability; this database will be useful to test the existing models, trained on the unique database available so far. We then introduce deep learning for image memorability prediction: our model obtains the best performance to date. To improve its prediction accuracy, we try to model contextual and individual influences on image memorability. In the final part, we test the performance of computational models of visual attention, that attract growing interest for memorability prediction, for images which vary according to their degree of memorability and the emotion they convey. Finally, we present the "emotional" interactive movie, which enable us to study the links between emotion and visual attention for videos
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Najjar, Mohamed Mehdi. "Une approche cognitive computationnelle de représentation de la connaissance au sein des environnements informatiques d'apprentissage". [S.l. : s.n.], 2006.

Encontre o texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Faur, Caroline. "Approche computationnelle du regulatory focus pour des agents interactifs : un pas vers une personnalité artificielle". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS352/document.

Texto completo da fonte
Resumo:
L'essor de l'informatique affective ouvre aujourd'hui la porte à la création de dispositifs artificiels dotés d'une forme d'intelligence sociale et émotionnelle. L’étude de l'interaction homme-machine dans ce contexte offre de nombreuses pistes de recherche. Parmi celles-ci se trouve la question de la personnalité : comment il est possible de modéliser certaines caractéristiques d’une personnalité artificielle ? Comment ces caractéristiques influencent le déroulement de l'interaction entre l'homme et la machine ? Cette question globale soulève plusieurs questions de recherche : Comment définir la personnalité ? Sur quels modèles et théories issus de la psychologie peut-on s'appuyer pour développer une personnalité artificielle ? Quelle méthodologie adopter pour aborder l’implémentation d'un concept psychologique complexe ? Qu'apporte le développement informatique d'une personnalité à l'interaction homme-machine ? Au domaine de la psychologie de la personnalité ? Comment évaluer expérimentalement ces apports ? Pour aborder ces questions, nos travaux se positionnent dans une optique pluridisciplinaire, au croisement de l’informatique et de la psychologie. Au regard de sa pertinence pour une approche computationnelle, nous avons modélisé la régulation du Soi comme une composante de la personnalité. Ce concept est approché à partir de la théorie du regulatory focus. Sur cette base théorique, un cadre de travail conceptuel et un modèle computationnel sont proposés. Un questionnaire mesurant le regulatory focus a également été développé et validé. Ces propositions théoriques sont mises en œuvre dans deux implémentations data-driven (dimensionnelle vs socio-cognitive) dotant des agents de regulatory focus en utilisant de l’apprentissage automatique. Deux études utilisateurs (interaction unique avec agent artificiel vs sessions répétées avec agent animé), présentées dans un cadre ludique, ont permis d’étudier la perception du regulatory focus chez un agent et son impact sur l'interaction. Nos résultats encouragent l’utilisation du regulatory focus en informatique affective et ouvrent des perspectives sur les liens théoriques et méthodologiques entre informatique et psychologie
The development of affective computing is leading to the design of artificial devices endowed with a form of social and emotional intelligence. The study of human-computer interaction in this context offers many research tracks. Among them is the question of personality: how to model some characteristics of an artificial personality? How these characteristics will influence the course of interaction with users? This goal rises several research questions: how to define personality? On which models and theories from psychology should we rely to define some artificial personality? Which methodology will help to address the implementation of such a complex psychological concept? What could artificial personality bring to the field of human-computer interaction? And to the psychology of personality? How to experimentally evaluate these contributions? To address these issues, this thesis takes a multidisciplinary approach, at the crossing of computing science and psychology. Given its relevance to a computational approach, we modeled self-regulation as a component of personality. This concept is approached from the regulatory focus theory. On this theoretical basis, a conceptual framework and a computational model are proposed. Our theoretical proposals led to two data-driven implementations (dimensional vs. socio-cognitive) which endowed our artificial agents with regulatory focus by using machine-learning. A French questionnaire measuring regulatory focus was designed and validated. Two user studies (brief interaction with artificial agents vs. repeated sessions with animated agents), where the regulatory focus of agents is conveyed via game strategies, enabled the study of regulatory focus perception and its impact on the interaction. Our results support the use of regulatory focus in affective computing and open perspectives on the theoretical and methodological links between computer science and psychology
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Ahn, Yun-Kang. "L'analyse musicale computationnelle : rapport avec la composition, la segmentation et la représentation à l'aide de graphes". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00447778.

Texto completo da fonte
Resumo:
Ce travail est axé autour de l'analyse assistée par ordinateur, dans un cadre musicologique ciblant la musique contemporaine. Une approche computationnelle de l'analyse musicale pose la question de sa modélisation et de sa formalisation, puisque touchant à une activité souvent empirique et dont la pratique n'est pas définie à l'aide de normes communes. Cette question implique la mesure de l'importance de la représentation graphique dans l'interprétation analytique. Face au rôle croissant de la représentation, nous nous intéressons d'une part à la manière dont elle relie l'analyse et la composition en proposant, à partir d'une analyse connue des Structures IA de Pierre Boulez réalisée par le compositeur György Ligeti, des modèles de machinerie informatique en vue de générer des pièces musicales sous deux interfaces, OpenMusic et Rubato. Parmi ces deux environnements de programmation visuelle, le second se base sur un puissant paradigme mathématique reposant sur la théorie des catégories. Ce paradigme constitue également une base pour modéliser les K-réseaux, outil d'analyse reposant sur des graphes décrivant les relations entre les notes. Ces relations sont formalisées dans la Set Theory d'Allen Forte qui propose une méthode de classification des structures musicales à partir des douze hauteurs de la gamme chromatique occidentale. Une application de ces réseaux et plus généralement l'apport des structures de graphe est abordée ensuite dans la modélisation de l'analyse d'une autre pièce, le Klavierstück III de Karlheinz Stockhausen : cette analyse a été faite par le théoricien David Lewin en deux étapes que nous étudierons dans leurs aspects à la fois computationnel et d'interface-homme machine. En premier lieu, la segmentation, non expliquée par l'analyste, fait l'objet d'une reconstitution dans laquelle nous tentons de la retrouver par le biais d'une exploration dans un ensemble de segmentations possibles. Il s'agit ainsi non seulement de reconstituer mais également de voir s'il est possible de la dépasser et l'améliorer selon des critères comme la couverture de la partition. Nous verrons dans ce cadre si les K-réseaux peuvent affiner cette analyse et en constituer un angle d'attaque pertinent. En second lieu, Lewin organise ses segments selon un réseau qui ne suit plus un quelconque agencement chronologique mais une disposition spatiale qui offre un nouveau parcours de la pièce. Cette difficulté s'inscrit dans le contexte plus général de la sélection et de la formation d'un graphe décrivant la structure d'une oeuvre musicale, que nous envisageons à l'intérieur du problème de l'utilisation d'un réseau en analyse computationnelle.
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Ndiaye, Dieynaba. "Rôle des mitochondries dans la régulation des oscillations de calcium des hépatocytes : approches expérimentale et computationnelle". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00998301.

Texto completo da fonte
Resumo:
La signalisation calcique joue un rôle crucial dans la réponse des cellules aux signaux extracellulaires. Ces dernières années, les progrès des techniques de microscopie ont permis de montrer que l'organisation spatio-temporelle du signal calcique était un élément fondamental de la réponse des cellules. L'organisation temporelle du signal calcium se caractérise ainsi par l'observation d'oscillations de calcium dont la fréquence varie en fonction du stimulus. Pour de nombreux types cellulaires, et notamment pour les hépatocytes, modèle cellulaire de notre étude, l'amplitude et la fréquence des oscillations de calcium sont très régulières et finement régulées. Les nombreux facteurs qui interviennent pour assurer cette régulation rendent l'étude de ce processus difficile. Ceci explique que l'étude des oscillations de calcium est un des domaines dans lequel l'aspect expérimental est communément complété avec la modélisation mathématique.Parmi les nombreux éléments qui participent à la régulation du signal calcique, les mitochondries qui ont longtemps été considérées comme ayant un rôle passif, pourraient jouer un rôle important. En effet il a été établi que les mitochondries étaient capables d'accumuler de façon active le calcium libéré par le reticulum endoplasmique. Notre objectif a donc été d'étudier l'importance des mitochondries dans la régulation des oscillations de calcium dans les hépatocytes, et grâce à nos résultats expérimentaux, de mettre au point un modèle mathématique. Pour cela nous avons choisi de modifier la prise de calcium par les mitochondries en altérant le moins possible leur fonctionnement normal. Nous avons utilisé une protéine altérant directement la prise de calcium par les mitochondries (HINT 2) et une autre protéine altérant l'interaction entre le reticulum endoplasmique et les mitochondries (R-1). Nos résultats expérimentaux et computationnels démontrent que la protéine HINT 2 augmente l'activité de la chaine respiratoire, ce qui a pour effet d'accélérer l'accumulation de calcium par les mitochondries et d'augmenter la fréquence des oscillations de calcium cytosolique dans les hépatocytes. En effet le modèle élaboré permet à la fois de reproduire les observations expérimentales mais également de prédire avec succès que l'absence de la protéine Hint 2 rend les mitochondries plus sensibles à l'ouverture du pore de transition mitochondrial (mPTP). Nous avons également démontré que le R-1 n'affecte pas significativement la prise de calcium par les mitochondries mais que sa surexpression aboutit à une élévation de la concentration calcique de base des cellules hépatocytaires. A la lumière de nos résultats, cette élévation de la concentration de calcium basale semble être due à son interaction physique avec la pompe ATPase SERCA 2. Nos résultats nous ont permis de mettre en évidence à la fois la contribution des mitochondries dans la régulation des oscillations de calcium dans les hépatocytes grâce à la protéine Hint 2, mais aussi le lien direct entre la surexpression du R-1 et l'élévation de la concentration en calcium de base dans les cellules HepG2.
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Ahn, Yun-Kang. "L'analyse musicale computationnelle : rapport avec la composition, la segmentation et la représentation à l'aide des graphes". Paris 6, 2009. https://tel.archives-ouvertes.fr/tel-00447778.

Texto completo da fonte
Resumo:
Ce travail est axé autour de l'analyse assistée par ordinateur, dans un cadre musicologique ciblant la musique contemporaine. Une approche computationnelle de l'analyse musicale pose la question de sa modélisation et de sa formalisation, puisque touchant à une activité souvent empirique et dont la pratique n'est pas définie à l'aide de normes communes. Cette question implique la mesure de l'importance de la représentation graphique dans l'interprétation analytique. Face au rôle croissant de la représentation, nous nous intéressons d'une part à la manière dont elle relie l'analyse et la composition en proposant, à partir d'une analyse connue des Structures IA de Piere Boulez réalisée par le compositeur György Ligeti, des modèles de machinerie informatique en vue de générer des pièces musicales sous deux interfaces, OpenMusic et Rubato. Parmi ces deux environnements de programmation visuelle, le second se base sur un puissant paradigme mathématique reposant sur la théorie des catégories. Ce paradigme constitue également une base pour modéliser les K-réseaux, outil d'analyse reposant sur des graphes décrivant les relations entre les notes. Ces relations sont formalisées dans la Set Theory d'Allen Forte qui propose une méthode de classification des structures musicales à partir des douze hauteurs de la gamme chromatique occidentale. Une application de ces réseaux et plus généralement l'apport des structures de graphe est abordée ensuite dans la modélisation de l'analyse d'une autre pièce, le Klavierstück III de Karlheinz Stockhausen : cette analyse a été faite par le théoricien David Lewin en deux étapes que nous étudierons dans leurs aspects à la fois computationnel et d'interface-homme machine. En premier lieu, la segmentation, non expliquée par l'analyste, fait l'objet d'une reconstitution dans laquelle nous tentons de la retrouver par le biais d'une exploration dans un ensemble de segmentations possibles. Il s'agit ainsi non seulement de reconstituer mais également de voir s'il est possible de la dépasser et l'améliorer selon des critères comme la couverture de la partition. Nous verrons dans ce cadre si les K-réseaux peuvent affiner cette analyse et en constituer un angle d'attaque pertinent. En second lieu, Lewin organise ses segments selon un réseau qui ne suit plus un quelconque agencement chronologique mais une disposition spatiale qui offre un nouveau parcours de la pièce. Cette difficulté s'inscrit dans le contexte plus général de la sélection et de la formation d'un graphe décrivant la structure d'une oeuvre musicale, que nous envisageons à l'intérieur du problème de l'utilisation d'un réseau en analyse computationnelle.
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Chen, Dexiong. "Modélisation de données structurées avec des machines profondes à noyaux et des applications en biologie computationnelle". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM070.

Texto completo da fonte
Resumo:
Le développement d'algorithmes efficaces pour apprendre des représentations appropriées des données structurées, telles des sequences ou des graphes, est un défi majeur et central de l'apprentissage automatique. Pour atteindre cet objectif, l'apprentissage profond est devenu populaire pour modéliser des données structurées. Les réseaux de neurones profonds ont attiré une attention particulière dans divers domaines scientifiques tels que la vision par ordinateur, la compréhension du langage naturel ou la biologie. Par exemple, ils fournissent aux biologistes des outils de calcul qui leur permettent de comprendre et de découvrir les propriétés biologiques ou les relations entre les macromolécules des organismes vivants. Toutefois, leur succès dans ces domaines repose essentiellement sur des connaissances empiriques ainsi que d'énormes quantités de données annotées. Exploiter des modèles plus efficaces est nécessaire car les données annotées sont souvent rares.Un autre axe de recherche est celui des méthodes à noyaux, qui fournissent une approche systématique et fondée sur des principes théoriquement solides pour l'apprentissage de modèles non linéaires à partir de données de structure arbitraire. Outre leur simplicité, elles présentent une manière naturelle de contrôler la régularisation et ainsi d'éviter le surapprentissage.Cependant, les représentations de données fournies par les méthodes à noyaux ne sont définies que par des caractéristiques artisanales simplement conçues, ce qui les rend moins performantes que les réseaux de neurones lorsque suffisamment de données étiquetées sont disponibles. Des noyaux plus complexes, inspirés des connaissances préalables utilisées dans les réseaux de neurones, ont ainsi été développés pour construire des représentations plus riches et ainsi combler cette lacune. Pourtant, ils sont moins adaptatifs. Par comparaison, les réseaux de neurones sont capables d'apprendre une représentation compacte pour une tâche d'apprentissage spécifique, ce qui leur permet de conserver l'expressivité de la représentation tout en s'adaptant à une grande taille d'échantillon.Il est donc utile d'intégrer les vues complémentaires des méthodes à noyaux et des réseaux de neurones profonds pour construire de nouveaux cadres afin de bénéficier du meilleur des deux mondes.Dans cette thèse, nous construisons un cadre général basé sur les noyaux pour la modélisation des données structurées en tirant parti des connaissances préalables des méthodes à noyaux classiques et des réseaux profonds. Notre cadre fournit des outils algorithmiques efficaces pour l'apprentissage de représentations sans annotations ainsi que pour l'apprentissage de représentations plus compactes de manière supervisée par les tâches. Notre cadre peut être utilisé pour modéliser efficacement des séquences et des graphes avec une interprétation simple. Il offre également de nouvelles perspectives sur la construction des noyaux et de réseaux de neurones plus expressifs pour les séquences et les graphes
Developing efficient algorithms to learn appropriate representations of structured data, including sequences or graphs, is a major and central challenge in machine learning. To this end, deep learning has become popular in structured data modeling. Deep neural networks have drawn particular attention in various scientific fields such as computer vision, natural language understanding or biology. For instance, they provide computational tools for biologists to possibly understand and uncover biological properties or relationships among macromolecules within living organisms. However, most of the success of deep learning methods in these fields essentially relies on the guidance of empirical insights as well as huge amounts of annotated data. Exploiting more data-efficient models is necessary as labeled data is often scarce.Another line of research is kernel methods, which provide a systematic and principled approach for learning non-linear models from data of arbitrary structure. In addition to their simplicity, they exhibit a natural way to control regularization and thus to avoid overfitting.However, the data representations provided by traditional kernel methods are only defined by simply designed hand-crafted features, which makes them perform worse than neural networks when enough labeled data are available. More complex kernels inspired by prior knowledge used in neural networks have thus been developed to build richer representations and thus bridge this gap. Yet, they are less scalable. By contrast, neural networks are able to learn a compact representation for a specific learning task, which allows them to retain the expressivity of the representation while scaling to large sample size.Incorporating complementary views of kernel methods and deep neural networks to build new frameworks is therefore useful to benefit from both worlds.In this thesis, we build a general kernel-based framework for modeling structured data by leveraging prior knowledge from classical kernel methods and deep networks. Our framework provides efficient algorithmic tools for learning representations without annotations as well as for learning more compact representations in a task-driven way. Our framework can be used to efficiently model sequences and graphs with simple interpretation of predictions. It also offers new insights about designing more expressive kernels and neural networks for sequences and graphs
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Da, Silva Figueiredo Celestino Priscila. "Étude des mécanismes oncogéniques d'activation et de résistance des récepteurs tyrosine kinase de type III". Thesis, Cachan, Ecole normale supérieure, 2015. http://www.theses.fr/2015DENS0026/document.

Texto completo da fonte
Resumo:
Les récepteurs tyrosine kinase (RTKs) CSF-1R et KIT sont médiateurs importants de la signalisation cellulaire. Leur fonction basale est altérée par des mutations associées à divers types de cancer. Ces mutations modifient également leur sensibilité à l’imatinib, utilisé en clinique dans le traitement des cancers. Dans cette thèse, nos objectifs sont (i) étudier les effets structuraux et dynamiques induits par la mutation D802V chez CSF-1R; (ii) caractériser l’affinité de l’imatinib aux formes sauvages (WT) et mutés de KIT (V560G, S628N et D816V) et CSF-1R (D802V). Par simulations de Dynamique Moléculaire (DM), nous avons montré que la mutation D802V interrompt la communication allostérique entre la boucle d’activation et le domaine auto-inhibiteur juxtamembranaire (JMR). Néanmoins, cette rupture n’est pas suffisante pour induire le départ du JMR. L’effet subtil de la mutation chez CSF-1R a été attribué aux différences de séquence primaire entre KIT et CSF-1R dans la région du JMR. L’affinité de l’imatinib aux différentes cibles a été calculée par simulations de docking, DM et calculs d’énergie de liaison. Les interactions électrostatiques constituent la force motrice de la résistance, les mutations D802/816V étant les plus délétères en termes d’énergie. Comme conclusion générale, nous avons établi que la mutation D802V chez CSF-1R n’entraine pas les mêmes effets structuraux provoqués par la mutation D816V chez KIT. En outre, l’étude des deux récepteurs dans leurs formes WT et mutés complexés avec l’imatinib indiquent que le changement structural induit par les mutations associé aux interactions électrostatiques avec le ligand expliqueraient le phénomène de résistance
The receptors tyrosine kinase (RTKs) CSF-1R and KIT are important mediators of signal transduction. Their normal function is altered by gain-of-function mutations associated with cancer diseases. A secondary effect of the mutations is the alteration of receptors’ sensitivity imatinib, employed in cancer treatment. Our goals in this thesis consist of (i) study the structural and dynamical effects induced by the D802V mutation in CSF-1R; (ii) characterize imatinib’s affinity to the wild-type (WT) and mutant forms of KIT (V560G, S628N and D816V) and CSF-1R (D802V). By means of molecular dynamics (MD) simulations, we have shown that the D802V mutation disrupts the allosteric communication between the activation loop and the auto-inhibitory juxtamembrane (JMR) domain. However, this rupture is not sufficient to induce the JMR’s departure. The subtle effect of this mutation in CSF-1R was associated with differences in the primary sequence between CSF-1R and KIT in the JMR region. The affinity of imatinib to the different targets was estimated by docking, DM and binding energy calculations. The electrostatic interactions showed to be the main force driving the resistance, with mutations D802/816V being the most deleterious in energy contribution. As a general conclusion, we have established that the D802V mutation in CSF-1R does not provoke the same structural effects as its equivalent in KIT. In addition, the study of both receptors in their WT and mutant forms complexed with imatinib indicate that the conformational changes induced by the mutations allied to the electrostatic interactions with the ligand could explain the resistance phenomena
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Aliakbari, khoei Mina. "Une approche computationnelle de la dépendance au mouvement du codage de la position dans la système visuel". Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4041/document.

Texto completo da fonte
Resumo:
Cette thèse est centralisée sur cette question : comment est-ce que le système visuel peut coder efficacement la position des objets en mouvement, en dépit des diverses sources d'incertitude ? Cette étude déploie une hypothèse sur la connaissance a priori de la cohérence temporelle du mouvement (Burgi et al 2000; Yuille and Grzywacz 1989). Nous avons ici étendu le cadre de modélisation précédemment proposé pour expliquer le problème de l'ouverture (Perrinet and Masson, 2012). C'est un cadre d'estimation de mouvement Bayésien mis en oeuvre par un filtrage particulaire, que l'on appelle la prévision basé sur le mouvement (MBP). Sur cette base, nous avons introduit une théorie du codage de position basée sur le mouvement, et étudié comment les mécanismes neuronaux codant la position instantanée de l'objet en mouvement pourraient être affectés par le signal de mouvement le long d'une trajectoire. Les résultats de cette thèse suggèrent que le codage de la position basé sur le mouvement peut constituer un calcul neuronal générique parmi toutes les étapes du système visuel. Cela peut en partie compenser les effets cumulatifs des délais neuronaux dans le codage de la position. En outre, il peut expliquer des changements de position basés sur le mouvement, comme par example, l'Effect de Saut de Flash. Comme un cas particulier, nous avons introduit le modèle de MBP diagonal et avons reproduit la réponse anticipée de populations de neurones dans l'aire cortical V1. Nos résultats indiquent qu'un codage en position efficace et robuste peut être fortement dépendant de l'intégration le long de la trajectoire
Coding the position of moving objects is an essential ability of the visual system in fulfilling precise and robust tracking tasks. This thesis is focalized upon this question: How does the visual system efficiently encode the position of moving objects, despite various sources of uncertainty? This study deploys the hypothesis that the visual systems uses prior knowledge on the temporal coherency of motion (Burgi et al 2000; Yuille and Grzywacz 1989). We implemented this prior by extending the modeling framework previously proposed to explain the aperture problem (Perrinet and Masson, 2012), so-called motion-based prediction (MBP). This model is a Bayesian motion estimation framework implemented by particle filtering. Based on that, we have introduced a theory on motion-based position coding, to investigate how neural mechanisms encoding the instantaneous position of moving objects might be affected by motion. Results of this thesis suggest that motion-based position coding might be a generic neural computation among all stages of the visual system. This mechanism might partially compensate the accumulative and restrictive effects of neural delays in position coding. Also it may account for motion-based position shifts as the flash lag effect. As a specific case, results of diagonal MBP model reproduced the anticipatory response of neural populations in the primary visual cortex of macaque monkey. Our results imply that an efficient and robust position coding might be highly dependent on trajectory integration and that it constitutes a key neural signature to study the more general problem of predictive coding in sensory areas
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Carpentier, Grégoire. "Approche computationnelle de l'orchestration musciale - Optimisation multicritère sous contraintes de combinaisons instrumentales dans de grandes banques de sons". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00417606.

Texto completo da fonte
Resumo:
De toutes les composantes de l'écriture musicale, l'orchestration - ou l'art d'assembler les timbres instrumentaux - est longtemps demeurée, dans son enseignement comme dans sa pratique, une activité empirique. La difficulté de formaliser de manière rigoureuse l'ensemble des techniques inhérentes à cette discipline fait qu'aujourd'hui encore, l'orchestration reste un domaine peu abordé par l'informatique musicale et l'aide à la composition.

Les rares outils actuels ramènent le problème de l'orchestration à la découverte, au sein de banques d'échantillons sonores instrumentaux, de combinaisons approchant au mieux un timbre fixé par le compositeur. Cette approche sera également la nôtre. Mais là où les méthodes actuelles contournent systématiquement le problème combinatoire de l'orchestration par le recours à des principes de décomposition ou à des algorithmes de matching pursuit, l'originalité de notre démarche est de placer les enjeux combinatoires au coeur de nos travaux et de traiter l'orchestration à la mesure de sa complexité.

Envisageant tout d'abord la question comme un problème de sac à dos multi-objectifs, nous montrons que les non-linéarités dans les modèles de perception du timbre imposent un cadre théorique plus large pour l'aide à l'orchestration. Nous proposons une formalisation générique et extensible en nous plaçant dans un cadre de recherche combinatoire multicritère sous contraintes, dans lequel plusieurs dimensions perceptives sont optimisées conjointement pour approcher un timbre cible défini par le compositeur.
Nous validons dans un premier temps notre approche théorique en montrant, sur un ensemble de problèmes de petite taille et pour une caractérisation exclusivement spectrale du timbre, que les solutions du problème formel correspondent à des propositions d'orchestration pertinentes. Nous présentons alors un algorithme évolutionnaire permettant de découvrir en un temps raisonnable un ensemble de solutions optimales. S'appuyant sur la prédiction des propriétés acoustiques des alliages instrumentaux, cette méthode propose des solutions d'orchestration en fonction de critères perceptifs et encourage ainsi la découverte de mélanges de timbres auxquels le savoir et l'expérience n'auraient pas nécessairement conduit.
En outre, la recherche peut-être à tout moment orientée dans une direction privilégiée. Parallèlement, nous définissons un cadre formel pour l'expression de contraintes globales et introduisons une métaheuristique innovante de résolution, permettant de guider la recherche vers des orchestrations satisfaisant un ensemble de propriétés symboliques en lien direct avec l'écriture musicale.

Nous présentons enfin un prototype expérimental d'outil d'aide à l'orchestration utilisable directement par les compositeurs, dans lequel l'exploration des possibilités de timbres est facilitée à travers une représentation multi-points de vue des solutions et un mécanisme interactif des préférences d'écoute. Nous terminons avec une série d'exemples d'application de nos travaux à des problèmes compositionnels concrets.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia