Dissertations / Theses on the topic 'Sous-espace de réseau de neurones'

To see the other types of publications on this topic, follow the link: Sous-espace de réseau de neurones.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 31 dissertations / theses for your research on the topic 'Sous-espace de réseau de neurones.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gaya, Jean-Baptiste. "Subspaces of Policies for Deep Reinforcement Learning." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail explore les "Sous-espaces de politiques pour l'apprentissage par renforcement profond", introduisant une approche novatrice pour relever les défis d'adaptabilité et de généralisation dans l'apprentissage par renforcement profond (RL). Situé dans le contexte plus large de la révolution de l'IA, cette recherche met l'accent sur la transition vers des modèles évolutifs et généralisables en RL, inspirée par les avancées des architectures et méthodologies d'apprentissage profond. Elle identifie les limites des applications actuelles de RL, notamment pour atteindre une généralisation à travers diverses tâches et domaines, proposant un changement de paradigme vers des méthodes adaptatives. La recherche aborde d'abord la généralisation zero-shot, évaluant la maturité de l'apprentissage profond par renforcement pour généraliser à des tâches inédites sans entraînement supplémentaire. À travers des investigations sur la généralisation morphologique et l'apprentissage par renforcement multi-objectif (MORL), des limitations critiques des méthodes actuelles sont identifiées, et de nouvelles approches pour améliorer les capacités de généralisation sont introduites. Notamment, les travaux sur le moyennage des poids en MORL présentent une méthode simple pour optimiser plusieurs objectifs, montrant un potentiel prometteur pour une exploration future.La contribution principale réside dans le développement d'un cadre de "Sous-espaces de politiques". Cette approche novatrice préconise le maintien d'un paysage dynamique de solutions dans un espace paramétrique plus petit, tirant profit du moyennage des poids des réseaux de neurones. Une diversité fonctionnelle est obtenue avec un minimum de surcharge computationnelle grâce à l'interpolation des poids entre les paramètres des réseaux de neurones. Cette méthodologie est explorée à travers diverses expériences et contextes, y compris l'adaptation few-shot et l'apprentissage par renforcement continu, démontrant son efficacité et son potentiel d'évolutivité et d'adaptabilité dans des tâches RL complexes.La conclusion revient sur le parcours de la recherche, soulignant les implications du cadre des "Sous-espaces de politiques" pour les futures recherches en IA. Plusieurs directions futures sont esquissées, notamment l'amélioration de l'évolutivité des méthodes de sous-espaces, l'exploration de leur potentiel dans des contextes décentralisés, et la prise en compte des défis en matière d'efficacité et d'interprétabilité. Cette contribution fondamentale au domaine du RL ouvre la voie à des solutions innovantes pour relever les défis de longue date en matière d'adaptabilité et de généralisation, marquant une étape significative vers le développement d'agents autonomes capables de naviguer de manière transparente dans un large éventail de tâches
This work explores "Subspaces of Policies for Deep Reinforcement Learning," introducing an innovative approach to address adaptability and generalization challenges in deep reinforcement learning (RL). Situated within the broader context of the AI revolution, this research emphasizes the shift toward scalable and generalizable models in RL, inspired by advancements in deep learning architectures and methodologies. It identifies the limitations of current RL applications, particularly in achieving generalization across varied tasks and domains, proposing a paradigm shift towards adaptive methods.The research initially tackles zero-shot generalization, assessing deep RL's maturity in generalizing across unseen tasks without additional training. Through investigations into morphological generalization and multi-objective reinforcement learning (MORL), critical limitations in current methods are identified, and novel approaches to improve generalization capabilities are introduced. Notably, work on weight averaging in MORL presents a straightforward method for optimizing multiple objectives, showing promise for future exploration.The core contribution lies in developing a "Subspace of Policies" framework. This novel approach advocates for maintaining a dynamic landscape of solutions within a smaller parametric space, taking profit of neural network weight averaging. Functional diversity is achieved with minimal computational overhead through weight interpolation between neural network parameters. This methodology is explored through various experiments and settings, including few-shot adaptation and continual reinforcement learning, demonstrating its efficacy and potential for scalability and adaptability in complex RL tasks.The conclusion reflects on the research journey, emphasizing the implications of the "Subspaces of Policies" framework for future AI research. Several future directions are outlined, including enhancing the scalability of subspace methods, exploring their potential in decentralized settings, and addressing challenges in efficiency and interpretability. This foundational contribution to the field of RL paves the way for innovative solutions to long-standing challenges in adaptability and generalization, marking a significant step forward in the development of autonomous agents capable of navigating a wide array of tasks seamlessly
2

Kirchhofer, Simon. "Conception d'une prothèse bio-inspirée commandée par réseaux de neurones exploitant les signaux électromyographiques." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC058.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement de prothèses du membre supérieur est couramment divisé en deux parties : la conception mécatronique de la prothèse et l'interface homme-machine dédiée à la commande. L'objectif de cette thèse est de rapprocher ces deux domaines afin de mieux les assortir. Une première étape concerne l'acquisition et le traitement des signaux de commande. Ainsi, une base de données comprenant des signaux électromyographiques et des coordonnées articulaires mesurées par vision par ordinateur a été réalisée. Un réseau de neurones artificiels réalise ensuite la reconstruction de la position de la main par exploitation des séquences électromyographiques. Une architecture de main sous-actionnée bio-inspirée est alors proposée afin de reproduire la cinématique de la main en garantissant une répartition de l'effort de préhension. Cette nouvelle approche consiste à optimiser l'imitation des synergies de la main liées à la saisie, permettant ainsi une commande plus naturelle pour les utilisateurs de prothèses actives
Research on upper-body prosthetic device is commonly divided in two categories: The prosthesis mechatronic conception and the human-machine interface dedicated to the control. This PhD thesis aims to bring together these two fields of research. The first step deals with control signals. Thus, a database containing electromyographic sequences and vision based joint coordinate measurements was created. Then, an artificial neural network achieves the motion estimation from electromyographic sequences. Accordingly, an under-actuated bio-inspired hand architecture is proposed to copy an organic hand motion while ensuring a grasping force distribution. This innovative approach allows to optimize the synergies imitation and proposes a control more intuitive for active prosthesis users
3

Tzvetanov, Tzvetomir. "Etude psychophysique et modélisation des traitements de bas niveau sous-tendant la vision des contours des objets." Phd thesis, Université Louis Pasteur - Strasbourg I, 2003. http://tel.archives-ouvertes.fr/tel-00004179.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les mécanismes de formation des contours sont connus pour avoir des propriétés fonctionnelles différentes. Une étude de l'intégration de l'information spatiale entre éléments de lignes coaxiaux a été effectuée. Deux régimes sont présents, différenciés à partir d'une séparation spatiale d'environ un quart de degré d'angle visuel : les régimes courte et longue distance. Le premier a été intensivement étudié, contrairement au deuxième. En utilisant une approche expérimentale et par modélisation, les caractéristiques fonctionnelles du régime longue distance ont été mesurées et attribuées en partie à l'aire visuelle primaire de l'Homme. Les expériences ont permis d'obtenir les différentes caractéristiques psychophysiques. Avec des stimuli de polarités positives, le régime courte distance a pour limites spatiales 0 et un tiers de degré, et est sensible à l'intensité de l'inducteur (Expérience 1). Le régime longue distance a pour limites spatiales un tiers de degré et 2,5 degrés, et n'est pas sensible à l'intensité de l'inducteur (Expérience 1). Le régime longue distance semble être de manière générale facilitateur pour la détection de la cible (Expérience 2 et 5), quelles que soient la polarité et l'intensité de l'inducteur. Par contre, des différences entre polarités opposées et identiques des stimuli sont présentes pour ce régime. Les interactions OFF-vers-ON sont de manière générale beaucoup moins facilitatrices que les autres interactions dans le régime longue distance (Expérience 2 et 5). La luminance du fond sur lequel sont présentés les stimuli semblait intervenir dans les interactions (Expérience 2), mais l'étude contrôle sur des sujets naïfs n'a pas montré d'effet du fond (Expérience 5). En fonction de la séparation spatiale entre les deux stimuli, il est possible d'obtenir une interaction entre les deux régimes si le stimulus inducteur est placé de manière à ce que les deux régimes soient en compétition pour la détection de la cible (Expérience 3). Pour des polarités positives des stimuli, le régime longue distance s'est avéré posséder une plasticité visuelle spécifique à la direction d'alignement des stimuli (Expérience 4) : la direction verticale a montré une augmentation des seuils de détection des sujets au début des expériences, et la direction horizontale une diminution des seuils de détection des sujets au début des expériences. Par la suite, nous avons tenté de modéliser ces résultats expérimentaux au moyen du modèle LAMINART. Ce modèle simule certaines propriétés fonctionnelles des neurones du cortex visuel primaire (V1). Celui-ci permet de reproduire de manière globale les effets dus aux polarités, mais ne semble pas être sensible au facteur "séparation spatiale". Les résultats de cette thèse soutiennent l'idée que les deux régimes d'intégration de l'information spatiale d'iso-orientation sont principalement présents dans le cortex visuel primaire de l'Homme.
4

Ouss, Etienne. "Caractérisation des décharges partielles et identification des défauts dans les PSEM sous haute tension continue." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEC024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s’inscrit dans le contexte de la surveillance des postes sous enveloppe métallique (PSEM) en courant continu (DC). La disponibilité de ces équipements étant primordiale pour leurs utilisateurs, il est nécessaire de disposer d’un outil de surveillance (monitoring) permettant de prévenir toute défaillance. Cet outil doit être capable de détecter et d’identifier les défauts présents, afin d’apporter une réponse adaptée. Depuis de nombreuses années, le monitoring des PSEM en AC est réalisé grâce à la mesure des décharges partielles (DP). Malheureusement, les connaissances des DP dans les PSEM en DC sont encore lacunaires, et les techniques d’identification des défauts sont intrinsèquement liées à l’environnement AC. De nouvelles techniques sont donc nécessaires en DC.Ce travail de thèse avait pour but de caractériser les décharges partielles dans les postes sous enveloppe métallique en tension continue, et de mettre en place une solution de reconnaissance automatique des défauts. Pour cela, un banc de mesure des décharges partielles a d’abord été mis en place. Afin de garantir la pertinence des résultats pour des systèmes industriels, les travaux ont été réalisés dans une section de PSEM sous tension continue. Le comportement des DP a été étudié pour deux types de défauts : des pointes sur le conducteur haute-tension et des particules libres métalliques. La caractérisation a porté sur l’influence de plusieurs paramètres : la nature et la pression du gaz, le niveau et la polarité de la tension. La mesure des DP a d’abord été réalisée en conformité avec la norme IEC 60270, permettant ainsi d’évaluer la pertinence de cette méthode pour les applications DC. La caractérisation a été complétée grâce à d’autres chaînes de mesure : une mesure de courant stationnaire, une mesure de courant haute-fréquence, une mesure de lumière, et une mesure des ondes ultra-haute fréquence (UHF). Le travail sur l’identification des défauts a d’abord consisté à construire une signature pertinente à partir des mesures de DP, puis à constituer une base de données, et enfin à implémenter un algorithme de reconnaissance automatique.Ces travaux ont montré que la méthode conventionnelle de mesure des DP présente certaines limites pour la détection des décharges partielles en DC, notamment pour les décharges couronne. Elle a tout de même permis de faire une bonne partie du travail de caractérisation. Les résultats obtenus avec les autres chaînes de mesure utilisées ont permis d’expliquer les lacunes de la méthode conventionnelle. Ils ont également permis un véritable apport pour la caractérisation des DP engendrées par des défauts de type pointe et particule. Enfin, une classification automatique efficace des défauts a été mise en place. Elle s’appuie sur le diagramme q(Δt) issu des données de la mesure conventionnelle des décharges partielles et sur un algorithme de réseau de neurones
The framework of this thesis is the monitoring of High-Voltage, Direct Current (HVDC) Gas-Insulated Substations (GIS). The availability of these equipment is crucial for electrical networks operators. That is why they need a preventive diagnosis tool. The solution must be able to detect and identify the insulation defects, so that an appropriate maintenance can be planned. The last 40 years have seen Partial Discharges (PD) measurement become a classic monitoring tool for AC GIS. Unfortunately, there is a lack of scientific information about PD in HVDC GIS, and the known defect identification techniques are very specific to the AC environment. New techniques are thus needed in DC.This thesis aimed to characterize partial discharges in DC gas-insulated substations, and to develop an automatic defect identification tool. The first step of this work was the development of a partial discharge measuring bench. The complete study has been performed in a GIS section, so that the results can be directly applied to industrial equipment. Two kinds of defect have been investigated: protrusions on the high-voltage conductor, and free metallic particles. The influence of parameters such as gas nature and pressure, voltage level and polarity has been evaluated. First, PD have been measured in conformity with the IEC 60270 standard, and the relevance of this method in a DC environment has been evaluated. Then, other measuring chains have been used to improve the characterization of partial discharges: a steady-state current measurement, a high-frequency current measurement, a light measurement and a measurement of Ultra-High Frequency (UHF) waves. Finally, a relevant signature for defect identification has been designed and extracted from DP recordings. A database has been constituted, and an automated recognition algorithm has been implemented.The results show that the conventional PD measurement technique is not fully adapted to partial discharges detection in DC, corona discharges being the most problematic situation. Nevertheless, this method has brought enough information to start the characterization of PD. The limitations of the conventional method have been explained thanks to the results of the other measurements. These other experimental results have led to an actual improvement of the characterization of protrusion and particle-generated partial discharges. An effective automated defect classification solution has been implemented. The signature is derived from the q(Δt) diagram that has been extracted from the data obtained with the partial discharge conventional measurement. The identification algorithm has a neural network structure
5

Dariouchy, Abdelilah. "Utilisation des réseaux de neurones artificiels en diffusion acoustique et en agriculture sous serres." Le Havre, 2008. http://www.theses.fr/2008LEHA0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, les Réseaux de Neurones Artificiels (RNA) sont utilisés comme une nouvelle approche de modélisation et de prédiction de processus dans différents domaines : le contrôle non destructif par ultrasons ou la programmation des conditions optimales d'une serre agricole. Cette étude est consacrée au développement des modèles capables de prédire les fréquences réduites de coupure et les fonctions de formes pour des tubes immergés dans l'eau et prédire le spectre acoustique rétrodiffusé par deux plaques soudées d'une part, et d'autre part, prédire les séries temporelles de la température interne et de l'humidité interne de la serre de tomate dans une région semi-aride. Pour valider nos résultats, la représentation temps-fréquence de Wigner-Ville est utilisée pour comparer la fonction de forme calculée par la méthode analytique classique et celle prédite par RNA. La maîtrise des modèles de RNA nous permet à présent d'envisager d’autres applications suivant les demandes
This study is devoted to the models development able to predict the reduced cut-off frequencies and the forms functions for submerged tubes in water and to predict the acoustic spectrum retrodiffused by two welded plates on the one hand, and on the other hand, to predict the time series of the internal temperature and the internal moisture of the tomato greenhouse in a semi-arid area. To validate our results, the representation time-frequency of Wigner-Ville is used to compare the form function calculated by the traditional analytical method and that predicted by ANN. The control of the ANN models allows us now to consider other applications according to the requests
6

Demartines, Pierre. "Analyse de données par réseaux de neurones auto-organisés." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0129.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Chercher a comprendre des donnees, c'est souvent chercher a trouver de l'information cachee dans un gros volume de mesures redondantes. C'est chercher des dependances, lineaires ou non, entre les variables observees pour pouvoir resumer ces dernieres par un petit nombre de parametres. Une methode classique, l'analyse en composantes principales (acp), est abondamment employee dans ce but. Malheureusement, il s'agit d'une methode exclusivement lineaire, qui est donc incapable de reveler les dependances non lineaires entre les variables. Les cartes auto-organisantes de kohonen sont des reseaux de neurones artificiels dont la fonction peut etre vue comme une extension de l'acp aux cas non-lineaires. L'espace parametrique est represente par une grille de neurones, dont al forme, generaleent carree ou rectangulaire, doit malheureusement etre choisie a priori. Cette forme est souvent inadaptee a celle de l'espace parametriue recherche. Nous liberons cette contrainte avec un nouvel algorithme, nomme vector quantization and projection (vqp), qui est une sorte de carte auto-organisante dont l'espace de sortie est continu et prend automatiquement la forme adequate. Sur le plan mathematique, vqp peut etre defini comme la recherche d'un diffeomorphisme entre l'espace brute des donnees et un espace parametrique inconnu a trouver. Plus intuitivement, il s'agit d'un depliage de la structure des donnees vers un espace de plus petite dimension. Cette dimension, qui correspond au nombre de degres de liberte du phenomene etudie, peut etre determinee par des methodes d'analyse fractale du nuage de donnees. Afin d'illustrer la generalite de l'approche vqp, nous donnons une serie d'exemples d'applications, simulees ou reelles, dans des domaines varies qui vont de la fusion de donnees a l'appariement de graphes, en passant par l'analyse ou la surveillance de procedes industriels, la detection de defauts dans des machines ou le routage adaptatif en telecommunications
7

Incerti, Sébastien. "Mesure de la fonction de structure polarisée g1n du neutron par l'expérience E154 au SLAC." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 1998. http://tel.archives-ouvertes.fr/tel-00002876.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse décrit la mesure précise de la fonction de structure polarisée g1n du neutron menée par la collaboration E154 à l'automne 1995 auprès de l'accélérateur linéaire de Stanford aux Etats-Unis, par diffusion profondément inélastique inclusive d'un faisceau d'électrons polarisé de 48.3 GeV sur une cible d'Hélium 3 polarisée. Les électrons diffusés ont été détectés par deux spectromètres permettant de couvrir le domaine cinématique en x Bjorken : 0.014 < x < 0.7 et en quadritransfert carré : 1 GeV2 < Q2 < 17 GeV2 à une valeur moyenne Q2 = 5 GeV2. Deux calorimètres électromagnétiques pris en charge par le LPC de Clermont-Ferrand et le SphN du CEA-Saclay ont été utilisés pour déterminer l'énergie des électrons diffusés et pour rejeter le bruit de fond hadronique. Pour cela, nous avons développé un automate cellulaire et un réseau de neurones, largement décrits dans ce manuscrit. L'analyse de la mesure de la fonction de structure g1n menée à Clermont-Fd et exposée dans ce manuscrit nous a conduit à l'intégrale sur la région mesurée : intégrale (g1n(x)dx, xmin=0.0135, xmax=0.7) = -0.03 +- 0.003 STAT +- 0.004 SYST +- 0.001 EVOL à Q2 = 5 GeV2 où nous avons fait évoluer nos mesures vers Q2 = 5 GeV2 à l'aide des équations d'évolution DGLAP à l'ordre sous-dominant en utilisant une paramétrisation mondiale des distributions de partons polarisées. La règle de somme d'Ellis et Jaffe sur le neutron est clairement violée par nos mesures. Pour les différents extrapolations envisagées à bas x, notre intégrale est compatible avec la règle de somme de Bjorken. Nous avons estimé la contribution du spin des quarks au spin du nucléon à DelatSigma = 29 ± 6 % dans le schéma MS barre et à DeltaSigma = 37 ± 7 % dans le schéma AB, à Q2 = 5 GeV2. La contribution du spin des gluons au spin du nucléon semble positive et comprise entre 0 et 2 à cette échelle.
8

Jouini, Manel. "Reconstruction des images couleur de l'eau sous les nuages : recours à des méthodes neuronales." Paris 6, 2011. http://www.theses.fr/2011PA066508.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Giovannini, Francesco. "Modélisation mathématique pour l'étude des oscillations neuronales dans des réseaux de mémoire hippocampiques pendant l'éveil et sous anesthésie générale." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0182/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La mémoire est communément définie comme la capacité de coder, stocker et rappeler les informations que nous avons perçues. Lorsque nous traversons le monde, nous ressentons des stimuli, nous assistons à des événements, nous constatons des faits, nous étudions des concepts et nous acquérons des compétences. Bien que la mémoire soit un comportement humain inné et familier, les mécanismes cérébraux qui nous fournissent de telles facultés sont loin d'être compris. Des études expérimentales ont montré que, lors des tâches de mémoire, certaines structures cérébrales présentent une activité synchrone qui est censée être corrélée avec le maintien à court terme des stimuli saillants. L'objectif de cette thèse est d'utiliser la modélisation mathématique biologiquement inspirée et des simulations d'activité neuronale pour éclairer les mécanismes permettant l'émergence de ces oscillations synchrones liées à la mémoire. Nous nous concentrons en particulier sur l'activité mnémonique de l'hippocampe pendant l'état éveillé, et l'amnésie et la consolidation inattendue de la mémoire sous anesthésie générale. Nous commençons par présenter un modèle détaillé de neurone pyramidal qui se trouve couramment dans les zones CA3 et CA1 de l'hippocampe. Stimulé par une courte impulsion de courant, le neurone produit une activité persistante maintenue pour de longues périodes (> 30s) au-delà du stimulus uniquement par des récepteurs calciques non spécifiques (CAN). Les paramètres du modèle sont dérivés des enregistrements in vitro de neurones hippocampiques réalisés par nos collaborateurs Beate Knauer et Motoharu Yoshida à l'Université de la Ruhr à Bochum, en Allemagne. Par la suite, nous étudions la dynamique d'une population de ces neurones pyramidaux-CAN interconnectés. Nous supposons que les réseaux de neurones à tir persistant pourraient fournir le mécanisme neuronale pour la maintenance des oscillations hippocampiques mnésiques. Nos résultats montrent que le réseau génère une activité oscillante auto-soutenue dans la fréquence thêta. Lors de la connexion du réseau pyramidal-CAN à des interneurones inhibiteurs, la dynamique du modèle révèle que l'inhibition rétroactive améliore la robustesse des oscillations thêta rapides, en resserrant la synchronisation des neurones pyramidaux. Nous démontrons que, dans le modèle, la fréquence et la puissance spectrale des oscillations sont modulées uniquement par le courant CAN, permettant une large gamme de fréquences d'oscillation dans la bande theta. Il s'agit d'un mécanisme biologiquement plausible pour la maintenance des oscillations thêta synchrones dans l'hippocampe qui vise à étendre les modèles traditionnels d'activité rythmique hippocampique entraînée par le septum. En outre, nous présentons une étude approfondie des effets perturbateurs de l'anesthésie générale sur les oscillations gamma dans l'hippocampe. Nous introduisons un nouveau modèle qui prend en compte les quatre principaux effets de l'agent anesthésique propofol sur les récepteurs GABAA. Nos résultats indiquent que l'inhibition tonique médiée par le propofol contribue à améliorer la synchronisation du réseau dans un réseau d'interneurones de l'hippocampe. Cette synchronisation améliorée pourrait fournir une explication possible pour l'apparition d'une conscience intra-opératoire, d'une formation explicite de la mémoire et même d'une excitation paradoxale sous anesthésie générale, en facilitant la communication entre structures cérébrales qui ne devraient pas être autorisées à le faire lorsqu'elles sont anesthésiées. En conclusion, les résultats décrits dans cette thèse fournissent de nouvelles idées sur les mécanismes sous-jacents de l'activité neuronale mnémonique, à la fois au cours du réveil et de l'anesthésie, en ouvrant des voies convaincantes pour les travaux futurs sur les applications cliniques qui s'attaquent aux maladies de la mémoire neurodégénératives et la surveillance de l'anesthésie
Memory is commonly defined as the ability to encode, store, and recall information we perceived. As we experience the world, we sense stimuli, we witness events, we ascertain facts, we study concepts, and we acquire skills. Although memory is an innate and familiar human behaviour, the interior workings of the brain which provide us with such faculties are far from being fully unravelled. Experimental studies have shown that during memory tasks, certain brain structures exhibit synchronous activity which is thought to be correlated with the short-term maintenance of salient stimuli. The objective of this thesis is to use biologically-inspired mathematical modelling and simulations of neural activity to shed some light on the mechanisms enabling the emergence of these memory-related synchronous oscillations. We focus in particular on hippocampal mnemonic activity during the awake state, and the amnesia and paradoxical memory consolidation occurring under general anaesthesia. We begin by introducing a detailed model of a type of persistent-firing pyramidal neuron commonly found in the CA3 and CA1 areas of the hippocampus. Stimulated with a brief transient current pulse, the neuron displays persistent activity maintained solely by cholinergic calcium-activated non-specific (CAN) receptors, and outlasting the stimulus for long delay periods (> 30s). Our model neuron and its parameters are derived from experimental in-vitro recordings of persistent firing hippocampal neurons carried out by our collaborators Beate Knauer and Motoharu Yoshida at the Ruhr University in Bochum, Germany. Subsequently, we turn our attention to the dynamics of a population of such interconnected pyramidal-CAN neurons. We hypothesise that networks of persistent firing neurons could provide the neural mechanism for the maintenance of memory-related hippocampal oscillations. The firing patterns elicited by this network are in accord with both experimental recordings and modelling studies. In addition, the network displays self-sustained oscillatory activity in the theta frequency. When connecting the pyramidal-CAN network to fast-spiking inhibitory interneurons, the dynamics of the model reveal that feedback inhibition improves the robustness of fast theta oscillations, by tightening the synchronisation of the pyramidal CAN neurons. We demonstrate that, in the model, the frequency and spectral power of the oscillations are modulated solely by the cholinergic mechanisms mediating the intrinsic persistent firing, allowing for a wide range of oscillation rates within the theta band. This is a biologically plausible mechanism for the maintenance of synchronous theta oscillations in the hippocampus which aims at extending the traditional models of septum-driven hippocampal rhythmic activity. In addition, we study the disruptive effects of general anaesthesia on hippocampal gamma-frequency oscillations. We present an in-depth study of the action of anaesthesia on neural oscillations by introducing a new computational model which takes into account the four main effects of the anaesthetic agent propofol GABAergic hippocampal interneurons. Our results indicate that propofol-mediated tonic inhibition contributes to enhancing network synchronisation in a network of hippocampal interneurons. This enhanced synchronisation could provide a possible mechanism supporting the occurrence of intraoperative awareness, explicit memory formation, and even paradoxical excitation under general anaesthesia, by facilitating the communication between brain structures which should supposedly be not allowed to do so when anaesthetised. In conclusion, the findings described within this thesis provide new insights into the mechanisms underlying mnemonic neural activity, both during wake and anaesthesia, opening compelling avenues for future work on clinical applications tackling neurodegenerative memory diseases, and anaesthesia monitoring
10

Giovannini, Francesco. "Modélisation mathématique pour l'étude des oscillations neuronales dans des réseaux de mémoire hippocampiques pendant l'éveil et sous anesthésie générale." Electronic Thesis or Diss., Université de Lorraine, 2017. http://www.theses.fr/2017LORR0182.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La mémoire est communément définie comme la capacité de coder, stocker et rappeler les informations que nous avons perçues. Lorsque nous traversons le monde, nous ressentons des stimuli, nous assistons à des événements, nous constatons des faits, nous étudions des concepts et nous acquérons des compétences. Bien que la mémoire soit un comportement humain inné et familier, les mécanismes cérébraux qui nous fournissent de telles facultés sont loin d'être compris. Des études expérimentales ont montré que, lors des tâches de mémoire, certaines structures cérébrales présentent une activité synchrone qui est censée être corrélée avec le maintien à court terme des stimuli saillants. L'objectif de cette thèse est d'utiliser la modélisation mathématique biologiquement inspirée et des simulations d'activité neuronale pour éclairer les mécanismes permettant l'émergence de ces oscillations synchrones liées à la mémoire. Nous nous concentrons en particulier sur l'activité mnémonique de l'hippocampe pendant l'état éveillé, et l'amnésie et la consolidation inattendue de la mémoire sous anesthésie générale. Nous commençons par présenter un modèle détaillé de neurone pyramidal qui se trouve couramment dans les zones CA3 et CA1 de l'hippocampe. Stimulé par une courte impulsion de courant, le neurone produit une activité persistante maintenue pour de longues périodes (> 30s) au-delà du stimulus uniquement par des récepteurs calciques non spécifiques (CAN). Les paramètres du modèle sont dérivés des enregistrements in vitro de neurones hippocampiques réalisés par nos collaborateurs Beate Knauer et Motoharu Yoshida à l'Université de la Ruhr à Bochum, en Allemagne. Par la suite, nous étudions la dynamique d'une population de ces neurones pyramidaux-CAN interconnectés. Nous supposons que les réseaux de neurones à tir persistant pourraient fournir le mécanisme neuronale pour la maintenance des oscillations hippocampiques mnésiques. Nos résultats montrent que le réseau génère une activité oscillante auto-soutenue dans la fréquence thêta. Lors de la connexion du réseau pyramidal-CAN à des interneurones inhibiteurs, la dynamique du modèle révèle que l'inhibition rétroactive améliore la robustesse des oscillations thêta rapides, en resserrant la synchronisation des neurones pyramidaux. Nous démontrons que, dans le modèle, la fréquence et la puissance spectrale des oscillations sont modulées uniquement par le courant CAN, permettant une large gamme de fréquences d'oscillation dans la bande theta. Il s'agit d'un mécanisme biologiquement plausible pour la maintenance des oscillations thêta synchrones dans l'hippocampe qui vise à étendre les modèles traditionnels d'activité rythmique hippocampique entraînée par le septum. En outre, nous présentons une étude approfondie des effets perturbateurs de l'anesthésie générale sur les oscillations gamma dans l'hippocampe. Nous introduisons un nouveau modèle qui prend en compte les quatre principaux effets de l'agent anesthésique propofol sur les récepteurs GABAA. Nos résultats indiquent que l'inhibition tonique médiée par le propofol contribue à améliorer la synchronisation du réseau dans un réseau d'interneurones de l'hippocampe. Cette synchronisation améliorée pourrait fournir une explication possible pour l'apparition d'une conscience intra-opératoire, d'une formation explicite de la mémoire et même d'une excitation paradoxale sous anesthésie générale, en facilitant la communication entre structures cérébrales qui ne devraient pas être autorisées à le faire lorsqu'elles sont anesthésiées. En conclusion, les résultats décrits dans cette thèse fournissent de nouvelles idées sur les mécanismes sous-jacents de l'activité neuronale mnémonique, à la fois au cours du réveil et de l'anesthésie, en ouvrant des voies convaincantes pour les travaux futurs sur les applications cliniques qui s'attaquent aux maladies de la mémoire neurodégénératives et la surveillance de l'anesthésie
Memory is commonly defined as the ability to encode, store, and recall information we perceived. As we experience the world, we sense stimuli, we witness events, we ascertain facts, we study concepts, and we acquire skills. Although memory is an innate and familiar human behaviour, the interior workings of the brain which provide us with such faculties are far from being fully unravelled. Experimental studies have shown that during memory tasks, certain brain structures exhibit synchronous activity which is thought to be correlated with the short-term maintenance of salient stimuli. The objective of this thesis is to use biologically-inspired mathematical modelling and simulations of neural activity to shed some light on the mechanisms enabling the emergence of these memory-related synchronous oscillations. We focus in particular on hippocampal mnemonic activity during the awake state, and the amnesia and paradoxical memory consolidation occurring under general anaesthesia. We begin by introducing a detailed model of a type of persistent-firing pyramidal neuron commonly found in the CA3 and CA1 areas of the hippocampus. Stimulated with a brief transient current pulse, the neuron displays persistent activity maintained solely by cholinergic calcium-activated non-specific (CAN) receptors, and outlasting the stimulus for long delay periods (> 30s). Our model neuron and its parameters are derived from experimental in-vitro recordings of persistent firing hippocampal neurons carried out by our collaborators Beate Knauer and Motoharu Yoshida at the Ruhr University in Bochum, Germany. Subsequently, we turn our attention to the dynamics of a population of such interconnected pyramidal-CAN neurons. We hypothesise that networks of persistent firing neurons could provide the neural mechanism for the maintenance of memory-related hippocampal oscillations. The firing patterns elicited by this network are in accord with both experimental recordings and modelling studies. In addition, the network displays self-sustained oscillatory activity in the theta frequency. When connecting the pyramidal-CAN network to fast-spiking inhibitory interneurons, the dynamics of the model reveal that feedback inhibition improves the robustness of fast theta oscillations, by tightening the synchronisation of the pyramidal CAN neurons. We demonstrate that, in the model, the frequency and spectral power of the oscillations are modulated solely by the cholinergic mechanisms mediating the intrinsic persistent firing, allowing for a wide range of oscillation rates within the theta band. This is a biologically plausible mechanism for the maintenance of synchronous theta oscillations in the hippocampus which aims at extending the traditional models of septum-driven hippocampal rhythmic activity. In addition, we study the disruptive effects of general anaesthesia on hippocampal gamma-frequency oscillations. We present an in-depth study of the action of anaesthesia on neural oscillations by introducing a new computational model which takes into account the four main effects of the anaesthetic agent propofol GABAergic hippocampal interneurons. Our results indicate that propofol-mediated tonic inhibition contributes to enhancing network synchronisation in a network of hippocampal interneurons. This enhanced synchronisation could provide a possible mechanism supporting the occurrence of intraoperative awareness, explicit memory formation, and even paradoxical excitation under general anaesthesia, by facilitating the communication between brain structures which should supposedly be not allowed to do so when anaesthetised. In conclusion, the findings described within this thesis provide new insights into the mechanisms underlying mnemonic neural activity, both during wake and anaesthesia, opening compelling avenues for future work on clinical applications tackling neurodegenerative memory diseases, and anaesthesia monitoring
11

Baëtens, Tiffany. "Développement d'un microsystème étirable pour l'étude de l'activité électrique de cellules neuronales sous contrainte mécanique." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I100.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Alors que 50 million de personnes souffrent de traumatismes crâniens chaque année dans le monde entier, le choc (stress mécanique externe), engendré à cette occasion sur le réseau neuronal, peut amener à l’apparition de lésions cérébrales traumatiques. A moyen et long termes, ce processus peut entraîner une neuro-inflammation et la manifestation de pathologies telles que la maladie de Parkinson ou d'Alzheimer. Ce travail de doctorat a pour objectif de développer un microsystème étirable pour l’étude électro-mécanique de réseaux de neurones in vitro. Un tel microsystème doit intégrer des électrodes isolantes, mécaniquement robustes sur le support étirable. La première partie de ce travail a consisté en l’étude de la métallisation directe sur PDMS par masquage physique. Ensuite, une couche mince de la résine photosensible ‘SU-8’ a été intercalée entre le PDMS et les métaux permettant ainsi de rigidifier les lignes métalliques et déplacer la contrainte mécanique vers le support de PDMS. Afin d’éviter toute fissure sous contrainte mécanique, l’architecture et l’orientation des électrodes a été étudiée et validée par un modèle physique. Dans un deuxième temps, un microsystème de PDMS/SU-8/Cr-Au/Parylène a ensuite été fabriqué par photolithographie via une technologie planaire et est compatible avec le dispositif commercialisé par MultiChannel System© qui permet de visualiser et d’enregistrer les influx nerveux d’un réseau neuronal mature. Pour la fabrication du microsystème étirable, un procédé de microfabrication complet a été développé pour 3 étapes de photolithographie sur PDMS. La fonctionnalité de ce microsystème a été validée par la visualisation de réponses électriques d’un réseau neuronal au bout de 12 jours in vitro (DIV). Ce microsystème présente des électrodes avec un ratio signal/bruit comparable aux MultiElectrode Array (MEA) commerciaux
50 million people suffer from head trauma each year worldwide. The shock (external mechanical stress) acting on neural networks insided the brain can lead to the appearance of traumatic brain injuries (TBI). In the short term and long term, this process can lead to neuroinflammation and the manifestation of pathologies such as Parkinson’s disease or Alzheimer’s disease. This thesis aims to develop a stretchable microsystem for the electromechanical study of neural networks in vitro. Such a microsystem must integrate insulated electrodes which are mechanically robust on the stretchable support. The first part of this work consisted in studying the direct metallization on PDMS using physical masking. Next, a patterned photoresist (SU-8) thin film was then used between the PDMS and the metals. The stiff SU-8 shields the metallization from strain—which now occurs in the adjacent PDMS. In order to avoid cracks under mechanical stress, the architecture and orientation of the electrodes has been studied and validated by a physical model. The second part was the fabrication of a PDMS/SU-8/Cr-Au/Parylene stretchable microsystem by photolithography using a planar process developed during the thesis work. The microsystems is compatible with MultiChannel System© commercial device which allows the visualization and recording the nerve impulses of a mature neural network. A microfabrication process has been developed with 3 photolithography steps on a PDMS substrate. The functionality of the microsystem has been validated by the visualization of electrical responses of neural network at 12 days in vitro (DIV). In addition, this microsystem demonstrates a signal/noise ratio comparable to commercial MultiElectrode Array (MEA)
12

Le, Hai Son. "Continuous space models with neural networks in natural language processing." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00776704.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The purpose of language models is in general to capture and to model regularities of language, thereby capturing morphological, syntactical and distributional properties of word sequences in a given language. They play an important role in many successful applications of Natural Language Processing, such as Automatic Speech Recognition, Machine Translation and Information Extraction. The most successful approaches to date are based on n-gram assumption and the adjustment of statistics from the training data by applying smoothing and back-off techniques, notably Kneser-Ney technique, introduced twenty years ago. In this way, language models predict a word based on its n-1 previous words. In spite of their prevalence, conventional n-gram based language models still suffer from several limitations that could be intuitively overcome by consulting human expert knowledge. One critical limitation is that, ignoring all linguistic properties, they treat each word as one discrete symbol with no relation with the others. Another point is that, even with a huge amount of data, the data sparsity issue always has an important impact, so the optimal value of n in the n-gram assumption is often 4 or 5 which is insufficient in practice. This kind of model is constructed based on the count of n-grams in training data. Therefore, the pertinence of these models is conditioned only on the characteristics of the training text (its quantity, its representation of the content in terms of theme, date). Recently, one of the most successful attempts that tries to directly learn word similarities is to use distributed word representations in language modeling, where distributionally words, which have semantic and syntactic similarities, are expected to be represented as neighbors in a continuous space. These representations and the associated objective function (the likelihood of the training data) are jointly learned using a multi-layer neural network architecture. In this way, word similarities are learned automatically. This approach has shown significant and consistent improvements when applied to automatic speech recognition and statistical machine translation tasks. A major difficulty with the continuous space neural network based approach remains the computational burden, which does not scale well to the massive corpora that are nowadays available. For this reason, the first contribution of this dissertation is the definition of a neural architecture based on a tree representation of the output vocabulary, namely Structured OUtput Layer (SOUL), which makes them well suited for large scale frameworks. The SOUL model combines the neural network approach with the class-based approach. It achieves significant improvements on both state-of-the-art large scale automatic speech recognition and statistical machine translations tasks. The second contribution is to provide several insightful analyses on their performances, their pros and cons, their induced word space representation. Finally, the third contribution is the successful adoption of the continuous space neural network into a machine translation framework. New translation models are proposed and reported to achieve significant improvements over state-of-the-art baseline systems.
13

Gallot, Guillaume. "Modélisation Dynamique et Commande d'un robot Anguille." Phd thesis, Ecole centrale de nantes - ECN, 2007. http://tel.archives-ouvertes.fr/tel-00306695.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se place dans le cadre du projet Robot-Anguille, qui regroupe six laboratoires français. L'objectif du projet est de concevoir, étudier et réaliser un robot "anguille" ou "serpent-nageur" capable de se déplacer dans un espace à 3 dimensions.

A travers cet objectif, la thèse se porte dans un premier temps sur la modélisation dynamique du robot sous la forme d'un mécanisme hybride (structures de robots parallèles montées en série) permettant ainsi d'être le plus proche possible du prototype construit. Pour cela nous avons utilisé les algorithmes récursifs de Newton-Euler pour les modèles dynamiques inverse et direct en les généralisant au cas des robots à base mobile. Nous avons également proposé un modèle de contact fluide-structure pour simuler le comportement du robot dans l'eau. Pour tester ces algorithmes, nous avons simulé le comportement du robot lors de différents types de nage et en avons tiré des conclusions qui nous ont guidées dans la conception du prototype.

Dans un deuxième temps, à partir d'un générateur de mouvements à base de CPGs (ou réseau de neurones), nous avons étudié des lois de commande pour réaliser des simulations de nage en boucle fermée. Ainsi, nous avons abordé les problèmes de la nage vers des points cible et l'évitement d'obstacles pour la nage en milieu confiné.
14

Ammar, Karim. "Conception multi-physique et multi-objectif des cœurs de RNR-Na hétérogènes : développement d’une méthode d’optimisation sous incertitudes." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112390/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis la fermeture de Phénix en 2010 le CEA ne possède plus de réacteur au sodium. Vus les enjeux énergétiques et le potentiel de la filière, le CEA a lancé un programme de démonstrateur industriel appelé ASTRID (Advanced Sodium Technological Reactor for Industrial Demonstration), réacteur d’une puissance de 600MW électriques (1500 MW thermiques). L’objectif du prototype est double, être une réponse aux contraintes environnementales et démontrer la viabilité industrielle :• De la filière RNR-Na, avec un niveau de sureté au moins équivalent aux réacteurs de 3ème génération, du type de l’EPR. ASTRID intégrera dès la conception le retour d’expérience de Fukushima ;• Du retraitement des déchets (transmutation d’actinide mineur) et de la filière qui lui serait liée.La sûreté de l’installation est prioritaire, aucun radioélément ne doit être rejeté dans l’environnement, et ce dans toutes les situations. Pour atteindre cet objectif, il est impératif d’anticiper l’impact des nombreuses sources d’incertitudes sur le comportement du réacteur et ce dès la phase de conception. C’est dans ce contexte que s’inscrit cette thèse dont l’ambition est le développement de nouvelles méthodes d’optimisation des cœurs des RNR-Na. L’objectif est d’améliorer la robustesse et la fiabilité des réacteurs en réponse à des incertitudes existantes. Une illustration sera proposée à partir des incertitudes associées à certains régimes transitoires dimensionnant. Nous utiliserons le modèle ASTRID comme référence pour évaluer l’intérêt des nouvelles méthodes et outils développés.L’impact des incertitudes multi-Physiques sur le calcul des performances d’un cœur de RNR-Na et l’utilisation de méthodes d’optimisation introduisent de nouvelles problématiques :• Comment optimiser des cœurs « complexes » (i.e associés à des espaces de conception de dimensions élevée avec plus de 20 paramètres variables) en prenant en compte les incertitudes ?• Comment se comportent les incertitudes sur les cœurs optimisés par rapport au cœur de référence ?• En prenant en compte les incertitudes, les réacteurs sont-Ils toujours considérés comme performants ?• Les gains des optimisations obtenus à l’issue d’optimisations complexes sont-Ils supérieurs aux marges d’incertitudes (qui elles-Mêmes dépendent de l’espace paramétrique) ?La thèse contribue au développement et à la mise en place des méthodes nécessaires à la prise en compte des incertitudes dans les outils de simulation de nouvelle génération. Des méthodes statistiques pour garantir la cohérence des schémas de calculs multi-Physiques complexes sont également détaillées.En proposant de premières images de cœur de RNR-Na innovants, cette thèse présente des méthodes et des outils permettant de réduire les incertitudes sur certaines performances des réacteurs tout en les optimisant. Ces gains sont obtenus grâce à l’utilisation d’algorithmes d’optimisation multi-Objectifs. Ces méthodes permettent d’obtenir tous les compromis possibles entre les différents critères d’optimisations comme, par exemple, les compromis entre performance économique et sûreté
Since Phenix shutting down in 2010, CEA does not have Sodium Fast Reactor (SFR) in operating condition. According to global energetic challenge and fast reactor abilities, CEA launched a program of industrial demonstrator called ASTRID (Advanced Sodium Technological Reactor for Industrial Demonstration), a reactor with electric power capacity equal to 600MW. Objective of the prototype is, in first to be a response to environmental constraints, in second demonstrates the industrial viability of:• SFR reactor. The goal is to have a safety level at least equal to 3rd generation reactors. ASTRID design integrates Fukushima feedback;• Waste reprocessing (with minor actinide transmutation) and it linked industry.Installation safety is the priority. In all cases, no radionuclide should be released into environment. To achieve this objective, it is imperative to predict the impact of uncertainty sources on reactor behaviour. In this context, this thesis aims to develop new optimization methods for SFR cores. The goal is to improve the robustness and reliability of reactors in response to existing uncertainties. We will use ASTRID core as reference to estimate interest of new methods and tools developed.The impact of multi-Physics uncertainties in the calculation of the core performance and the use of optimization methods introduce new problems:• How to optimize “complex” cores (i.e. associated with design spaces of high dimensions with more than 20 variable parameters), taking into account the uncertainties?• What is uncertainties behaviour for optimization core compare to reference core?• Taking into account uncertainties, optimization core are they still competitive? Optimizations improvements are higher than uncertainty margins?The thesis helps to develop and implement methods necessary to take into account uncertainties in the new generation of simulation tools. Statistical methods to ensure consistency of complex multi-Physics simulation results are also detailed.By providing first images of innovative SFR core, this thesis presents methods and tools to reduce the uncertainties on some performance while optimizing them. These gains are achieved through the use of multi-Objective optimization algorithms. These methods provide all possible compromise between the different optimization criteria, such as the balance between economic performance and safety
15

Pouilly-Cathelain, Maxime. "Synthèse de correcteurs s’adaptant à des critères multiples de haut niveau par la commande prédictive et les réseaux de neurones." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la commande des systèmes non linéaires soumis à des contraintes non différentiables ou non convexes. L'objectif est de pouvoir réaliser une commande permettant de considérer tout type de contraintes évaluables en temps réel.Pour répondre à cet objectif, la commande prédictive a été utilisée en ajoutant des fonctions barrières à la fonction de coût. Un algorithme d'optimisation sans gradient a permis de résoudre ce problème d'optimisation. De plus, une formulation permettant de garantir la stabilité et la robustesse vis-à-vis de perturbations a été proposée dans le cadre des systèmes linéaires. La démonstration de la stabilité repose sur les ensembles invariants et la théorie de Lyapunov.Dans le cas des systèmes non linéaires, les réseaux de neurones dynamiques ont été utilisés comme modèle de prédiction pour la commande prédictive. L'apprentissage de ces réseaux ainsi que les observateurs non linéaires nécessaires à leur utilisation ont été étudiés. Enfin, notre étude s'est portée sur l'amélioration de la prédiction par réseaux de neurones en présence de perturbations.La méthode de synthèse de correcteurs présentée dans ces travaux a été appliquée à l’évitement d’obstacles par un véhicule autonome
This PhD thesis deals with the control of nonlinear systems subject to nondifferentiable or nonconvex constraints. The objective is to design a control law considering any type of constraints that can be online evaluated.To achieve this goal, model predictive control has been used in addition to barrier functions included in the cost function. A gradient-free optimization algorithm has been used to solve this optimization problem. Besides, a cost function formulation has been proposed to ensure stability and robustness against disturbances for linear systems. The proof of stability is based on invariant sets and the Lyapunov theory.In the case of nonlinear systems, dynamic neural networks have been used as a predictor for model predictive control. Machine learning algorithms and the nonlinear observers required for the use of neural networks have been studied. Finally, our study has focused on improving neural network prediction in the presence of disturbances.The synthesis method presented in this work has been applied to obstacle avoidance by an autonomous vehicle
16

Compaore, Wendpuire Ousmane. "Aide à la décision pour le diagnostic des défauts pour une maintenance proactive dans un générateur photovoltaïque." Electronic Thesis or Diss., Normandie, 2023. http://www.theses.fr/2023NORMR095.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La perte de puissance d'un générateur photovoltaïque (GPV) est sans conteste due à l'apparition d'un certain nombre d'anomalies liées à la fabrication, à la production ou à l'environnement, engendrant des défaillances dans son bon fonctionnement. A partir d'un modèle réaliste, assez proche du fonctionnement réel et capable de prendre en compte l'effet d'avalanche d'une jonction PN transmise à l'ensemble du GPV, nous avons montré à suffisance, la perte de performances d'un générateur PV et la nécessité d'avoir une méthode de diagnostic pour l'aide à la maintenance afin de ne pas subir les effets des défauts.Deux méthodes de diagnostic ont été appliquées à ce GPV, l'une portant sur la détection et la localisation des défauts capteurs, et l'autre sur la détection et la localisation des défauts systèmes. Le choix particulier de ces deux techniques de diagnostic, qui ne ciblent pas les mêmes types de défauts, réside dans la nature complexe du modèle du processus industriel soumis à l'étude. Les performances obtenues avec la méthode des relations de redondance analytique (RRA) basée sur le principe de l'espace de parité appliqué au point de fonctionnement maximal, sont très pertinentes. Par la méthode de l'intelligence artificielle (IA) basée sur le principe des réseaux de neurones artificiels (RNA), nous avons expérimenté deux méthodes de classification pour la détection et le diagnostic des défauts systèmes. Si la détectabilité est prouvée avec nos différentes configurations sans possibilité de situer l'origine et la cause dans la première partie de la classification, nous arrivons grâce à un faisceau d'indices à situer l'origine ou la cause grâce à la classification pour le diagnostic.La réalisation de deux prototypes d'acquisition temps réel est faite sur le principe de l'Internet industriel des objets (IIoT). Le premier permet uniquement l'acquisition et la sauvegarde des données sur une carte SD. Le second prototype plus évolué, permet la transmission en temps réel par Wifi à un serveur web et vise la réalisation à long terme d'une plateforme de surveillance en temps réel. Les deux prototypes produisent des données qui sont utilisées pour alimenter les deux méthodes de diagnostic. Les résultats obtenus avec des données réelles sont compatibles avec ceux obtenus en phase de simulation. Les conclusions de ce diagnostic permettront une meilleure efficacité dans les opérations de maintenance proactive
The loss of power of a photovoltaic generator (PVG) is undoubtedly due to the appearance of a certain number of anomalies linked to manufacturing, production or the environment and causing failures in its proper functioning. From a realistic model, quite close to real operation and able to take into account the avalanche effect of a PN junction transmitted to the entire PVG, we have sufficiently shown the loss of performance of a PV generator and the need to have a diagnostic method for maintenance assistance in order not to suffer the effects of faults.Two diagnostic methods were applied to this PVG, one relating to the detection and localization of sensor faults, and the other to the detection and localization of system faults. The particular choice of these two diagnostic techniques, which do not target the same types of faults, lies in the complex nature of the model of the industrial process subjected to study. The performances obtained with the analytical redundancy relations (ARR), method based on the principle of parity space applied to the maximum operating point are very relevant. Using the artificial intelligence (AI), method based on the principle of artificial neural networks (ANN), we experimented with two classification methods for the detection and diagnosis of system faults. If detectability is proven with our different configurations without the possibility of locating the origin and the cause in the first part of the classification, we arrive thanks to a bundle of clues to locate the origin or the cause thanks to the classification for the diagnostic.The production of two real-time acquisition prototypes is based on the principle of the Industrial Internet of Things (IIoT). The first only allows the acquisition and saving of data on an SD card. The second, and more advanced prototype, allows real-time transmission via WiFi to a web server and aims to create a real-time monitoring platform in the long term. Both prototypes produce data that is used to power both diagnostic methods. The results obtained with real data are compatible with those obtained in the simulation phase. The conclusions of this diagnosis will enable greater efficiency in proactive maintenance operations
17

Guerra, Jonathan. "Optimisation multi-objectif sous incertitudes de phénomènes de thermique transitoire." Thesis, Toulouse, ISAE, 2016. http://www.theses.fr/2016ESAE0024/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est la résolution d’un problème d’optimisation multi-objectif sous incertitudes en présence de simulations numériques coûteuses. Une validation est menée sur un cas test de thermique transitoire. Dans un premier temps, nous développons un algorithme d'optimisation multi-objectif basé sur le krigeage nécessitant peu d’appels aux fonctions objectif. L'approche est adaptée au calcul distribué et favorise la restitution d'une approximation régulière du front de Pareto complet. Le problème d’optimisation sous incertitudes est ensuite étudié en considérant des mesures de robustesse pires cas et probabilistes. Le superquantile intègre tous les évènements pour lesquels la valeur de la sortie se trouve entre le quantile et le pire cas mais cette mesure de risque nécessite un grand nombre d’appels à la fonction objectif incertaine pour atteindre une précision suffisante. Peu de méthodes permettent de calculer le superquantile de la distribution de la sortie de fonctions coûteuses. Nous développons donc un estimateur du superquantile basé sur une méthode d'échantillonnage préférentiel et le krigeage. Il permet d’approcher les superquantiles avec une faible erreur et une taille d’échantillon limitée. De plus, un couplage avec l’algorithme multi-objectif permet la réutilisation des évaluations. Dans une dernière partie, nous construisons des modèles de substitution spatio-temporels capables de prédire des phénomènes dynamiques non linéaires sur des temps longs et avec peu de trajectoires d’apprentissage. Les réseaux de neurones récurrents sont utilisés et une méthodologie de construction facilitant l’apprentissage est mise en place
This work aims at solving multi-objective optimization problems in the presence of uncertainties and costly numerical simulations. A validation is carried out on a transient thermal test case. First of all, we develop a multi-objective optimization algorithm based on kriging and requiring few calls to the objective functions. This approach is adapted to the distribution of the computations and favors the restitution of a regular approximation of the complete Pareto front. The optimization problem under uncertainties is then studied by considering the worst-case and probabilistic robustness measures. The superquantile integrates every event on which the output value is between the quantile and the worst case. However, it requires an important number of calls to the uncertain objective function to be accurately evaluated. Few methods give the possibility to approach the superquantile of the output distribution of costly functions. To this end, we have developed an estimator based on importance sampling and kriging. It enables to approach superquantiles with little error and using a limited number of samples. Moreover, the setting up of a coupling with the multi-objective algorithm allows to reuse some of those evaluations. In the last part, we build spatio-temporal surrogate models capable of predicting non-linear, dynamic and long-term in time phenomena by using few learning trajectories. The construction is based on recurrent neural networks and a construction facilitating the learning is proposed
18

Joucla, Sébastien. "Etude expérimentale et modélisation de la stimulation électrique extracellulaire des réseaux de neurones avec des matrices de microélectrodes (MEA) : analyse des mécanismes sous-jacents et amélioration de la focalité spatiale des stimulations." Bordeaux 1, 2007. http://www.theses.fr/2007BOR13523.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La stimulation électrique extracellulaire du système nerveux central avec des matrices de microélectrodes (MEAs) constitue un enjeu majeur en Neurosciences, tant en recherche fondamentale que clinique. Cette thèse a pour but de comprendre les mécanismes sous-tendant la stimulation extracellulaire des neurones. Une étude expérimentale montre que les stimulations monopolaires sont peu focales. Une étude computationnelle a consisté à développer un modèle éléments finis pour calculer de manière réaliste le potentiel extracellulaire généré par une stimulation. Grâce à ce modèle, une configuration d’électrodes permettant de focaliser les étendues stimulées a été élaborée (brevet déposé). Enfin, un modèle, constitué d'un neurone compartimenté placé dans un champ de potentiel, a permis de comprendre plusieurs effets de la stimulation extracellulaire sur la réponse neuronale. Ce travail apporte une meilleure maîtrise des stimulations extracellulaires, en vue de leur utilisation pour l’étude des phénomènes activité-dépendants impliqués dans la plasticité des réseaux de neurones et pour la mise au point de neuroprothèses efficaces
Extracellular electrical stimulation of the central nervous system using microelectrode arrays (MEAs) is currently a challenging stake in neuroscience, in the fields of both fundamental and clinical research. This thesis aims at understanding the mechanisms underlying the extracellular stimulation of neurons. An experimental study shows that monopolar stimulations are not focal. Through a computational study, a finite element model was developed and used for realistic computation of the extracellular potential created by a stimulation. Based on this model, a new electrode configuration is proposed to achieve focal spatial stimulations (patent pending). Finally, a model made of a compartmentalized neuron placed in an extracellular potential field was built and used to explain several effects of extracellular stimulation on the neural response. This work allows a better control of extracellular stimulation for their use to study activity-dependent phenomena underlying neural network plasticity and for the development of efficient neural prostheses
19

Brozzoli, Claudio. "Peripersonal space : a multisensory interface for body-objects interactions." Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00675247.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Our ability to interact with the environment requires the integration of multisensory information for the construction of spatial representations. The peripersonal space (i.e., the sector of space closely surrounding one's body) and the integrative processes between visual and tactile inputs originating from this sector of space have been at the center of recent years investigations. Neurophysiological studies provided evidence for the presence in the monkey brain of bimodal neurons, which are activated by tactile as well as visual information delivered near to a specific body part (e.g., the hand). Neuropsychological studies on right brain-damaged patients who present extinction and functional neuroimaging findings suggest the presence of similar bimodal systems in the human brain. Studies on the effects of tool-use on visual-tactile interaction revealed similar dynamic properties of the peripersonal space in monkeys and humans. The functional role of the multisensory coding of peripersonal space is, in our hypothesis, that of providing the brain with a sensori-motor interface for body-objects interactions. Thus, not only it could be involved in driving involuntary defensive movements in response to objects approaching the body, but could be also dynamically maintained and updated as a function of manual voluntary actions performed towards objects in the reaching space. We tested the hypothesis of an involvement of peripersonal space in executing both voluntary and defensive actions. To these aims, we joined a well known cross-modal congruency effect between visual and tactile information to a kinematic approach to demonstrate that voluntary grasping actions induce an on-line re-weighting of multisensory interactions in the peripersonal space. We additionally show that this modulation is handcentred. We also used a motor evoked potentials approach to investigate which coordinates system is used to code the peripersonal space during motor preparation if real objects rapidly approach the body. Our findings provide direct evidence for automatic hand-centred coding of visual space and suggest that peripersonal space may also serve to represent rapidly 3 approaching and potentially noxious objects, thus enabling the rapid selection of appropriate motor responses. These results clearly show that peripersonal space is a multisensori-motor interface that might have been selected through evolution for optimising the interactions between the body and the objects in the external world.
20

Boukhtache, Seyfeddine. "Système de traitement d’images temps réel dédié à la mesure de champs denses de déplacements et de déformations." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s’inscrit dans un cadre pluridisciplinaire. Elle traite de la problématique du temps réel et de celle des performances métrologiques en traitement d’images numériques. Elle s'intéresse plus particulièrement à la photomécanique. Il s'agit d'une discipline récente visant à développer et à utiliser au mieux des systèmes de mesure de champs entiers de petits déplacements et de petites déformations en surface de solides soumis à des sollicitations thermomécaniques. La technique utilisée dans cette thèse est la corrélation des images numériques (CIN), qui se trouve être l'une des plus employées dans cette communauté. Elle représente cependant des limitations à savoir un temps de calcul prohibitif et des performances métrologiques améliorables afin d'atteindre celles des capteurs ponctuels classiques comme les jauges de déformation.Ce travail s'appuie sur deux axes d'étude pour relever ce défi. Le premier repose sur l'optimisation de l'interpolation d'images qui est le traitement le plus coûteux dans la CIN. Une accélération est proposée en utilisant une implémentation matérielle parallélisée sur FPGA, tout en tenant compte de la consommation des ressources matérielles et de la précision. La principale conclusion est qu'un seul FPGA (dans les limites technologiques actuelles) ne suffit pas à implémenter l'intégralité de l'algorithme CIN. Un second axe d'étude a donc été proposé. Il vise à développer et à utiliser des réseaux de neurones convolutifs pour tenter d'atteindre à la fois des performances métrologiques meilleures que la CIN et un traitement en temps réel. Cette deuxième étude a montré l'efficacité d'un tel outil pour la mesure des champs de déplacements et de déformations. Elle ouvre de nouvelles perspectives en termes de performances métrologiques et de rapidité des systèmes de mesure de champs
This PhD thesis has been carried out in a multidisciplinary context. It deals with the challenge of real-time and metrological performance in digital image processing. This is particularly interesting in photomechanics. This is a recent field of activity, which consists in developing and using systems for measuring whole fields of small displacements and small deformations of solids subjected to thermomechanical loading. The technique targeted in this PhD thesis is Digital Images Correlation (DIC), which is the most popular measuring technique in this community. However, it has some limitations, the main one being the computing resources and the metrological performance, which should be improved to reach that of classic pointwise measuring sensors such as strain gauges.In order to address this challenge, this work relies on two main studies. The first one consists in optimizing the interpolation process because this is the most expensive treatment in DIC. Acceleration is proposed by using a parallel hardware implementation on FPGA, and by taking into consideration the consumption of hardware resources as well as accuracy. The main conclusion of this study is that a single FPGA (current technology) is not sufficient to implement the entire DIC algorithm. Thus, a second study has been proposed. It is based on the use of convolutional neural networks (CNNs) in an attempt to achieve both better metrological performance than CIN and real-time processing. This second study shows the relevance of using CNNs for measuring displacement and deformation fields. It opens new perspectives in terms of metrological performance and speed of full-field measuring systems
21

Burnod, Yves. "Modèle de cortex cérébral et implémentation sur un réseau de processeurs parallèles." Angers, 1988. http://www.theses.fr/1988ANGE0005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un modèle théorique du cortex cérébral est proposé. Il est basé sur les connaissances actuelles en neurobiologie et fournit un type original de réseau de neurones pour intégrer les différentes fonctions de l'intelligence artificielle : reconnaissance des formes, positionnement moteur dans l'espace, programmation et langage. Ce modèle peut aider à résoudre les problèmes de communication entre des traitements concurrents effectues sur des ensembles hétérogènes d'informations, usuelles, auditives, motrices et symboliques.
22

Vollant, Antoine. "Evaluation et développement de modèles sous-maille pour la simulation des grandes échelles du mélange turbulent basés sur l'estimation optimale et l'apprentissage supervisé." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI118/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, des méthodes de diagnostics et des techniques de développement de modèles sous-maille sont proposées pour la simulation des grandes échelles (SGE) du mélange turbulent. Plusieurs modèles sous-maille issus de ces stratégies sont ainsi présentés pour illustrer ces méthodes.Le principe de la SGE est de résoudre les grandes échelles de l'écoulement responsables des transferts principaux et de modéliser l'action des petites échelles de l'écoulement sur les échelles résolues. Au cours de ce travail, nous nous sommes appuyés sur le classement des modèles sous-maille en deux catégories. Les modèles "fonctionnels" qui s'attachent à reproduire les transferts énergétiques entre les échelles résolues et les échelles modélisées et les modèles "structurels" qui cherchent à bien reproduire le terme sous-maille. Le premier enjeu important a été d'évaluer la performance des modèles sous-maille en prenant en compte leur comportement à la fois fonctionnel (capacité à reproduire les transferts d'énergie) et structurel (capacité à reproduire le terme sous-maille exact). Des diagnosctics des modèles sous-maille ont pu être conduits avec l'utilisation de la notion d'estimateur optimal ce qui permet de connaitre le potentiel d'amélioration structurelle des modèles. Ces principes ont dans un premier temps servi au développement d'une première famille de modèles sous-maille algébrique appelée DRGM pour "Dynamic Regularized Gradient Model". Cette famille de modèles s'appuie sur le diagnostic structurel des termes issus de la régularisation des modèles de la famille du gradient. D'après les tests menés, cette nouvelle famille de modèle structurel a de meilleures performances fonctionnelles et structurelles que les modèles de la famille du gradient. L'amélioration des performances fonctionnelles consiste à supprimer la prédiction excessive de transferts inverses d'énergie (backscatter) observés dans les modèles de la famille du gradient. Cela permet ainsi de supprimer le comportement instable classiquement observé pour cette famille de modèles. La suite de ce travail propose ensuite d'utiliser l'estimateur optimal directement comme modèle sous-maille. Comme l'estimateur optimal fournit le modèle ayant la meilleure performance structurelle pour un jeu de variables donné, nous avons recherché le jeu de variable optimisant cette performance. Puisque ce jeu comporte un nombre élevé de variables, nous avons utilisé les fonctions d'approximation de type réseaux de neurones pour estimer cet estimateur optimal. Ce travail a mené au nouveau modèle substitut ANNM pour "Artificial Neural Network Model". Ces fonctions de substitution se construisent à partir de bases de données servant à émuler les termes exacts nécessaire à la détermination de l'estimateur optimal. Les tests de ce modèle ont montré qu'il avait de très bonnes perfomances pour des configurations de simulation peu éloignées de la base de données servant à son apprentissage, mais qu'il pouvait manquer d'universalité. Pour lever ce dernier verrou, nous avons proposé une utilisation hybride des modèles algébriques et des modèles de substitution à base de réseaux de neurones. La base de cette nouvelle famille de modèles ACM pour "Adaptative Coefficient Model" s'appuie sur les décompositions vectorielles et tensorielles des termes sous-maille exacts. Ces décompositions nécessitent le calcul de coefficients dynamiques qui sont modélisés par les réseaux de neurones. Ces réseaux bénéficient d'une méthode d'apprentissage permettant d'optimiser directement les performances structurelles et fonctionnelles des modèles ACM. Ces modèles hybrides allient l'universalité des modèles algébriques avec la performance élevée mais spécialisée des fonctions de substitution. Le résultat conduit à des modèles plus universels que l'ANNM
This work develops subgrid model techniques and proposes methods of diagnosis for Large Eddy Simulation (LES) of turbulent mixing.Several models from these strategies are thus presented to illustrate these methods.The principle of LES is to solve the largest scales of the turbulent flow responsible for major transfers and to model the action of small scales of flowon the resolved scales. Formally, this operation leads to filter equations describing turbulent mixing. Subgrid terms then appear and must bemodeled to close the equations. In this work, we rely on the classification of subgrid models into two categories. "Functional" models whichreproduces the energy transfers between the resolved scales and modeled scales and "Structural" models that seek to reproduce the exact subgrid termitself. The first major challenge is to evaluate the performance of subgrid models taking into account their functional behavior (ability to reproduce theenergy transfers) and structural behaviour (ability to reproduce the term subgrid exactly). Diagnostics of subgrid models have been enabled with theuse of the optimal estimator theory which allows the potential of structural improvement of the model to be evaluated.These methods were initially involved for the development of a first family of models called algebraic subgrid $DRGM$ for "Dynamic Regularized GradientModel". This family of models is based on the structural diagnostic of terms given by the regularization of the gradient model family.According to the tests performed, this new structural model's family has better functional and structural performance than original model's family of thegradient. The improved functional performance is due to the vanishing of inverse energy transfer (backscatter) observed in models of thegradient family. This allows the removal of the unstable behavior typically observed for this family of models.In this work, we then propose the use of the optimal estimator directly as a subgrid scale model. Since the optimal estimator provides the modelwith the best structural performance for a given set of variables, we looked for the set of variables which optimize that performance. Since this set of variablesis large, we use surrogate functions of artificial neural networks type to estimate the optimal estimator. This leads to the "Artificial Neural Network Model"(ANNM). These alternative functions are built from databases in order to emulate the exact terms needed to determine the optimal estimator. The tests of this modelshow that he it has very good performance for simulation configurations not very far from its database used for learning, so these findings may fail thetest of universality.To overcome this difficulty, we propose a hybrid method using an algebraic model and a surrogate model based on artificial neural networks. Thebasis of this new model family $ACM$ for "Adaptive Coefficient Model" is based on vector and tensor decomposition of the exact subgrid terms. Thesedecompositions require the calculation of dynamic coefficients which are modeled by artificial neural networks. These networks have a learning method designedto directlyoptimize the structural and functional performances of $ACM$. These hybrids models combine the universality of algebraic model with high performance butvery specialized performance of surrogate models. The result give models which are more universal than ANNM
23

Pham, Hoang Anh. "Coordination de systèmes sous-marins autonomes basée sur une méthodologie intégrée dans un environnement Open-source." Electronic Thesis or Diss., Toulon, 2021. http://www.theses.fr/2021TOUL0020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse étudie la coordination de robots sous-marins autonomes dans le contexte d’exploration de fonds marins côtiers ou d’inspections d’installations. En recherche d’une méthodologie intégrée, nous avons créé un framework qui permet de concevoir et simuler des commandes de robots sous-marins low-cost avec différentes hypothèses de modèle de complexité croissante (linéaire, non-linéaire, et enfin non-linéaire avec des incertitudes). Sur la base de ce framework articulant plusieurs outils, nous avons étudié des algorithmes pour résoudre le problème de la mise en formation d’un essaim, puis celui de l’évitement de collisions entre robots et celui du contournement d’obstacle d’un groupe de robots sous-marins. Plus précisément, nous considérons d'abord les modèles de robot sous-marin comme des systèmes linéaires de type simple intégrateur, à partir duquel nous pouvons construire un contrôleur de mise en formation en utilisant des algorithmes de consensus et d’évitement. Nous élargissons ensuite ces algorithmes pour le modèle dynamique non linéaire d’un robot Bluerov dans un processus de conception itératif. Nous intégrons ensuite un réseau de neurones de type RBF (Radial Basis Function), déjà éprouvé en convergence et stabilité, avec le contrôleur algébrique pour pouvoir estimer et compenser des incertitudes du modèle du robot. Enfin, nous décrivons les tests de ces algorithmes sur un essaim de robots sous-marins réels BlueROV en environement Opensource de type ROS et programmés en mode autonome. Ce travail permet également de convertir un ROV téléopéré en un hybride ROV-AUV autonome. Nous présentons des résultats de simulation et des essais réels en bassin validant les concepts proposés
This thesis studies the coordination of autonomous underwater robots in the context of coastal seabed exploration or facility inspections. Investigating an integrated methodology, we have created a framework to design and simulate low-cost underwater robot controls with different model assumptions of increasing complexity (linear, non-linear, and finally non-linear with uncertainties). By using this framework, we have studied algorithms to solve the problem of formation control, collision avoidance between robots and obstacle avoidance of a group of underwater robots. More precisely, we first consider underwater robot models as linear systems of simple integrator type, from which we can build a formation controller using consensus and avoidance algorithms. We then extend these algorithms for the nonlinear dynamic model of a Bluerov robot in an iterative design process. Then we have integrated a Radial Basis Function neural network, already proven in convergence and stability, with the algebraic controller to estimate and compensate for uncertainties in the robot model. Finally, we have presented simulation results and real basin tests to validate the proposed concepts. This work also aims to convert a remotely operated ROV into an autonomous ROV-AUV hybrid
24

Blagouchine, Iaroslav. "Modélisation et analyse de la parole : Contrôle d’un robot parlant via un modèle interne optimal basé sur les réseaux de neurones artificiels. Outils statistiques en analyse de la parole." Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX26666.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse de doctorat traite les aspects de la modélisation et de l'analyse de la parole, regroupés sous le chapeau commun de la qualité. Le premier aspect est représenté par le développement d'un modèle interne de contrôle de la production de la parole ; le deuxième, par le développement des outils pour son analyse. Un modèle interne optimal sous contraintes est proposé pour le contrôle d'un robot parlant, basé sur l'hypothèse du point d'équilibre (EPH, modèle-lambda). Ce modèle interne se repose sur le principe suivant : les mouvements du robot sont produits de telle façon que la longueur du chemin, parcouru dans l'espace interne des commandes motrices lambda, soit minimale, sous certaines contraintes liées à l'espace externe. L'aspect mathématique du problème conduit au problème géodésique généralisé, un problème relevant du calcul variationnel, dont la solution exacte analytique est assez complexe. En utilisant certains résultats empiriques, une solution approximative est enfin développée et implémentée. La solution du problème donne des résultats intéressants et prometteurs, et montre que le modèle interne proposé permet d'atteindre une certaine réalité de la production de la parole ; notamment, des similitudes entre la parole réelle et celle produite par le robot sont constatées. Puis, dans un but d'analyser et de caractériser le signal de parole, plusieurs méthodes d'analyse statistique sont développées. Elles sont basées sur les statistiques d'ordre supérieurs et sur l'entropie discrète normalisée. Dans ce cadre, nous avons également élaboré un estimateur non-biaisée et efficace du cumulant d'ordre quatre, en deux versions bloc et adaptative
This Ph.D. dissertation deals with speech modeling and processing, which both share the speech quality aspect. An optimum internal model with constraints is proposed and discussed for the control of a biomechanical speech robot based on the equilibrium point hypothesis (EPH, lambda-model). It is supposed that the robot internal space is composed of the motor commands lambda of the equilibrium point hypothesis. The main idea of the work is that the robot movements, and in particular the robot speech production, are carried out in such a way that, the length of the path, traveled in the internal space, is minimized under acoustical and mechanical constraints. Mathematical aspect of the problem leads to one of the problems of variational calculus, the so-called geodesic problem, whose exact analytical solution is quite complicated. By using some empirical findings, an approximate solution for the proposed optimum internal model is then developed and implemented. It gives interesting and challenging results, and shows that the proposed internal model is quite realistic; namely, some similarities are found between the robot speech and the real one. Next, by aiming to analyze speech signals, several methods of statistical speech signal processing are developed. They are based on higher-order statistics (namely, on normalized central moments and on the fourth-order cumulant), as well as on the discrete normalized entropy. In this framework, we also designed an unbiased and efficient estimator of the fourth-order cumulant in both batch and adaptive versions
25

Quininao, Cristobal. "Mathematical modeling in neuroscience : collective behavior of neuronal networks & the role of local homeoproteins diffusion in morphogenesis." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066152/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail est consacré à l’étude de quelques questions issues de la modélisation des systèmes biologiques en combinant des outils analytiques et probabilistes. Dans la première partie, nous nous intéressons à la dérivation des équations de champ moyen associées aux réseaux de neurones, ainsi qu’à l’étude de la convergence vers l’équilibre des solutions. Dans le Chapitre 2, nous utilisons la méthode de couplage pour démontrer la propagation du chaos pour un réseau neuronal avec délais et avec une architecture aléatoire. Dans le Chapitre 3, nous considérons une équation cinétique du type FitzHugh-Nagumo. Nous analysons l'existence de solutions et prouvons la convergence exponentielle dans les régimes de faible connectivité. Dans la deuxième partie, nous étudions le rôle des homéoprotéines (HPs) sur la robustesse des bords des aires fonctionnelles. Dans le Chapitre 4, nous proposons un modèle général du développement neuronal. Nous prouvons qu'en l'absence de diffusion, les HPs sont exprimées dans des régions irrégulières. Mais en présence de diffusion, même arbitrairement faible, des frontières bien définies émergent. Dans le Chapitre 5, nous considérons le modèle général dans le cas unidimensionnel et prouvons l'existence de solutions stationnaires monotones définissant un point d'intersection unique aussi faible que soit le coefficient de diffusion. Enfin, dans la troisième partie, nous étudions une équation de Keller-Segel sous-critique. Nous démontrons la propagation du chaos sans aucune restriction sur le noyau de force. En outre, nous démontrons que la propagation du chaos a lieu dans le sens de l’entropie
This work is devoted to the study of mathematical questions arising from the modeling of biological systems combining analytic and probabilistic tools. In the first part, we are interested in the derivation of the mean-field equations related to some neuronal networks, and in the study of the convergence to the equilibria of the solutions to the limit equations. In Chapter 2, we use the coupling method to prove the chaos propagation for a neuronal network with delays and random architecture. In Chapter 3, we consider a kinetic FitzHugh-Nagumo equation. We analyze the existence of solutions and prove the nonlinear exponential convergence in the weak connectivity regime. In the second part, we study the role of homeoproteins (HPs) on the robustness of boundaries of functional areas. In Chapter 4, we propose a general model for neuronal development. We prove that in the absence of diffusion, the HPs are expressed on irregular areas. But in presence of diffusion, even arbitrarily small, well defined boundaries emerge. In Chapter 5, we consider the general model in the one dimensional case and prove the existence of monotonic stationary solutions defining a unique intersection point for any arbitrarily small diffusion coefficient. Finally, in the third part, we study a subcritical Keller-Segel equation. We show the chaos propagation without any restriction on the force kernel. Eventually, we demonstrate that the propagation of chaos holds in the entropic sense
26

Swaileh, Wassim. "Des modèles de langage pour la reconnaissance de l'écriture manuscrite." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR024/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur le développement d'une chaîne de traitement complète pour réaliser des tâches de reconnaissance d'écriture manuscrite non contrainte. Trois difficultés majeures sont à résoudre: l'étape du prétraitement, l'étape de la modélisation optique et l'étape de la modélisation du langage. Au stade des prétraitements il faut extraire correctement les lignes de texte à partir de l'image du document. Une méthode de segmentation itérative en lignes utilisant des filtres orientables a été développée à cette fin. La difficulté dans l’étape de la modélisation optique vient de la diversité stylistique des scripts d'écriture manuscrite. Les modèles optiques statistiques développés sont des modèles de Markov cachés (HMM-GMM) et les modèles de réseaux de neurones récurrents (BLSTM-CTC). Les réseaux récurrents permettent d’atteindre les performances de l’état de l’art sur les deux bases de référence RIMES (pour le Français) et IAM (pour l’anglais). L'étape de modélisation du langage implique l'intégration d’un lexique et d’un modèle de langage statistique afin de rechercher parmi les hypothèses proposées par le modèle optique, la séquence de mots (phrase) la plus probable du point de vue linguistique. La difficulté à ce stade est liée à l’obtention d’un modèle de couverture lexicale optimale avec un minimum de mots hors vocabulaire (OOV). Pour cela nous introduisons une modélisation en sous-unités lexicales composée soit de syllabes soit de multigrammes. Ces modèles couvrent efficacement une partie importante des mots hors vocabulaire. Les performances du système de reconnaissance avec les unités sous-lexicales dépassent les performances des systèmes de reconnaissance traditionnelles de mots ou de caractères en présence d’un fort taux de mots hors lexique. Elles sont équivalentes aux modèles traditionnels en présence d’un faible taux de mots hors lexique. Grâce à la taille compacte du modèle de langage reposant sur des unités sous-lexicales, un système de reconnaissance multilingue unifié a été réalisé. Le système multilingue unifié améliore les performances de reconnaissance par rapport aux systèmes spécialisés dans chaque langue, notamment lorsque le modèle optique unifié est utilisé
This thesis is about the design of a complete processing chain dedicated to unconstrained handwriting recognition. Three main difficulties are adressed: pre-processing, optical modeling and language modeling. The pre-processing stage is related to extracting properly the text lines to be recognized from the document image. An iterative text line segmentation method using oriented steerable filters was developed for this purpose. The difficulty in the optical modeling stage lies in style diversity of the handwriting scripts. Statistical optical models are traditionally used to tackle this problem such as Hidden Markov models (HMM-GMM) and more recently recurrent neural networks (BLSTM-CTC). Using BLSTM we achieve state of the art performance on the RIMES (for French) and IAM (for English) datasets. The language modeling stage implies the integration of a lexicon and a statistical language model to the recognition processing chain in order to constrain the recognition hypotheses to the most probable sequence of words (sentence) from the language point of view. The difficulty at this stage is related to the finding the optimal vocabulary with minimum Out-Of-Vocabulary words rate (OOV). Enhanced language modeling approaches has been introduced by using sub-lexical units made of syllables or multigrams. The sub-lexical units cover an important portion of the OOV words. Then the language coverage depends on the domain of the language model training corpus, thus the need to train the language model with in domain data. The recognition system performance with the sub-lexical units outperformes the traditional recognition systems that use words or characters language models, in case of high OOV rates. Otherwise equivalent performances are obtained with a compact sub-lexical language model. Thanks to the compact lexicon size of the sub-lexical units, a unified multilingual recognition system has been designed. The unified system performance have been evaluated on the RIMES and IAM datasets. The unified multilingual system shows enhanced recognition performance over the specialized systems, especially when a unified optical model is used
27

Lamouret, Marie. "Traitement automatisés des données acoustiques issues de sondeurs multifaisceaux pour la cartographie des fonds marins." Electronic Thesis or Diss., Toulon, 2022. http://www.theses.fr/2022TOUL0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sondeur multifaisceaux (SMF) est l'une des technologies d'acoustique sous-marine les plus avancées pour l'étude des fonds et de la colonne d'eau. Il requiert une réelle expertise pour son déploiement sur le terrain ainsi que pour l'élaboration de cartographies à partir des différentes données acquises. Ces traitements sont souvent chronophages en raison de la quantité de données acquises et demandent à être automatisés pour alléger le travail à l'hydrographe. C'est ce sur quoi portent les travaux réalisés durant cette thèse. Après des rappels sur des notions d'acoustique sous-marine, le fonctionnement du SMF est décrit et les types de données manipulées tout au long des traitements sont présentés. Le manuscrit s'articule ensuite autour de deux thématiques ˸ la cartographie bathymétrique et la cartographie biocénotique. Les développements sont intégrés dans les logiciels de l'entreprise Seaviews pour laquelle les travaux sont réalisés. Ils répondent à des besoins particuliers de l'entreprise.En ce qui concerne la cartographie bathymétrique, la donnée bathymétrique doit être préalablement triée pour écarter les sondes aberrantes et éviter qu'elles ne pénalisent la précision topographique. Ce tri d'innombrables sondes est une tâche que réalisent les hydrographes, assistés aujourd'hui d'outils numériques. Nous proposerons une méthode statistique rapide pour trier les sondes tout en réalisant une carte de profondeurs marines. Ce qui amène à se demander si les images de la colonne d'eau acquises également par le sondeur ne seraient pas exploitables pour déduire une bathymétrie exempte d'aberration. Nous testerons cette hypothèse à l'aide de l'apprentissage profond (deep learning) et en particulier par des réseaux de neurones convolutifs qui ont permis des progrès considérables en vision par ordinateur. La cartographie des habitats marins (les biocénoses) est un travail de classification de la nature des fonds à partir des données acoustiques du SMF en concordance avec les espèces vivant sur les lieux. La société Seaviews a développé une méthode de préparation des données SMF pour l'analyse des habitats. Nous nous orientons vers des méthodes de classification des habitats, à partir de ces données, par des techniques d'apprentissage automatique (machine learning). Plusieurs méthodes sont mises en place et testées, puis une zone d'étude est choisie pour évaluer et comparer les résultats des différentes approches
Among underwater acoustic technologies, multibeam echo sounder (MBES) is one of the most advanced tool to study and map the underwater floors and the above water column. Its deployment on-site requires expertise so as the whole data processing to map the information. These processing are very time-consuming due to the massive quantity of recorded data and thus needs to be automatised to shorten and alleviate the hydrographer's task. This PhD research works focus on the automatisation of the current activities in Seaviews society.After some reminders on the underwater acoustic sciences, the MBES operating is described as well the produced data that will be manipulated throughout the developments. This document presents two thematics˸ bathymetric (depths) and marine habitats mapping. The developments are integrated into the Seaviews' software in the aim to be used by all the employees.About seafloor depths mapping, the bathymetric sounding has to be sorted to avoid that the outlier errors distort the results. Sorting the uncountable measures is cumbersome but necessary, although the hydrographers are today happily computed-assisted. We propose a fast statistical method to exclude the outliers while mapping the information. This leads to wonder if the water column imagery would be workable to deduce the bathymetry without failure. We will test this hypothesis with some technics of deep learning, especially with convolutional neural networks.The marine habitats mapping is a seabed nature classification according to the local life. Seaviews has worked on a way to prepare MBES data and habitats analysis. Concerning the method of classification itself, we move towards machine learning technics. Several methods are implemented and assessed, and then an area is chosen to evaluate and compare the results
28

Fitoussi, Aurélie. "Marqueurs comportementaux et corrélats neurobiologiques de la prise de décision adaptée et inadaptée chez le rat." Thesis, Bordeaux 2, 2011. http://www.theses.fr/2011BOR21871.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une prise de décision inadaptée est au centre de nombreuses pathologies neuropsychiatriques, telle que la toxicomanie, mais concerne également certains sujets sains, pour lesquels les gratifications immédiates prévalent sur les conséquences à long terme. Afin de mieux comprendre les bases neuropsychologiques et neurobiologiques de la prise de décision dans un cadre normal et pathologique, les sujets sains inadaptés constituent un modèle prometteur. Une tâche de mesure de la prise de décision chez le rat (le Rat Gambling Task, RGT) a récemment été validée dans l’équipe, très similaire à l’Iowa Gambling Task chez l’homme et permettant de révéler, parmi une population saine de rats, une majorité de sujets performants, et une minorité de non performants. Ces rats persistent à choisir les options immédiates les plus récompensantes, mais associées à de fortes pénalités imprédictibles, entrainant un faible gain final. Nous avons montré que tous ces rats sont inflexibles et moins efficaces dans la qualité du caractère dirigé de l’action. Ils présentent également une motivation accrue pour les récompenses, qui dépend d’une balance complexe coût/bénéfice, étroitement liée à l’effort à fournir, à la palatabilité de la récompense mais pas à la perception de la sensation plaisante ou des besoins métaboliques. Par ailleurs, nous avons montré qu’il n’existe pas de relation directe entre les capacités de mémoire de travail et la prise de décision. Sur le plan neurobiologique, nous avons montré 1) que la qualité du caractère dirigé de l’action dépend d’une balance d’activité PL/SDM et 2) que la prise de décision dans le RGT engage différemment des structures spécifiques selon les performances dans la tâche et la cinétique d’élaboration des choix. Ainsi, le fort recrutement de l’OFC et du Nacc shell serait un marqueur de choix adaptés, alors que celui de PL/SDM serait modulé selon la rapidité à préférer les choix favorables. Le CgA, IL et l’amygdale se désengageraient lorsque les choix sont établis. Les rats non performants présentent une hypoactivité préfrontale associée à une activité persistante de l’amygdale, suggérant un contrôle cognitif préfrontal déficient, couplé à une altération dans les associations liées à la valeur des options, induisant un déficit d’acquisition et de ré-actualisation de la valeur incitative des choix. Nous avons également montré que les différences inter-individuelles dans le RGT sont associées à des différences dans le fonctionnement basal du système monoaminergique. Les rats non performants présentent notamment (1) des métabolismes DA- et 5HT-ergique plus élevés au niveau d’IL, en accord avec l’impulsivité motrice de ces rats, et/ou la moindre qualité du caractère dirigé de l’action et (2) un métabolisme DA-ergique plus élevé au niveau du Nacc core et 5HT-ergique plus faible au niveau du BLA, suggérant une relation étroite avec leur motivation accrue et la qualité des associations liées à la valeur des options. Finalement, ces données sont intéressantes au regard des modifications dans le fonctionnement monoaminergique de base induites par des polymorphismes génétiques, conduisant à une prise de décision inadaptée, ainsi qu’à certaines pathologies psychiatriques. Toutes ces caractéristiques comportementales et neurobiologiques qui forment un ensemble cohérent pourraient correspondre à un endophénotype de troubles mentaux. Les études à l’avenir devront investir la relation directe avec la pathologie, telle que l’addiction, et l’exploration de ces caractéristiques au niveau génétique
Decision-making is profoundly impaired in several psychiatric disorders such as addiction, but also in some healthy individuals for whom immediate gratifications prevail over long term gain. To better elucidate the neuropsychological and neurobiological bases of good and poor decision making in normal and pathological conditions, healthy poor decision-makers represent a promising model. Recently, a Rat Gambling Task, aimed at measuring decision-making like in the Iowa gambling Task in humans has been validated. It allows the identification, among a normal population of rats, of majority of good decision-makers, and a minority of poor decision-makers that prefer immediate larger reward despite suffering large loses. We demonstrated that all poor decision makers are unflexible and less efficient in goal-directed behavior. They also have a higher motivation for reward that depends on a complex cost/benefice balance, related to the effort to make, to food palatability, but not to the perception of the pleasant feeling or to metabolic needs. Moreover, we demonstrated the absence of relationship between decision making performance and working memory. At the neurobiological level, we demonstrated 1) that efficiency in goal-directed behavior depends on balance of activity between PL and SDM and 2) that decision making depends on specific brain regions, with a level of activity related to the performance, as well as the time course to make choices. Higher OFC and Nacc shell activities are systematically associated with good decision making, whereas the recruitment of PL/SDM is modulated according to the time course to make good choices. CgA, IL and the amygdala would be disengaged when choices are established. Poor decision makers display a prefrontal hypoactivity associated with a persistent involvement of the amygdala, suggesting an alteration in the prefrontal cognitive control, combined with deficits in reward-based associations, leading to an impaired acquisition and/or re-updating of the incentive value of the options. Moreover, we demonstrated that inter-individual differences in the RGT are associated with distinct DA- and 5HT basal functions. Poor decision makers notably displayed (1) high DA- and 5HT-ergic metabolisms in IL, supporting their motor impulsivity and/or lower efficiency in goal-directed behavior and (2) a higher DA-ergic metabolism in the Nacc core, and lower 5HT-ergic in BLA, that could be related to their higher motivation, and the quality of reward-based associations. These data support the relationship between genetic polymorphisms inducing distinct basal monoaminergic functioning, and poor decision making as well as psychiatric disorders. All these cognitive/behavioural and neurobiological characteristics that make a consistent framework could be an endophenotype of mental disorders. Further experiments should examine the direct relationship between poor decision making and psychiatric disorders, such as addiction, and the genetic background related to this specific profile
29

Zaidi, Donia. "Étude des mécanismes pathogéniques dépendants des microtubules dans les progéniteurs neuronaux conduisant aux malformations corticales." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS159.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les cellules de glie radiaire apicale (RG) sont des cellules clés du développement cortical, capables d'auto-renouvellement ou de génération neuronale, possédant un noyau restreint à la zone ventriculaire (VZ) qui migre en fonction des phases du cycle cellulaire via un phénomène nommé migration nucléaire intercinétique (MNI). Les RG ont une forme bipolaire, avec un long processus basal soutenant la migration neuronale et un court processus apical faisant face au ventricule où un cil primaire (PC), ancré à un centrosome modifié (‘corps basal’), émerge et sert de plateforme de signalisation. Des mutations génétiques peuvent altérer le fonctionnement des RG, affectant le développement cortical et conduisant à des malformations corticales. Ces malformations sont associées chez les patients à de l’épilepsie et à des déficiences intellectuelles. Il est donc important de déterminer comment les processus moléculaires et cellulaires mis en jeu au niveau des RG peuvent être perturbés par des mutations génétiques. Mon travail de thèse a porté sur l’étude de deux gènes mutés conduisant à deux malformations corticales rares. Tout d’abord, le gène codant pour la chaine lourde de la protéine motrice dynéine (DYNC1H1) a été retrouvé muté chez des patients présentant une malformation corticale complexe avec une microcéphalie (petit cerveau) et une dysgyrie (défauts de gyrifications). Lors de mon travail de thèse, j’ai étudié les RG à la mi-corticogenèse dans un modèle murin Knock-In (KI) pour ce gène, reproduisant une mutation faux sens retrouvée chez un patient, en le comparant avec un modèle murin muté pour ce même gène mais conduisant à des neuropathies périphériques. Nous avons découvert des anomalies de MNI, de cycle cellulaire et de migration neuronale. Également, des défauts d’organelles tels que les mitochondries et l’appareil de Golgi ont été identifiés dans les RG, et sont spécifiques à la mutation faux-sens conduisant à la malformation corticale. Deuxièmement, l'hétérotopie sous-corticale (SH) est une malformation caractérisée par la présence anormale de neurones dans la substance blanche. Le gène codant pour EML1 (Echinoderm microtubule associated protein like 1) a été retrouvé muté chez certains patients SH. Lorsqu’Eml1 est muté chez la souris, une proportion de RG se retrouvent en dehors de la VZ, suggérant qu’elles se détachent coté apical. Au niveau apical, des anomalies de PC et des corps basaux ont été décrits. En étudiant un nouveau modèle de souris mutant, inactivé pour Eml1, mon travail s'est concentré sur les altérations subcellulaires et cellulaires des RG afin de comprendre les mécanismes pathogéniques conduisant à leur détachement et donc à la formation de SH. Etudiant les RG en interphase, en analysant les centrosomes, j’ai déterminé que leur structure est affectée dans les cellules de patients et de souris mutante, et ces défauts sont résolus par la stabilisation des microtubules. Le recrutement de protéines aux centrosomes est altéré et la protéine centrosomale Cep170 s'est avérée être un partenaire d'interaction spécifique d’EML1, cette interaction étant perdue quand EML1 présente une mutation SH. Les centrosomes et le PC étant intimement liés au cycle cellulaire, j’ai poursuivi par l'analyse du cycle cellulaire des RG et identifié des altérations de sa cinétique à deux stades de développement. Le séquençage de l'ARN des cellules uniques a permis d'identifier des dérèglements dans l'expression des gènes du cycle cellulaire. Le détachement anormal des RG est plus massif au début du développement que plus tard, ce qui suggère que les altérations de centrosomes et du cycle cellulaire à ce stade peuvent être en amont du détachement anormal des RG. Mon travail de thèse apporte ainsi de nouveaux éléments essentiels à la compréhension des mécanismes altérés dans les progéniteurs neuronaux dans le contexte de malformations corticales rares
In mammals, cortical development is a finely regulated process that leads to the formation of a functional cortex. Apical radial glial cells (RG) are key progenitor cells du ring cortical development, capable of self-renewal or neuronal generation, with a soma restricted to the ventricular zone (VZ) in rodents. Their nucleus migrates according to the phases of the cell cycle by a process called interkinetic nuclear migration (INM). RG have a bipolar shape, with a long basal process supporting neuronal migration and a short apical process facing the ventricle where a primary cilium (PC), anchored to a modified centrosome (‘basal body’), emerges and detects molecules present in the embryonic cerebrospinal fluid. Genetic mutations can alter the function of RG, affecting cortical development and leading to cortical malformations. These malformations are associated in patients with epilepsy, intellectual disabilities and also neuropsychiatric disorders. It is therefore important to determine how the molecular and cellular processes involving RG can be disrupted by genetic mutations. Thus, my thesis work focused on the study of mutations affecting two different genes in the context of two rare cortical malformations. First, the gene encoding for the motor protein dynein heavy chain (DYNC1H1) was found mutated in patients with a complex cortical malformation associated with microcephaly (small brain) and dysgyria (gyri defects). We generated a Knock-In (KI) mouse model for this gene, reproducing a missense mutation found in a patient. During my thesis, I studied RG at mid-corticogenesis of this KI model and, by comparing it with a mouse model mutant for the same gene but leading to peripheral neuropathies, we showed RG alterations specific to the KI model. We found abnormalities in INM, cell cycle and neuronal migration. Also, defects of key organelles, such as mitochondria and Golgi apparatus were identified in progenitors and are specific in the cortical malformation KI model. Secondly, subcortical heterotopia (SH) is a cortical malformation characterized by the abnormal presence of neurons in the white matter. Mutations in the gene coding for EML1 (Echinoderm microtubule associated protein like 1) were identified in certain SH patients. When Eml1 is mutated in mice, numerous RG are found in basal positions of the cortical wall outside the VZ, suggesting that they detach apically. Within the apical process, abnormal PC formation and basal bodies were described. By studying a new mutant mouse model where Eml1 is inactivated, my work focused on subcellular and cellular alterations of RG to understand the pathogenic mechanisms leading to their detachment and thus to SH formation. In interphase RG, focusing on mechanisms upstream of PC formation, I analyzed centrosomes and determined that their structure is affected in patient and mouse mutant cells, and these defects are rescued by stabilizing microtubules. Recruitment of key centrosomal proteins is altered early in development, and the centrosomal protein Cep170 was found to be a specific interacting partner of EML1, this interaction being lost when EML1 carries a patient mutation. Because centrosomes and cilia are intimately linked to the cell cycle, I proceeded to analyze the RG cell cycle and identified alterations in cell cycle kinetics during early and mid-development. Single-cell RNA sequencing at two key developmental stages identified deregulations in cell cycle gene expression. Abnormal RG detachment appears greater in early compared to mid-development, suggesting that centrosomal and cell cycle alterations at this stage may be upstream of abnormal RG detachment. My thesis work thus brings new elements essential to the understanding of the altered mechanisms in neural progenitors related to rare cortical malformations
30

Saeed, Kashif. "CONTRIBUTION A LA SURVEILLANCE DE L'INTEGRITE DES STRUCTURES." Phd thesis, 2010. http://pastel.archives-ouvertes.fr/pastel-00503109.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La mise en place de la surveillance de l'intégrité des structures comprend les étapes de modélisation, d'identification, d'extraction des caractéristiques et de développement d'un modèle statistique. L'objectif de cette thèse est de développer une approche intégrée regroupant ces étapes et d'élaborer une stratégie de validation en utilisant un simulateur à éléments finis. Dans cette finalité, nous avons d'abord élaboré une méthode globale de modélisation d'une structure comprenant des capteurs piézo-électriques. Ensuite, nous avons choisi la méthode d'identification par sous-espaces pour améliorer la qualité de l'estimation des paramètres modaux et éliminer automatiquement les modes erronés. Un nouveau diagramme nommé histogramme de stabilisation a été proposé. Cet histogramme permet de sélectionner automatiquement les modes physiques, et d'obtenir le degré de confiance qui peut être accordé au mode identifié. En utilisant un modèle numérique simple, trois résidus basés sur les sous-espaces de la matrice de Hankel ont été étudiés. Nous avons montré que l'utilisation de ces résidus lors de la localisation des endommagements n'est pas très efficace. Par la suite, un nouveau vecteur de résidus non-paramétrique a été proposé. Ces résidus sont associés au noyau gauche de la matrice d'observabilité du système. En utilisant ce nouveau vecteur de résidus, nous avons également préconisé une méthodologie de localisation d'endommagement basée sur un modèle éléments finis et sur les réseaux de neurones. Les résultats numériques et expérimentaux obtenus sur une poutre composite et sur une plaque en aluminium permettent de valider la méthodologie proposée. Cette méthodologie est basée sur le calcul matriciel robuste et est bien adaptée pour l'identification des endommagements en temps semi-réel.
31

Simard, Michel. "Mémoires de traduction sous-phrastiques." Thèse, 2003. http://hdl.handle.net/1866/14509.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography