Thèses sur le sujet « Distance de barrière minimale »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Distance de barrière minimale.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 15 meilleures thèses pour votre recherche sur le sujet « Distance de barrière minimale ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

On, Vu Ngoc Minh. « A new minimum barrier distance for multivariate images with applications to salient object detection, shortest path finding, and segmentation ». Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS454.

Texte intégral
Résumé :
Les représentations hiérarchiques d’images sont largement utilisées dans le traitement d’images pour modéliser le contenu d’une image par un arbre. Une hiérarchie bien connue est l’arbre des formes (AdF) qui encode la relation d’inclusion entre les composants connectés à partir de différents niveaux de seuil. Ce genre d’arbre est auto-duale et invariant de changement de contraste, ce qu’il est utilisé dans de nombreuses applications de vision par ordinateur. En raison de ses propriétés, dans cette thèse, nous utilisons cette représentation pour calculer la nouvelle distance qui appartient au domaine de la morphologie mathématique. Les transformations de distance et les cartes de saillance qu’elles induisent sont généralement utilisées dans le traitement d’images, la vision par ordinateur et la reconnaissance de formes. L’une des transformations de distance les plus couramment utilisées est celle géodésique. Malheureusement, cette distance n’obtient pas toujours des résultats satisfaisants sur des images bruyantes ou floues. Récemment, une nouvelle pseudo-distance, appelée distance de barrière minimale (MBD), plus robuste aux variations de pixels, a été introduite. Quelques années plus tard, Géraud et al. ont proposé une bonne approximation rapide de cette distance : la pseudodistance de Dahu. Puisque cette distance a été initialement développée pour les images en niveaux de gris, nous proposons ici une extension de cette transformation aux images multivariées ; nous l’appelons vectorielle Dahu pseudo-distance. Cette nouvelle distance est facilement et efficacement calculée grâce à à l’arbre multivarié des formes (AdFM). Nous vous proposons une méthode de calcul efficace cette distance et sa carte de saillants déduits dans cette thèse. Nous enquêtons également sur le propriétés de cette distance dans le traitement du bruit et du flou dans l’image. Cette distance s’est avéré robuste pour les pixels invariants. Pour valider cette nouvelle distance, nous fournissons des repères démontrant à quel point la pseudo-distance vectorielle de Dahu est plus robuste et compétitive par rapport aux autres distances basées sur le MB. Cette distance est prometteuse pour la détection des objets saillants, la recherche du chemin le plus court et la segmentation des objets. De plus, nous appliquons cette distance pour détecter le document dans les vidéos. Notre méthode est une approche régionale qui s’appuie sur le saillance visuelle déduite de la pseudo-distance de Dahu. Nous montrons que la performance de notre méthode est compétitive par rapport aux méthodes de pointe de l’ensemble de données du concours Smartdoc 2015 ICDAR
Hierarchical image representations are widely used in image processing to model the content of an image in the multi-scale structure. A well-known hierarchical representation is the tree of shapes (ToS) which encodes the inclusion relationship between connected components from different thresholded levels. This kind of tree is self-dual, contrast-change invariant and popular in computer vision community. Typically, in our work, we use this representation to compute the new distance which belongs to the mathematical morphology domain. Distance transforms and the saliency maps they induce are generally used in image processing, computer vision, and pattern recognition. One of the most commonly used distance transforms is the geodesic one. Unfortunately, this distance does not always achieve satisfying results on noisy or blurred images. Recently, a new pseudo-distance, called the minimum barrier distance (MBD), more robust to pixel fluctuation, has been introduced. Some years after, Géraud et al. have proposed a good and fast-to-compute approximation of this distance: the Dahu pseudodistance. Since this distance was initially developed for grayscale images, we propose here an extension of this transform to multivariate images; we call it vectorial Dahu pseudo-distance. This new distance is easily and efficiently computed thanks to the multivariate tree of shapes (MToS). We propose an efficient way to compute this distance and its deduced saliency map in this thesis. We also investigate the properties of this distance in dealing with noise and blur in the image. This distance has been proved to be robust for pixel invariant. To validate this new distance, we provide benchmarks demonstrating how the vectorial Dahu pseudo-distance is more robust and competitive compared to other MB-based distances. This distance is promising for salient object detection, shortest path finding, and object segmentation. Moreover, we apply this distance to detect the document in videos. Our method is a region-based approach which relies on visual saliency deduced from the Dahu pseudo-distance. We show that the performance of our method is competitive with state-of-the-art methods on the ICDAR Smartdoc 2015 Competition dataset
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ngo, Quoc-Tuong. « Généralisation des précodeurs MIMO basés sur la distance euclidienne minimale ». Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00839594.

Texte intégral
Résumé :
Dans cette thèse, nous avons utilisé la théorie des matrices et les propriétés d'algèbre linéaire pour concevoir de nouveaux précodeurs MIMO basés sur la distance euclidienne minimale (max-dmin) entre les points des constellations reçues. A cause de la grande complexité de résolution engendrée par le nombre d'antennes et le nombre de symboles dans la constellation utilisée, ce type de précodeur n'existait auparavant que pour 2 voies d'émission et des modulations simples. Nous l'avons dans un premier temps étendu à la modulation MAQ-16, avant de généraliser le concept pour toute modulation MAQ. L'utilisation des fonctions trigonométriques a ensuite permis une nouvelle représentation du canal à l'aide de deux angles, ouvrant la voie à un précodeur dmin pour trois voies de données. Grâce à ce schéma, une extension non-optimale du précodeur max-dmin pour un nombre impair de flux de symboles utilisant des modulations MAQ est obtenue. Lorsqu'une détection par maximum de vraisemblance est utilisée, le nombre de voisins fournissant la distance minimale est également très important pour le calcul du TEB. Pour prendre en compte ce paramètre, un nouveau précodeur, sans rotation possible, est considéré, menant à une expression moins complexe et un espace de solutions restreint. Enfin, une approximation de la distance minimale a été dérivée en maximisant la valeur minimale des éléments diagonaux de la matrice maximisant le RSB. L'avantage majeur de cette conception est que la solution est disponible pour toute modulation MAQ rectangulaire et pour tout nombre de flux de symboles.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Collin, Ludovic. « Optimisation de systèmes multi-antennes basée sur la distance minimale ». Brest, 2002. http://www.theses.fr/2002BRES2041.

Texte intégral
Résumé :
Les systèmes de transmission numériques à entrées multiples et sorties multiples (MIMO) sont de plus en plus étudiés du fait de leur très bonne efficacité spectrale sur des canaux riches en diffuseurs, tels que ceux des réseaux locaux sans fil ou des communications mobiles urbaines sans fil. Dans cette thèse, pour évaluer rapidement et efficacement le taux d'erreur binaire (TEB) des communications MIMO, nous proposons d'utiliser la méthode du second ordre de l'Unscented Transformation. Ensuite,nous proposons un récepteur rapide basé sur le maximum de vraisemblance (BMV) pour un canal MIMO de Rice. Pour terminer, nous proposons deux précodeurs non-diagonaux, basés sur l'optimisation de la distance euclidienne minimale. Des comparaisons sont effectuées avec des précodeurs connus, tels que le Water-Filling (WF), le minimum de l'erreur quadratique moyenne (MMSE) et la maximisation de la valeur singulière minimale de la matrice du canal global, pour illustrer l'importante amélioration du TEB due à nos précodeurs
Multi-Input Multi-Output (MIMO) digital transmission systems currently retain more and more attention due to the very high spectral efficiencies they can achieve over rich scattering transmission channels, such as wireless local area networks (WLAN) or urban mobile wireless communications. In this thesis, in order to evaluate the Bit Error Rate (BER) of MIMO communications, we propose to use the second-order Unscented Transformation method. Next, we propose a fast Maximum Likelihood Based (MLB) decoder for a MIMO Rician fading channel. Lastly, we propose two new non-diagonal precoders, based on the optimization of the minimum euclidean distance. Comparisons to other known precoders, such as Water-Filling (WF), Minimum Mean Square Error (MMSE) and maximization of the minimum singular value of the global channel matrix, are performed to illustrate the significant BER improvement of the proposed precoders
Styles APA, Harvard, Vancouver, ISO, etc.
4

Cadic, Emmanuel. « Construction de Turbo Codes courts possédant de bonnes propriétés de distance minimale ». Limoges, 2003. http://aurore.unilim.fr/theses/nxfile/default/2c131fa5-a15a-4726-8d49-663621bd2daf/blobholder:0/2003LIMO0018.pdf.

Texte intégral
Résumé :
L'objectif de cette thèse est de réaliser des turbo codes possédant de bonnes distances minimales et de contribuer ainsi à repousser le phénomène ``d'error floor'' qui correspond à un seuil de l'ordre de 10-6 pour le taux d'erreur résiduelles binaires en dessous duquel la pente de la courbe de TEB diminue de façon significative. Ce problème s'est sensiblement amélioré avec l'apparition des codes duo-binaires de Berrou [11] qui permettent notamment d'obtenir de meilleures distances minimales. Pour obtenir de bonnes distances minimales avec des turbo codes courts (longueur inférieure à 512), la construction initialement utilisée et étudiée dans cette thèse a été celle proposée par Carlach et Vervoux [26] qui permet d'obtenir d'excellentes distances minimales mais qui malheureusement s'avère moins performante en terme de décodage notamment pour des raisons propres à la structure. Après avoir identifié les raisons qui empêchent un décodage efficace de cette famille de codes, nous faisons évoluer ces codes en utilisant des structures graphiques différentes reposant toujours sur l'assemblage de codes composants de petite complexité. L'idée est de réaliser ce changement sans pour autant perdre les qualités de distance minimale de ces codes et par conséquent il est nécessaire de comprendre pourquoi les distances minimales de cette famille initiale de codes sont bonnes et de définir un critère de choix pour les codes composants. Le critère de choix ne dépend pas de la distance minimale des codes composants mais du polynôme de transition de ces codes et permet donc de sélectionner des codes composants de très faible complexité qui sont assemblés de façon à générer des treillis cycliques à seulement 4 états. Ces treillis sont alors utilisés pour élaborer des turbo codes parallèle ou série présentant de bonnes distances minimales. Certains codes auto-duaux extrémaux sont notamment construits ainsi
This thesis is aimed at building turbo codes with good minimum distances and delaying the``error-floor'' which corespond to a threshold of 10-6 for the binary error rate. Under this threshold, the slope of the curve decreases significantly. This problem is alleviated by the use of duo-binary turbo codes [11] which guarantee better minimum distances. In order to obtain good minimum distances with short turbo codes (length inferior to 512), the first construction used and studied is the one proposed by Carlach and Vervoux [26]. It allows to obtain very good minimum distances but its decoding is unfortunately very difficult because of its structure. After identifying the reasons for this problem, we have modified these codes by using some graphicals structures which are the gathering of low complexity components codes. The idea is to realize this change without loosing the minimum distances properties, and consequently we had to understand why minimum distances are good for this familly of codes and define a new criteria to choose ``good'' components codes. This criteria is independent from the minimum distance of the component codes because it is derived from the Input-Output Weight Enumerator (IOWE) of the components codes. It allows us to choose components codes with very low complexity which are combined in order to provide 4-state tail-biting trellises. These trellises are then used to build multiple parallel concatenated and serial turbo codes with good minimum distances. Some extremal self-dual codes have been built in that way
Styles APA, Harvard, Vancouver, ISO, etc.
5

Ngo, Quoc-Tuong. « Généralisation des précodeurs basés sur la distance minimale pour les systèmes MIMO à multiplexage spatial ». Rennes 1, 2012. http://www.theses.fr/2012REN1E001.

Texte intégral
Résumé :
Dans cette thèse, nous avons utilisé la théorie des matrices et les propriétés d’algèbre linéaire pour concevoir de nouveaux précodeurs MIMO basés sur la distance euclidienne minimale (max-dmin) entre les points des constellations reçues. À cause de la grande complexité de résolution engendrée par le nombre d’antennes et le nombre de symboles dans la constellation utilisée, ce type de précodeur n’existait auparavant que pour 2 voies d’émission et des modulations simples. Nous l’avons dans un premier temps étendu à la modulation MAQ-16, avant de généraliser le concept pour toute modulation MAQ. L’utilisation des fonctions trigonométriques a ensuite permis une nouvelle représentation du canal à l’aide de deux angles, ouvrant la voie à un précodeur dmin pour trois voies de données. Grâce à ce schéma, une extension non-optimale du précodeur max-dmin pour un nombre impair de flux de symboles utilisant des modulations MAQ est obtenue. Lorsqu’une détection par maximum de vraisemblance est utilisée, le nombre de voisins fournissant la distance minimale est également très important pour le calcul du TEB. Pour prendre en compte ce paramètre, un nouveau précodeur, sans rotation possible, est considéré, menant à une expression moins complexe et un espace de solutions restreint. Enfin, une approximation de la distance minimale a été dérivée en maximisant la valeur minimale des éléments diagonaux de la matrice maximisant le RSB. L'avantage majeur de cette conception est que la solution est disponible pour toute modulation MAQ rectangulaire et pour tout nombre de flux de symboles
In this thesis, we studied the efficient non-diagonal precoder based on the maximization of the minimum Euclidean distance (max-dmin) between two received data vectors. Because the complexity of the optimized solutions depends on the number of antennas and the modulation order, the max-dmin precoder was only available in closed-form for two independent data-streams with low-order modulations. Therefore, we firstly extended this solution for two 16-QAM symbols and then generalized the concept to any rectangular QAM modulation. By using trigonometric functions, a new virtual MIMO channel representation thanks to two channel angles, allows the parameterization of the max-dmin precoder and the optimization of the distance for three parallel data streams. Thanks to this scheme, an extension for an odd number of data-streams using QAM modulations is obtained. Not only the minimum Euclidean distance but also the number of neighbors providing it has an important role in reducing the error probability when an ML detection is considered at the receiver. Aiming at reducing this number of neighbors, a new precoder in which the rotation parameter has no influence is proposed, leading to less complex processing and a smaller space of solutions. Finally, an approximation of the minimum distance was derived by maximizing the minimum diagonal element of the SNR-like matrix. The major advantage of this design is that the solution can be available for all rectangular QAM-modulation and any number of datastreams
Styles APA, Harvard, Vancouver, ISO, etc.
6

Vrigneau, Baptiste. « Systèmes MIMO précodés optimisant la distance minimale : étude des performances et extension du nombre de voies ». Phd thesis, Université de Bretagne occidentale - Brest, 2006. http://tel.archives-ouvertes.fr/tel-00481141.

Texte intégral
Résumé :
Les systèmes multi-antennaires (Multiple-Input Multiple-Ouput ou MIMO) dans le domaine des communications numériques permettent d'améliorer la transmission des données selon deux principaux paramètres souvent antagonistes : le débit d'information et la fiabilité de transmission estimée en terme de probabilité d'erreurs binaire moyenne (PEB). Avec de tels systèmes, la connaissance du canal à l'émission (Channel State Information ou CSI) est un point-clé pour diminuer la PEB grâce à différentes stratégies d'allocations de puissance. Ainsi, un précodeur linéaire à l'émission associé à un décodeur linéaire à la réception peuvent optimiser un critère particulier grâce à cette information. Il en résulte une famille importante de précodeurs dénommée «précodeurs diagonaux» : le système MIMO est équivalent à des sous-canaux SISO indépendants. Les critères optimisés sont par exemple la minimisation de l'erreur quadratique moyenne (EQMM), la maximisation de la capacité (WF), obtenir des PEB égales pour tous les flux de données (EE), la maximisation du RSB post-traitement (max-SNR) ou la qualité de service (QdS). L'équipe TST a récemment élaboré un nouveau précodeur non diagonal basé sur la maximisation de la distance minimale entre symboles de la constellation de réception (max-dmin ). L'enjeu de cette thèse est d'estimer les performances en terme de PEB de ce nouveau précodeur et de les comparer avec les méthodes existantes à savoir le code d'Alamouti et les précodeurs diagonaux. Nous nous sommes intéressés en particulier à la démonstration de l'ordre de diversité maximal du max-dmin puis à la détermination d'une bonne approximation de sa PEB. Le précodeur max-dmin est ensuite associé à de la diversité de polarisation permettant de réduire le coût et l'occupation spatiale d'un système MIMO. Malgré l'introduction de corrélation, les performances proposées par le max-dmin demeurent intéressantes. Nous avons ensuite proposé une extension du précodeur max-dmin permettant de supprimer la limitation à deux sous-canaux : les grands systèmes MIMO sont mieux exploités avec plus de deux sous-canaux.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Vrigneau, Baptiste. « Système MIMO précodés optimisant la distance minimale : Etude des performances et extension du nombre de voies ». Brest, 2006. http://www.theses.fr/2006BRES2033.

Texte intégral
Résumé :
Les systèmes multi-antennaires (Multiple-Input Multiple-Ouput) dans le domaine des communications numériques permettent d'améliorer la transmission des données selon deux paramètres antagonistes : le débit d'information et la fiabilité de transmission (Probabilité d'Erreurs Binaire moyenne). Avec de tels systèmes, la connaissance du canal à l'émission (Channel State Information) est un point-clé pour diminuer la PEB grâce à différentes stratégies d'allocations de puissance. Ainsi, un précodeur linéaire à l'émission associé à un décodeur linéaire à la réception optimisent un critère pertinent grâce à cette information. Il en résulte une famille importante de précodeurs dénommée "précodeurs diagonaux" : le système MIMO est équivalent à des sous-canaux indépendants. Les critères optimisés sont par exemple la minimisation de l'erreur quadratique moyenne ou la maximisation de la capacité. L'équipe TST a récemment élaboré un nouveau précodeur non diagonal maximisant la distance minimale entre les symboles reçus (max-dmin). L'enjeu de cette thèse est d'estimer les performances en terme de PEB de ce nouveau précodeur et de les i comparer avec les méthodes existantes (code d'Alamouti et précodeurs diagonaux). Nous avons démontré l'ordre de diversité maximal du max-drain puis déterminé une bonne approximation de sa PEB. Le précodeur max-dmin est ensuite associé à de la diversité de polarisation permettant de réduire le coût et l'occupation spatiale d'un système MIMO. Malgré l'introduction de corrélation, les performances du max-dmin sont intéressantes. Nous avons ensuite proposé une extension du précodeur max-dmin permettant de supprimer la limitation à deux sous-canaux
In wireless communications, the Multiple-Input Multiple-Ouput (MIMO) systems constitute an efficient way to significantly enhance data transmission according to two main, though antagonistic, parameters: the spectral efficiency and reliability assessed from the average binary error probability (BEP). With such systems the knowledge of the channel state information (CSI) at the transmitter side is paramount to lower reduce the BEP through différent stratégies of power allocation. Indeed, once the CSI has been fully (or perfectly) known, a linear precoder at the transmit side and a linear decoder at the receive side can be designed for subséquent association by optimizing one among the following criteria: minimum mean square error (MMSE) or the capacity. Their respective optimisations have led to a family of diagonal precoders: the MIMO system is équivalent to indépendant SISO subchannels. Recently, a new no-diagonal precoder designed within our laboratory optimizes the minimal Euclidean distance between receive symbols. This thesis work was aimed at estimating the BEP of this precoder for comparison with other methods (Alamouti's code and diagonal precoders). We demonstrated the maximal diversity order of the max¬dmin, and then gave a tight BEP approximation. Moreover, the spatial dimensions and the final cost of a MIMO device were reduced by associating of the precoder max-dmin with polarity diversity. Despite the corrélation induced by this system, the max-dmin performances are still worth being considered. We also proposed an extension of the max-dmin to more than two sub-channels in order to exploit larger MIMO systems
Styles APA, Harvard, Vancouver, ISO, etc.
8

Aubry, Christophe. « Estimation parametrique par la methode de la distance minimale pour les processus de poisson et de diffusion ». Le Mans, 1997. http://www.theses.fr/1997LEMA1005.

Texte intégral
Résumé :
Le but de cette these est d'etudier certains aspects de la theorie asymptotique de l'estimation parametrique. Elle traite de la methode de la distance minimale et de la methode de la distance minimale en moyenne lorsqu'on observe un processus de diffusion faiblement bruite ou un processus de poisson. Le premier chapitre formule des resultats preliminaires. Ce sont des rappels sur les processus de diffusion, les processus de poisson et sur la statistique. Le deuxieme chapitre etablit la normalite suivant une asymptotique particuliere des estimateurs de la distance minimale pour l'observation d'un processus de diffusion. Dans le chapitre 3 est aborde l'estimation de la distance minimale pour l'observation de processus de poisson dont la fonction d'intensite est periodique. On etablit les proprietes de consistence, la forme de la distribution limite de l'estimateur, la convergence des moments et la normalite suivant une asymptotique particuliere. Enfin le chapitre 4 introduit une classe d'estimateurs bayesiens appeles estimateurs de la distance minimale en moyenne. Pour des modeles observes asymptotiquement normaux, on demontre la consistence, la normalite asymptotique et la convergence des moments. On applique ensuite ces resultats a l'observation de processus de diffusion definis comme dans le chapitre 2 et a l'observation de processus de poisson definis comme dans le chapitre 3.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Galand, Fabien. « Construction de codes Z indice p à la puissance k linéaires de bonne distance minimale et schémas de dissimulation fondés sur les codes de recouvrement ». Caen, 2004. http://www.theses.fr/2004CAEN2047.

Texte intégral
Résumé :
Cette thèse étudie deux axes de recherches reposant sur les codes. Chaque axe porte sur un paramètre particulier. Le premier axe est celui de la correction d'erreur, et nous nous intéressons à la distance minimale des codes. Notre objectif est de construire des codes sur Fp ayant une bonne distance minimale. Pour cela nous utilisons conjointement le relèvement de Hensel et la Zpk-linéarité. Nous donnons la distance minimale en petite longueur d'une généralisation des codes de Kerdock et de Preparata, ainsi que des relevés des codes de résidus quadratiques. Parmi ces codes, nous en obtenons quatre égalant les meilleurs codes linéaires. Nous donnons également une construction visant à augmenter le cardinal des codes Zpk-linéaires par ajout de translatés. Cette construction nous conduit à une borne supérieure sur le cardinaux des codes Zpk-linéaires. Le second axe, disjoint du premier dans son objectif, mais le rejoignant sur les objets étudiés, est la construction de schémas de dissimulation. Nous relions cette problématique, relevant de la stéganographie, à la construction de codes de recouvrement. Nous envisageons deux modàles de schémas. Ces modàles sont prouvés équivalents aux cette équivalence pour mettre à jour la structure des recouvrements utilisés dans les travaux déjà publiés. Cette équivalence nous sert également à déduire des bornes supérieures sur la capacité des schémas, et en donnant des constructions fondées sur les recouvrements linéaires nous obtenons des bornes inférieures.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Crozet, Sébastien. « Efficient contact determination between solids with boundary representations (B-Rep) ». Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM089/document.

Texte intégral
Résumé :
Avec le développement de systèmes robotiques avancés et de tâches de téléopération complexes, le besoin pour la réalisation de simulations en amont des opérations sur les systèmes réels se fait de plus en plus ressentir. Cela concerne en particulier les tests de faisabilité, d’entrainement d’opérateurs humains, de planification de mouvement, etc. Ces simulations doivent généralement être réalisées avec une précision importante des phénomènes physiques, notamment si l’opérateur humain est supposé faire face aux mêmes comportements mécaniques dans le monde réel que sur la scène virtuelle. La détection de collision, c’est à dire le calcul de points de contact et des normales de contact entre des objets rigides en mouvement et susceptibles d’interagir, occupe une portion significative des temps de calcul pour ce type de simulations. La précision ainsi que le niveau de continuité de ces informations de contact sont d’importance premières afin de produire des comportements réalistes des objets simulés. Cependant, la qualité des informations de contact ainsi calculées dépend fortement de la représentation géométrique des parties de la scène virtuelle directement impliquées dans la simulation mécanique. D'une part, les représentations géométriques basées sur des volumes discrets ou des tessellations permettent une génération de contacts extrêmement rapide, mais en contrepartie introduisent des artefacts numériques dus à l’approximation des formes en contact. D'autre part, l’utilisation de représentations surfaciques lisses (composées de courbes et surfaces lisses) produites par les modeleurs CAO permet d’éliminer ce problème d’approximations. Cependant, ces approches sont actuellement considérées trop lentes en pratique pour des applications en temps réel.Cette thèse est dédiée au développement d’une premier framework de détection de collision entre solides modélisés par représentation surfacique lisses suffisamment efficace pour offrir des performances temps-réel pour certaines applications industrielles nécessitant un niveau de précision élevé. Ces applications prennent typiquement la forme de la simulation d’opérations d’insertion avec faible jeu. L’approche proposée est basée sur une hiérarchie de volumes englobants et tire profit de caractéristiques clef des composants mécaniques industriels dont les surfaces sujettes à des contacts fonctionnels sont généralement modélisées par des surfaces canoniques (cylindres, sphères, cônes, plans, tores). Les contacts sur des surfaces d’interpolation telles que les NURBS sont généralement accidentels et rencontrés lors d’opérations de maintenance et de fabrication. Cette hiérarchie de volumes englobants est améliorée par l’identification d'entités supermaximales afin d’éviter la localisation redondante de points de contacts entre surfaces canoniques parfois découpées en plusieurs entités distinctes. De plus, le concept de cônes polyédrique de normales est défini afin d’établir des bornes de normales plus précises que les cônes de normales de révolution existants. Additionnellement, le framework ainsi développé est étendu afin de supporter des configurations incluant des câbles modélisés par des courbes de Bézier dilatées. Enfin, l’exploitation de la cohérence temporelle, ainsi que la parallélisation de l’ensemble du framework permet l’exécution en temps réel de certains scénarios industriels
With the development of advanced robotic systems and complex teleoperation tasks, the need to perform simulations before operating on physical systems becomes of increasing interest for feasibility tests, training of the human operators, motion planning, etc. Such simulations usually need to be performed with great accuracy of physical phenomena if, e.g., the operator is expected to face the same ones in the real world and in the virtual scene. Collision detection, i.e., the computation of contact points and contact normals between interacting rigid bodies, occupies a time-consuming part of such a physical simulation. The accuracy and smoothness of such contact information is of primary importance to produce a realistic behavior of the simulated objects. However, the quality of the computed contact information strongly depends on the geometric representation of the parts of the virtual scene directly involved in the mechanical simulation. On the one hand, discrete volumes-based and tessellation-based geometric representations allow very fast contacts generation at the cost of the potential introduction of numerical artifacts due to the approximation of the interacting geometrical shapes. On the other hand, the use of boundary representations (issued by CAD modelers) composed of smooth curve and surfaces removes this approximation problem but is currently considered being too slow in practice for real-time applications.This Ph.D focuses on developing a first complete collision detection framework on solids with smooth boundary representations that achieves real-time performances. Our goal is to allow the real-time simulation of industrial scenarios that require a high level of accuracy. Typical applications are insertion tasks with small mechanical clearances. The proposed approach is based on a bounding-volume hierarchy and takes advantage of key features of industrial mechanical components which are often modeled with surfaces describing functional contacts with canonical surfaces (cylinder, sphere, cone, plane, torus) while contacts over free-form surfaces like B-Splines are mostly accidental and encountered during operations of maintenance and manufacturing. We augment this hierarchy with the identification of supermaximal features in order to avoid redundant exact localization of contact points on canonical surfaces that may be represented as distinct features of the CAD model. In addition, we define polyhedral normal cones that offer tighter bounds of normals than existing normal cones of revolution. Moreover, we extend our method to handle configurations that involve beams modeled as deformable dilated Bézier curves. Finally, parallelization of the full approach allows industrial scenarios to be executed in real-time
Styles APA, Harvard, Vancouver, ISO, etc.
11

Ben, Abdeddaiem Maroua. « Tests d'ajustement pour des processus stochastiques dans le cas de l'hypothèse nulle paramétrique ». Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1016/document.

Texte intégral
Résumé :
Ce travail est consacré au problème de construction des tests d'ajustement dans le cas des processus stochastiques observés en temps continu. Comme modèles d'observations, nous considérons les processus de diffusion avec « petit bruit » et ergodique et le processus de Poisson non homogène. Sous l'hypothèse nulle, nous traitons le cas où chaque modèle dépend d'un paramètre inconnu unidimensionnel et nous proposons l'estimateur de distance minimale pour ce paramètre. Notre but est la construction des tests d'ajustement « asymptotically distribution free » (ADF) de niveau asymtotique α ϵ (0,1) dans le cas de cette hypothèse paramétrique pour les modèles traités. Nous montrons alors que la limite de chaque statistique étudiée ne dépend ni du modèle ni du paramètre inconnu. Les tests d'ajustement basés sur ces statistiques sont donc ADF. L'objectif principal de ce travail est la construction d'une transformation linéaire spéciale. En particulier, nous résolvons l'équation de Fredholm du second type avec le noyau dégénéré. Sa solution nous permet de construire la transformation linéaire désirée. Ensuite, nous montrons que l'application de cette transformation aux statistiques de base étudiées dans chaque modèle nous aide à introduire des statistiques ayant la même limite (l'intégrale du carrée du processus de Wiener). Cette dernière est « distribution free » vu qu'elle ne dépend ni du modèle ni du paramètre inconnu. Par conséquent, nous proposons des tests d'ajustement ADF en se basant sur cette transformation linéaire pour les processus de diffusion avec « petit bruit » et ergodique et le processus de Poisson non homogène
This work is devoted to the problem of the construction of several goodness of-fit (GoF) tests in the case of somestochastic processes observed in continuous time. As models of observations, we take "small noise" and ergodic diffusionprocesses and an inhomogeneous Poisson process. Under the null hypothesis, we treat the case where each model depends on an unknown one-dimensional parameter and we consider the minimum distance estimator for this parameter. Our goal is to propose "asymptotically distribution free" (ADF) GoF tests of asymptotic size α ϵ (0,1) in the case of the parametric null hypotheses for the considered models. Indeed, we show that the limit of each studied statistic does not depend on the model and the unknown parameter. Therefore, the tests based on these statistics are ADF.The main purpose of this work is to construct a special linear transformation. In particular, we solve Fredholm equation ofthe second kind with degenerated kernel. Its solution gives us the desired linear transformation. Next, we show that theapplication of this transformation to the basic statistics allows us to introduce statistics with the same limit (the integral of the square of the Wiener process). The latter is "distribution free" because it does not depend on the models and the unknown parameter. Therefore, we construct the ADF GoF tests which are based on this linear transformation for the diffusion ("small noise" and ergodic) and inhomogeneous Poisson processes
Styles APA, Harvard, Vancouver, ISO, etc.
12

Fang, Juing. « Décodage pondère des codes en blocs et quelques sujets sur la complexité du décodage ». Paris, ENST, 1987. http://www.theses.fr/1987ENST0005.

Texte intégral
Résumé :
Etude de la compléxité théorique du décodage des codes en blocs à travers une famille d'algorithmes basée sur le principe d'optimisation combinatoire. Puis on aborde un algorithme parallèle de décodage algébrique dont la complexitré est liée au niveau de bruit du canal. Enfin on introduit un algorithme de Viterbi pour les applications de traitement en chaînes.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Vallet, François. « Thermodynamique unidimensionnelle et structures bidimensionnelles de quelques modèles pour des systèmes incommensurables ». Paris 6, 1986. http://www.theses.fr/1986PA066151.

Texte intégral
Résumé :
Généralisation de l'approche d’Aubry du modèle de Frenkel-Kontorova au cas d'une structure incommensurable 1d à température non nulle, avec utilisation d'une méthode de renormalisation par blocs, puis au modèle multidimensionnel à t=o. Résolution du modèle en 2d et mise en évidence d'une grande similitude avec le cas 1d (transition par brisure d'analyticité, expression de l'énergie, énergies des défauts, diagramme de phase, qui est un escalier du diable complet généralisé, à transitions du 1er ordre). Modèle exact d'un hélimagnétique anisotrope sous champ externe.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Chouzenoux, Emilie. « Recherche de pas par Majoration-Minoration : application à la résolution de problèmes inverses ». Phd thesis, Ecole centrale de nantes - ECN, 2010. http://tel.archives-ouvertes.fr/tel-00555643.

Texte intégral
Résumé :
La solution des problèmes inverses en traitement du signal et de l'image est souvent définie comme le minimiseur d'un critère pénalisé qui prend en compte conjointement les observations et les informations préalables. Ce travail de thèse s'intéresse à la minimisation des critères pénalisés différentiables. Nous discutons plus précisément de la mise en oeuvre algorithmique de l'étape de recherche de pas dans l'algorithme de descente itérative. Les travaux de thèse de Christian Labat [Labat06] ont mené à l'élaboration de la stratégie de pas par Majoration-Minoration quadratique (MMQ 1D). Cette stratégie se démarque des méthodes de pas standards par sa simplicité d'implémentation et ses propriétés de convergence lorsqu'elle est associée à l'algorithme du gradient conjugué non linéaire (GCNL). Nous étendons ces propriétés à la famille des algorithmes à gradient relié. Nous montrons de plus que l'approche MMQ 1D s'étend en une stratégie de pas multi-dimensionnelle MMQ rD assurant la convergence d'algorithmes de sous-espace. Nous illustrons expérimentalement en déconvolution d'image que l'algorithme de super mémoire de gradient SMG + MMQ 2D est préférable à l'algorithme de gradient conjugué non linéaire GCNL + MMQ 1D. Lorsque le critère pénalisé contient une barrière, c'est-à-dire une fonction dont le gradient est non borné, la procédure de pas MMQ est inapplicable. Nous développons une stratégie de pas tenant compte de la singularité de la barrière à travers des approximations majorantes quadratiques augmentées d'un terme logarithmique. La recherche de pas résultante, notée MMLQ 1D, est simple à mettre en \oe{}uvre et garantit la convergence des algorithmes standards de descente itérative. Nous montrons expérimentalement que la méthode MMLQ 1D accroît les performances de l'algorithme de point intérieur primal pour la programmation quadratique. Nous appliquons enfin cette approche à la reconstruction de spectres RMN bi-dimensionnels par maximum d'entropie.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Huynh, Jimmy. « Le rôle de la barrière hémato-encéphalique dans la pathogénèse de l'oedème chez des rats souffrant d'insuffisance hépatique chronique ». Thèse, 2011. http://hdl.handle.net/1866/5894.

Texte intégral
Résumé :
L’œdème cérébral est une complication associée à l’encéphalopathie hépatique (EH) lors d’une insuffisance hépatique chronique (cirrhose du foie). Présentement, l’origine de sa pathogenèse, vasogénique (rupture de la barrière hémato-encéphalique (BHE)) ou cytotoxique (prise anormale d’ions), n’a pas encore été déterminée. Il a été démontré que le co-transporteur Na-K-Cl (NKCC1) du côté luminal des microvaisseaux sanguins cérébraux (CMV) joue un rôle dans le développement de l’œdème cérébral dans des modèles d’ischémie où la bumetanide, un inhibiteur de NKCC, atténue l’œdème cérébral. Deux modèles d’EH ont été utilisés pour cette étude i) la ligature de la voie biliaire (BDL) qui présente l’hyperammoniémie chronique, l’œdème cérébral et le stress oxydatif systémique ; ii) l’anastomose portocave (PCA) qui présente de l’hyperammoniémie chronique seulement. Les buts du projet étaient de: i) définir l’origine du développement de l’œdème chez les rats BDL en étudiant l’extravasation de macromolécules, les jonctions serrées et l’activation des métalloprotéinases matricielles de la BHE; ii) observer les effets de l’hyperammoniémie chronique indépendamment sur la BHE chez les rats PCA; iii) évaluer le rôle de l’hyperammoniémie et du stress oxydatif et iv) étudier le rôle du NKCC1 dans les CMV dans la pathogenèse de l’œdème cérébral. Les résultats du projet démontrent que l’œdème est d’origine cytotoxique chez les rats BDL et que l’intégrité de la BHE est conservée chez les rats PCA malgré l’hyperammoniémie. L’expression génique du NKCC1 est associée à l’œdème mais pas son expression protéique et sa phosphorylation. Enfin, l’étude démontre que l’hyperammoniémie et le stress oxydatif indépendant ne jouent pas un rôle dans la pathogenèse de l’œdème mais suggère qu’ils y aient un effet synergique.
Brain edema is a complication associated with hepatic encephalopathy (HE) due to chronic liver failure (cirrhosis). It is unclear whether brain edema is of vasogenic (blood brain barrier (BBB) breakdown) or cytotoxic (abnormal cellular uptake of ions) origin. It has been demonstrated that the Na-K-Cl cotransporter (NKCC1) located on the luminal side of the cerebral microvessels (CMV) is implicated in the pathogenesis of brain edema in animal models of ischemia and that the administration of bumetanide, an inhibitor of NKCC, attenuates brain water increase. Two distinct animal models of chronic liver failure and HE are used in the present study; 1) bile duct ligation (BDL) where brain edema, chronic hyperammonemia and systemic oxidative stress are observed; 2) portacaval anastomosis (PCA) where only chronic hyperammonemia is observed. The aims of the study were to: i) determine the origin of brain edema in BDL rats measuring brain extravasation, tight junctions expression and matrix metalloproteinase activation; ii) observe the effects of chronic hyperammonemia on the BBB in PCA rats; iii) study the role of oxidative stress and hyperammonemia; iv) evaluate the role of NKCC in CMV in the pathogenesis of brain edema. The results of the study determined that brain edema in BDL rats is of cytotoxic origin and chronic hyperammonemia independently has no effect on the BBB. An increase of NKCC1 mRNA is associated with brain edema but protein expression and phosphorylation are not. Furthermore, hyperammonemia and oxidative stress independently are not implicated in the development of brain edema however a synergistic effect between the two pathogenic factors in BDL rats remains a possibility.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie