Дисертації з теми "Problèmes en ligne"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Problèmes en ligne.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Problèmes en ligne".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Jolivet, Frederic. "Approches "problèmes inverses" régularisées pour l'imagerie sans lentille et la microscopie holographique en ligne." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES012/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En imagerie numérique, les approches «problèmes inverses» régularisées reconstruisent une information d'intérêt à partir de mesures et d'un modèle de formation d'image. Le problème d'inversion étant mal posé, mal conditionné et le modèle de formation d'image utilisé peu contraint, il est nécessaire d'introduire des a priori afin de restreindre l'ambiguïté de l'inversion. Ceci permet de guider la reconstruction vers une solution satisfaisante. Les travaux de cette thèse ont porté sur le développement d'algorithmes de reconstruction d'hologrammes numériques, basés sur des méthodes d'optimisation en grande dimension (lisse ou non-lisse). Ce cadre général a permis de proposer différentes approches adaptées aux problématiques posées par cette technique d'imagerie non conventionnelle : la super­-résolution, la reconstruction hors du champ du capteur, l'holographie «couleur» et enfin la reconstruction quantitative d'objets de phase (c.a.d. transparents). Dans ce dernier cas, le problème de reconstruction consiste à estimer la transmittance complexe 2D des objets ayant absorbé et/ou déphasé l'onde d'éclairement lors de l'enregistrement de l'hologramme. Les méthodes proposées sont validées à l'aide de simulations numériques puis appliquées sur des données expérimentales issues de l'imagerie sans lentille ou de la microscopie holographique en ligne (imagerie cohérente en transmission, avec un objectif de microscope). Les applications vont de la reconstruction de mires de résolution opaques à la reconstruction d'objets biologiques (bactéries), en passant par la reconstruction de gouttelettes d'éther en évaporation dans le cadre d'une étude de la turbulence en mécanique des fluides
In Digital Imaging, the regularized inverse problems methods reconstruct particular information from measurements and an image formation model. With an inverse problem that is ill-posed and ill­conditioned, and with the used image formation mode! having few constraints, it is necessary to introduce a priori conditions in order to restrict ambiguity for the inversion. This allows us to guide the reconstruction towards a satisfying solution. The works of the following thesis delve into the development of reconstruction algorithms of digital holograms based on large-scale optimization methods (smooth and non-smooth). This general framework allowed us to propose different approaches adapted to the challenges found with this unconventional imaging technique: the super-resolution, reconstruction outside the sensor's field, the color holography and finally, the quantitative reconstruction of phase abjects (i.e. transparent). For this last case, the reconstruction problem consists of estimating the complex 2D transmittance of abjects having absorbed and/or dephased the light wave during the recording of the hologram. The proposed methods are validated with the help of numerical simulations that are then applied on experimental data taken from the lensless imaging or from the in-line holographie microscopy (coherent imaging in transmission, with a microscope abject glass). The applications range from the reconstruction of opaque resolution sights, to the reconstruction of biological objects (bacteria), passing through the reconstruction of evaporating ether droplets from a perspective of turbulence study in fluid mechanics
2

Salim, Soufian Antoine. "Analyse discursive multi-modale des conversations écrites en ligne portées sur la résolution de problèmes." Thesis, Nantes, 2017. http://www.theses.fr/2017NANT4074/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous nous intéressons aux conversations écrites en ligne orientées vers la résolution de problèmes. Dans la littérature, les interactions entre humains sont typiquement modélisées en termes d’actes de dialogue, qui désignent les types de fonctions remplies par les énoncés dans un discours. Nous cherchons à utiliser ces actes pour analyser les conversations écrites en ligne. Un cadre et des méthodes bien définies permettant une analyse fine de ce type de conversations en termes d’actes de dialogue représenteraient un socle solide sur lequel pourraient reposer différents systèmes liés à l’aide à la résolution des problèmes et à l’analyse des conversations écrites en ligne. De tels systèmes représentent non seulement un enjeu important pour l’industrie, mais permettraient également d’améliorer les plate-formes d’échanges collaboratives qui sont quotidiennement sollicitées par des millions d’utilisateurs. Cependant, les techniques d’identification de la structure des conversations n’ont pas été développées autour des conversations écrites en ligne. Il est nécessaire d’adapter les ressources existantes pour ces conversations. Cet obstacle est à placer dans le cadre de la recherche en communication médiée par les réseaux (CMR), et nous confronte à ses problématiques propres. Notre objectif est de modéliser les conversations écrites en ligne orientées vers la résolution de problèmes en termes d’actes de dialogue, et de proposer des outils pour la reconnaissance automatique de ces actes
We are interested in problem-solving online written conversations. These conversations may be found on online channels such as forums, mailing lists or chat rooms. In the literature, human interactions are usually modelled in terms of dialogue acts. Dialogue acts are typically used to represent the discursive functions of utterances in dialogue. We want to use dialogue acts for the analysis of online written conversations. Well-defined methods and models allowing for the fine-grained analysis of these conversations would represent a solid framework to support different user-assistance and dialogue analysis systems. This would represent an important stake for the customer support industry, but could also be used to improve collaborative assistance platforms that are accessed daily by millions of users. However, current conversations analysis techniques were not developed with written online conversations in mind. It is necessary to adapt existing resources for these conversations. This effort is related to the field of research in computer-mediated conversations (CMC). Our goal is to build a dialogue act model for problem-solving online written conversations, and to offer tools for the automatic recognition of these acts
3

Tisserand, Arnaud. "Adéquation arithmétique architecture, problèmes et étude de cas." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 1997. http://tel.archives-ouvertes.fr/tel-00445752.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les machines actuelles offrent de plus en plus de fonctionnalités arithmétiques au niveau matériel. Les générations actuelles de processeurs proposent des opérateurs matériels rapides pour le calcul des divisions, des racines carrées, des sinus, des cosinus, des logarithmes... La littérature du domaine montre qu'en changeant notre façon de représenter les nombres et/ou en utilisant des algorithmes spécifiques de calcul, il est possible de réaliser des opérateurs matériels particulièrement efficaces. Le but de cette thèse est d'étudier et d'illustrer les liens profonds existants entre l'arithmétique et l'architecture des ordinateurs à travers quatre problèmes. Les Opérateurs Arithmétiques Asynchrones permettent de calculer les fonctions arithmétiques (addition, multiplication, division) avec un délai variable. En particulier, nous avons développé un additionneur asynchrone dont le temps moyen de calcul est O(sqrt(\log n)). L'Arithmétique En-Ligne permet de réaliser des architectures où les nombres circulent en série, chiffre par chiffre, les poids forts en tête. L'intérêt de cette arithmétique est de pouvoir calculer toutes les fonctions (en arithmétique série poids faibles en tête, il n'est pas possible de calculer les divisions et les maximums) et d'obtenir des opérateurs de petite taille avec un nombre d'entrées/sorties plus faible que leur équivalents parallèles. L'Arrondi Exact des Fonctions Elémentaires consiste à déterminer la précision intermédiaire permettant de toujours pouvoir arrondir "exactement" les résultats du calcul des fonctions élémentaires (sinus, cosinus, exponentielle...). Nous proposons dans cette thèse une méthode qui permet d'arrondir exactement les fonctions élémentaires assez rapidement. Le Système Semi-Logarithmique de Représentation des Nombres est un système permettant d'effectuer rapidement les calculs de problèmes dont le nombre de multiplications/divisions est grand devant le nombre d'additions/soustractions.
4

Zaid, Abdelkarim. "Problèmes didactiques d'une documentation et d'une assistance pédagogique en ligne pour des ingénieurs en formation en alternance." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2004. http://tel.archives-ouvertes.fr/tel-00136834.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse répond à une demande du Centre de formation par apprentissage ingénieur 2000. Il s'agit de proposer, dans le cas d'une formation d'ingénieurs en alternance, des principes pour construire des activités académiques articulées aux activités industrielles. Nous avons alors choisi une approche didactique qui se centre sur l'activité de formation de l'apprenti ingénieur. Nous avons mis en évidence la nature des savoirs mobilisés dans des activités de conception dans les deux séquences de formation : ces savoirs sont fortement déterminés par la situation de l'activité en tant que complexe de conditions et de contraintes humaines, organisationnelles et matérielles. Par ailleurs nous avons montré que, quelle que soit la séquence de formation considérée (industrielle ou académique), l'activité de conception est définie par quatre caractères essentiels : la visée, la situation, les savoirs mobilisés et les modalités de mobilisation des savoirs. Les ruptures entre les activités de conception dans les deux séquences de la formation en alternance relativement à ces qutare caractères ont notamment été dégagées. Enfin, nous avons étudié les difficultés des apprentis à utiliser une assistance pédagogique en ligne et valider un carnet de bord en tant qu'outils permettant d'opérer des continuités, entre les activités de conception industrielles et académiques
5

Hachicha, Marouane. "Modélisation de hiérarchies complexes dans les entrepôts de données XML et traitement des problèmes d'additivité dans l'analyse en ligne XOLAP." Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO22016/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis son apparition en 1998, le langage XML (eXtensible Markup Language) est devenu un standard pour la modélisation et l'échange de données. En effet, XML permet de modéliser des structures de données qui ne sont pas facilement représentées dans les systèmes relationnels. Dans ce contexte, les entrepôts de données XML représentent aujourd'hui la base de plusieurs applications décisionnelles qui exploitent des données hétérogènes (peu structurées et provenant des sources multiples) aux structures complexes comme par exemple des hiérarchies complexes.Dans ce mémoire, nous proposons une nouvelle solution XOLAP (XML-OLAP) en temps réel qui traite les problèmes d'additivité dus aux hiérarchies complexes. Tout d'abord, nous proposons un nouveau modèle de données : les arbres de données multidimensionnels, qui permet de modéliser les faits, les dimensions, les mesures et les hiérarchies complexes d'un entrepôt de données XML. Pour pouvoir interroger les arbres de données multidimensionnels, nous modélisons les requêtes utilisateur à l'aide de modèles d'arbre XML. Nous proposons ensuite un nouvel algorithme de regroupement et d'agrégation pour la résolution en temps réel des problèmes d'additivité dans les hiérarchies complexes. Nous généralisons enfin cet algorithme à un nouvel opérateur XOLAP de forage vers le haut (roll-up).Finalement, nous validons nos propositions de manière expérimentale. Pour cela, nous étendons le banc d'essais XWeB en introduisant des hiérarchies complexes dans son schéma. La comparaison de notre approche à une approche de référence montre que la surcharge due à l'exécution en temps réel de notre approche est tout à fait acceptable et que nos algorithmes sont susceptibles de passer à l'échelle
Since its inception in 1998, the eXtensible Markup Language (XML) has emerged as a standard for data representation and exchange over the Internet. XML provides an opportunity for modeling data structures that are not easily represented in relational systems. In this context, XML data warehouses nowadays form the basis of several decision-support applications exploiting heterogeneous data (little structured and coming from various sources) bearing complex structures, such as complex hierarchies. In this thesis, we propose a novel XOLAP (XML-OLAP) approach that automatically detects and processes summarizability issues at query time, without requiring any particular expertise from the user. Thus, at the logical level, we choose XML data trees, so-called multidimensional data trees, to model the multidimensional structures (facts, dimensions, measures and complex hierarchies) of XML data warehouses. In order to query multidimensional data trees, we model user queries as XML pattern trees. Then, we introduce a new aggregation algorithm to address summarizability issues in complex hierarchies. On the basis of this algorithm, we propose a novel XOLAP roll-up operator. Finally, we experimentally validate our proposal and compare our approach with the reference approach for addressing summarizability issues in complex hierarchies. For this sake, we extend the XML warehouse benchmark XWeB with complex hierarchies to generate XML data warehouses with scalable complex hierarchies. The results of our experiments show that the overhead induced by managing hierarchy complexity at run-time is totally acceptable and that our approach is expected to scale up well
6

ARADIAN, Achod André. "Quelques problèmes de dynamique d'interfaces molles." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2001. http://tel.archives-ouvertes.fr/tel-00001386.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse, de nature théorique, présente quatre axes de recherche portant sur la dynamique d'interfaces molles. (1) Gouttes et films de liquide sur substrats poreux : Nous avons étudié la déformation d'une goutte soumise simultanément à une aspiration de liquide et à un ancrage de sa ligne de contact avec le substrat. Nous nous sommes aussi intéressés au problème de l'entraînement d'un film de liquide sur une surface poreuse tirée hors d'un bain : le film a une hauteur finie, que nous avons calculée, et présente une structure non-triviale à l'approche de la ligne de contact. (2) Réticulation et interdiffusion à l'interface entre deux polymères : La formation de joints entre deux pièces de polymère nécessite une bonne interdiffusion des chaînes, qui peut cependant être considérablement contrariée lorsqu'un agent réticulant est introduit (dans le but de renforcer le matériau final). Nous avons modélisé la compétition qui s'installe, en montrant qu'il existait un paramètre de contrôle simple permettant d'optimiser le système et en donnant des prédictions sur l'énergie d'adhésion attendue dans deux régimes-limites. (3) Ecoulements granulaires : Nous donnons le scénario analytique complet du déroulement d'une avalanche sur un tas de sable, en tenant compte de l'effet d'un profil de vitesse linéaire dans la couche roulante. Parmi les prédictions, nous avons trouvé que l'épaisseur maximale devait varier comme la racine carrée de la taille de l'empilement. (4) Dynamique de films de savon verticaux : Les propositions actuelles concernant le mécanisme du drainage de ces films font appel à des instabilités hydrodynamiques se développant au bord du film ("régénération marginale"). Nous avons cherché à en déterminer précisément l'état précurseur : de manière générique, le profil forme une zone de striction, dont nous avons calculé analytiquement les dimensions typiques ; celle-ci pourrait rassembler les caractéristiques nécessaires à l'émergence des instabilités.
7

Ridouard, Frédéric. "Contributions à des problèmes d'ordonnancement en ligne : l'ordonnancement temps réel de tâches à suspension et l'ordonnancement par une machine à traitement par lot." Poitiers, 2006. http://www.theses.fr/2006POIT2323.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Durant cette thése, deux problèmes d’ordonnancement en-ligne ont été étudiés. Le premier problème concerne l’ordonnancement temps réel de tâches à suspension. Nous avons établi des résultats sur la difficulté à résoudre un tel problème d’ordonnancement (complexité, anomalies d’ordonnancement et non-optimalité des algorithmes en-ligne). Nous avons établi la non-compétitivité d’algorithmes en-ligne pour deux critères de performances même quand ceux-ci disposent de plus de ressources que l’adversaire. Enfin, nous avons étudié avec l’analyse de compétitivité différents tests d’ordonnançabilité. Le second problème se rapporte à l’ordonnancement par une machine à traitement par lot. Plusieurs algorithmes en-ligne compétitifs ont été présentés pour des problèmes dont la taille des lots est non bornée dont αH∞ qui fait partie des meilleurs algorithmes en-ligne pour le problème général (son ratio de compétitivité est égal à la borne inférieure du problème (1+p52)/2 )
In this report, two scheduling problems are studied, using the competitive analysis. The first problem is the scheduling of independant hard real-time tasks with self-suspensions. We first establish results about the difficulties of this scheduling problem (computationnal complexity, scheduling anomalies and non-optimality of on-line algorithms). We have prooved the non-competitiveness of on-line algorithmes for two performance criteria even if they have a faster processor than the adversary. Finaly, we have studied several feasibility tests established for this problem with the competitive analysis. The second problem concerns the single batching machine scheduling problem. We have proposed three on-line competitive algorithms for problems with unbounded batch sizes. We defined the algorithm αH∞ that is a best possible on-line algorithm for the general problem because its competitive ratio is equal to the lower bound, (1+p5)/2
8

Bousse, Alexandre. "Problèmes inverses, application à la reconstruction compensée en mouvement en angiographie rotationnelle X." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00361396.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail est une application de la théorie des problèmes inverses à la reconstruction 3-D des artères coronaires avec compensation du mouvement à partir de données Rot-X. Dans un premier temps nous étudions le problème inverse en dimension finie et infinie. En dimension finie nous nous concentrons sur la modélisation du problème inverse en tomographie en définissant la notion de base de voxels et de matrice de projection, en vue de pouvoir se ramener à une formulation matricielle du problème inverse. Nous étudions aussi la notion de tomographie dynamique et les problèmes qui lui sont liés. Notre formulation discrète permet grâce aux bases de voxels d'inclure n'importe quelle déformation de support étant un difféorphisme dans le problème inverse matriciel, dès lors que cette déformation est connue a priori. Dans le dernier chapitre, nous présentons une méthode d'estimation du mouvement utilisant les projections Rot-X synchronisées par rapport à l'ECG, basée sur un modèle déformable 3-D des artères coronaires. Le mouvement est modélisé par des fonctions B-splines.
Une fois le mouvement estimé, la reconstruction tomographique à un instant de référence est effectuée par une optimisation aux moindres-carrés qui inclut le mouvement ainsi qu'un terme de pénalité qui favorise les valeurs d'intensités fortes pour les voxels au voisinage de la ligne centrale 3-D, et les faibles valeurs pour les autres. Cette méthode a été testée sur des données simulées basées sur des lignes centrales 3-D préalablement extraites de données MSCT.
9

Bergé, Pierre. "Algorithmes pour voyager sur un graphe contenant des blocages." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS480.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions des problèmes NP-difficiles portant sur les graphes contenant des blocages.Nous traitons les problèmes de coupes du point de vue de la complexité paramétrée. La taille p de la coupe est le paramètre. Étant donné un ensemble de sources {s1,...,sk} et une cible t, nous proposons un algorithme qui construit une coupe de taille au plus p séparant au moins r sources de t. Nous nommons ce problème NP-complet Partial One-Target Cut. Notre algorithme est FPT. Nous prouvons également que la variante de Partial One-Target Cut, où la coupe est composée de noeuds, est W[1]-difficile. Notre seconde contribution est la construction d'un algorithme qui compte les coupes minimums entre deux ensembles S et T en temps $2^{O(plog p)}n^{O(1)}$.Nous présentons ensuite plusieurs résultats sur le ratio de compétitivité des stratégies déterministes et randomisées pour le problème du voyageur canadien.Nous prouvons que les stratégies randomisées n'utilisant pas de mémoire ne peuvent pas améliorer le ratio 2k+1. Nous apportons également des éléments concernant les bornes inférieures de compétitivité de l'ensemble des stratégies randomisées. Puis, nous étudions la compétitivité en distance d'un groupe de voyageurs avec et sans communication. Enfin, nous nous penchons sur la compétitivité des stratégies déterministes pour certaines familles de graphes. Deux stratégies, avec un ratio inférieur à 2k+1 sont proposées: une pour les graphes cordaux avec poids uniformes et l'autre pour les graphes où la taille de la plus grande coupe minimale séparant s et t est au plus k
We study NP-hard problems on graphs with blockages seen as models of networks which are exposed to risk of failures.We treat cut problems via the parameterized complexity framework. The cutset size p is taken as a parameter. Given a set of sources {s1,...,sk} and a target $t, we propose an algorithm which builds a small edge cut of size p separating at least r sources from t. This NP-complete problem is called Partial One-Target Cut. It belongs to the family of multiterminal cut problems. Our algorithm is fixed-parameter tractable (FPT) as its execution takes $2^{O(p^2)}n^{O(1)}$. We prove that the vertex version of this problem, which imposes cuts to contain vertices instead of edges, is W[1]-hard. Then, we design an FPT algorithm which counts the minimum vertex (S,T)-cuts of an undirected graph in time $2^{O(plog p)}n^{O(1)}$.We provide numerous results on the competitive ratio of both deterministic and randomized strategies for the Canadian Traveller Problem. The optimal ratio obtained for the deterministic strategies on general graphs is 2k+1, where k is a given upper bound on the number of blockages. We show that randomized strategies which do not use memory cannot improve the bound 2k+1. In addition, we discuss the tightness of lower bounds on the competitiveness of randomized strategies. The distance competitive ratio for a group of travellers possibly equipped with telecommunication devices is studied. Eventually, a strategy dedicated to equal-weight chordal graphs is proposed while another one is built for graphs with small maximum (s,t)-cuts. Both strategies outperform the ratio 2k+1
10

Arres, Billel. "Optimisation des performances dans les entrepôts distribués avec Mapreduce : traitement des problèmes de partionnement et de distribution des données." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE2012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail de thèse, nous abordons les problèmes liés au partitionnement et à la distribution des grands volumes d’entrepôts de données distribués avec Mapreduce. Dans un premier temps, nous abordons le problème de la distribution des données. Dans ce cas, nous proposons une stratégie d’optimisation du placement des données, basée sur le principe de la colocalisation. L’objectif est d’optimiser les traitements lors de l’exécution des requêtes d’analyse à travers la définition d’un schéma de distribution intentionnelle des données permettant de réduire la quantité des données transférées entre les noeuds lors des traitements, plus précisément lors phase de tri (shuffle). Nous proposons dans un second temps une nouvelle démarche pour améliorer les performances du framework Hadoop, qui est l’implémentation standard du paradigme Mapreduce. Celle-ci se base sur deux principales techniques d’optimisation. La première consiste en un pré-partitionnement vertical des données entreposées, réduisant ainsi le nombre de colonnes dans chaque fragment. Ce partitionnement sera complété par la suite par un autre partitionnement d’Hadoop, qui est horizontal, appliqué par défaut. L’objectif dans ce cas est d’améliorer l’accès aux données à travers la réduction de la taille des différents blocs de données. La seconde technique permet, en capturant les affinités entre les attributs d’une charge de requêtes et ceux de l’entrepôt, de définir un placement efficace de ces blocs de données à travers les noeuds qui composent le cluster. Notre troisième proposition traite le problème de l’impact du changement de la charge de requêtes sur la stratégie de distribution des données. Du moment que cette dernière dépend étroitement des affinités des attributs des requêtes et de l’entrepôt. Nous avons proposé, à cet effet, une approche dynamique qui permet de prendre en considération les nouvelles requêtes d’analyse qui parviennent au système. Pour pouvoir intégrer l’aspect de "dynamicité", nous avons utilisé un système multi-agents (SMA) pour la gestion automatique et autonome des données entreposées, et cela, à travers la redéfinition des nouveaux schémas de distribution et de la redistribution des blocs de données. Enfin, pour valider nos contributions nous avons conduit un ensemble d’expérimentations pour évaluer nos différentes approches proposées dans ce manuscrit. Nous étudions l’impact du partitionnement et la distribution intentionnelle sur le chargement des données, l’exécution des requêtes d’analyses, la construction de cubes OLAP, ainsi que l’équilibrage de la charge (Load Balacing). Nous avons également défini un modèle de coût qui nous a permis d’évaluer et de valider la stratégie de partitionnement proposée dans ce travail
In this manuscript, we addressed the problems of data partitioning and distribution for large scale data warehouses distributed with MapReduce. First, we address the problem of data distribution. In this case, we propose a strategy to optimize data placement on distributed systems, based on the collocation principle. The objective is to optimize queries performances through the definition of an intentional data distribution schema of data to reduce the amount of data transferred between nodes during treatments, specifically during MapReduce’s shuffling phase. Secondly, we propose a new approach to improve data partitioning and placement in distributed file systems, especially Hadoop-based systems, which is the standard implementation of the MapReduce paradigm. The aim is to overcome the default data partitioning and placement policies which does not take any relational data characteristics into account. Our proposal proceeds according to two steps. Based on queries workload, it defines an efficient partitioning schema. After that, the system defines a data distribution schema that meets the best user’s needs, and this, by collocating data blocks on the same or closest nodes. The objective in this case is to optimize queries execution and parallel processing performances, by improving data access. Our third proposal addresses the problem of the workload dynamicity, since users analytical needs evolve through time. In this case, we propose the use of multi-agents systems (MAS) as an extension of our data partitioning and placement approach. Through autonomy and self-control that characterize MAS, we developed a platform that defines automatically new distribution schemas, as new queries appends to the system, and apply a data rebalancing according to this new schema. This allows offloading the system administrator of the burden of managing load balance, besides improving queries performances by adopting careful data partitioning and placement policies. Finally, to validate our contributions we conduct a set of experiments to evaluate our different approaches proposed in this manuscript. We study the impact of an intentional data partitioning and distribution on data warehouse loading phase, the execution of analytical queries, OLAP cubes construction, as well as load balancing. We also defined a cost model that allowed us to evaluate and validate the partitioning strategy proposed in this work
11

Vu, Dong Quan. "Models and solutions of strategic resource allocation problems : approximate equilibrium and online learning in Blotto games." Electronic Thesis or Diss., Sorbonne université, 2020. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2020SORUS120.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les problèmes d'allocation des ressources sont définis comme les situations concernant les décisions sur la distribution d’un budget limité afin d’optimiser un objectif. Beaucoup d'entre eux impliquent des interactions entre des décideurs compétitifs ; ils peuvent être bien capturés par des modèles de théorie des jeux. Dans cette thèse, nous choisissons d'étudier les jeux d'allocation de ressources. Nous nous concentrons principalement sur le jeu de Colonel Blotto (CB). Dans le jeu CB, deux joueurs compétitifs, chacun ayant un budget fixe, distribuent simultanément leurs ressources vers n champs de bataille. Chaque joueur évalue chaque champ de bataille avec une certaine valeur. Dans chaque champ de bataille, le joueur qui a l'allocation la plus élevée gagne la valeur correspondante tandis que l'autre obtient zéro. Le gain de chaque joueur est à ses gains cumulés sur tous les champs de bataille. Tout d'abord, nous modélisons plusieurs variantes et extensions du jeu CB comme jeux d'informations complètes à un coup. Notre première contribution est une classe d'équilibres approximatifs dans ces jeux et nous prouvons que l'erreur d'approximation est bien contrôlée. Deuxièmement, nous modélisons les jeux d'allocation de ressources avec des structures combinatoires comme des problèmes d'apprentissage en ligne pour étudier des situations impliquant des jeux séquentiels et des informations incomplètes. Nous établissons une connexion entre ces jeux et les problèmes de chemin le plus court en ligne (OSP). Notre deuxième contribution est un ensemble de nouveaux algorithmes d’OSP sous plusieurs paramètres de feedback qui améliorent des garanties de regret et du temps d'exécution
Resource allocation problems are broadly defined as situations involving decisions on distributing a limited budget of resources in order to optimize an objective. In particular, many of them involve interactions between competitive decision-makers which can be well captured by game-theoretic models. In this thesis, we choose to investigate resource allocation games. We primarily focus on the Colonel Blotto game (CB game). In the CB game, two competitive players, each having a fixed budget of resources, simultaneously distribute their resources toward n battlefields. Each player evaluates each battlefield with a certain value. In each battlefield, the player who has the higher allocation wins and gains the corresponding value while the other loses and gains zero. Each player's payoff is her aggregate gains from all the battlefields. First, we model several prominent variants of the CB game and their extensions as one-shot complete-information games and analyze players' strategic behaviors. Our first main contribution is a class of approximate (Nash) equilibria in these games for which we prove that the approximation error can be well-controlled. Second, we model resource allocation games with combinatorial structures as online learning problems to study situations involving sequential plays and incomplete information. We make a connection between these games and online shortest path problems (OSP). Our second main contribution is a set of novel regret-minimization algorithms for generic instances of OSP under several restricted feedback settings that provide significant improvements in regret guarantees and running time in comparison with existing solutions
12

Mazet, Vincent. "Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011477.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.

Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.

Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.

Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.
13

Kovalev, Sergey. "PROBLÈMES COMBINATOIRES EN CONFIGURATION DES LIGNES DE FABRICATION : ANALYSE DE COMPLEXITÉ ET OPTIMISATION." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00849179.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de la thèse est de créer et développer de nouvelles méthodes de résolution efficaces des problèmes combinatoires en configuration des lignes de fabrication. Deux problèmes ont été particulièrement étudiés: le problème d'équilibrage et de choix d'équipement pour des lignes dédiées et le problème de minimisation des coûts de changements de séries pour des lignes multi-produits. Une solution du premier problème consiste en une affectation admissible des ressources à un nombre de stations à déterminer de sorte que le coût total soit minimal. Afin de résoudre ce problème, nous l'avons réduit au problème de partition d'ensemble et l'avons résolu par des heuristiques gloutonnes et une méthode exacte de génération de contraintes. Les expérimentations sur différentes instances ont montré que la nouvelle approche de résolution surclasse les approches antérieures de la littérature en termes de qualité de solution et de temps de calcul. Pour le second problème deux critères sont considérés lexicographiquement : la minimisation du nombre de stations et la minimisation du coût de changement de séries. Nous avons examiné successivement les cas d'exécution parallèle et séquentielle des opérations. Des solutions approchées ont été trouvées par des heuristiques gloutonnes. Ensuite, nous avons proposé deux modèles de programmation linéaire en nombres entiers (PLNE) afin de trouver le nombre de stations minimal et ensuite d'obtenir le coût de changement de séries minimal. Les résultats des expérimentations sur ces nouveaux problèmes se sont avérés prometteurs à la fois en termes de qualité de solution et de temps de calcul.
14

Le, Floc'h Laurence. "Cristaux électromagnétiques bidimensionnels discrets de taille finie : une étude théorique et expérimentale." Brest, 2005. http://www.theses.fr/2005BRES2022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à l'étude théorique et au développement de Cristaux Photoniques (CP) originaux : les Cristaux Discrets (CPD) constitués d'un empilement fini périodique de multipôles interconnectés par des zones homogènes de propagation. Facilement réalisables aux fréquences micro-ondes, les CPD ont aussi l'avantage de se décrire par l'algèbre linéaire de façon rigoureuse et exacte. Après quelques généralités sur les CP, nous traitons les CP unidimensionnels (1D) de façon inédite. Au moyen d'une description " quadripolaire ", nous mettons en place une procédure de normalisation. Ceci permet de mener une étude paramétrique universelle des réponses des CP 1D (paramètres S). Une structure expérimentale est conçue (ligne de transmission structurée micro-ruban) et analysée à l'aide de cet outil. Ensuite, la procédure est étendue aux CPD 2D. Nous exprimons les réponses en coordonnées normalisées sous une forme analytique à l'aide d'une méthode exploitant les symétries. Nous proposons une analyse des comportements en fonction d'un nombre réduit de paramètres et indépendamment de la nature des ondes. Une attention particulière est apportée au contrôle des largeur, position et niveau des bandes interdites. Puis, nous développons une méthode de synthèse simple et rapide des CPD 2D. Les démonstrateurs à motifs annulaires sont fabriqués en technologie micro-ruban dans la plage 0-7 GHz afin d'en minimiser le coût. Enfin, nous menons une étude théorique et expérimentale de l'influence des conditions aux limites sur les réponses d'un CPD 2D. L'optimisation des conditions permet d'envisager des fonctions intéressantes en termes d'application tels le filtrage et la commutation
This thesis is devoted to the theoretical study and development of a novel class of Photonic Crystals (PCs) so-called Discrete Photonic Crystals (DPCs). DPCs are arrangements of multi-port networks interconnected by wave guides. Easily manufactured in the microwave domain, CPDs can be described exactly using a classical linear algebra. After a general introduction on several types of PC, an original study on one-dimensional PCs (1D PCs) is proposed. By considering these PCs as two-port networks, we develop a process of normalization. This tool allows us to perform a universal parametric study of the responses (scattering parameters). The theory is experimentally illustrated with a microstrip periodic transmission line. The concept is then extended to the 2D-type DPCs. Symmetries have been exploited to give the responses of the structure in analytical form and in normalised units. We propose an analysis of PC spectra behaviour by means of a reduced set of parameters whatever the characteristics of the waves. Special care has been with respect to the control of width frequency position and reflectivity of the Photonic Band-gap. A simple and fast design method applied to these “2D”-type DPC has been developed. Low-cost ring-shaped prototypes are fabricated using microstrip technology in the 0-7 GHz band. We finally conduct a theroretical and an experimental study on the effects of boundary conditions on 2D DPCs responses. The optimization of theses conditions enables us to envisage specific functions for applications such as filtering or switching devices
15

Dardé, Jérémi. "Méthodes de quasi-réversibilité et de lignes de niveau appliquées aux problèmes inverses elliptiques." Phd thesis, Université Paris-Diderot - Paris VII, 2010. http://tel.archives-ouvertes.fr/tel-00551853.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail s'intéresse à l'utilisation de la méthode de quasi-réversibilité pour la résolution de problèmes inverses, un exemple typique étant le problème inverse de l'obstacle. Nous proposons pour ce dernier une nouvelle approche couplant la méthode de quasi-réversibilité et une méthode de lignes de niveau. Plus précisément, à partir d'un ouvert candidat C, nous résolvons un problème de Cauchy à l'extérieur de C, puis nous mettons à jour cet ouvert par la méthode de lignes de niveau. La solution approchée du problème de Cauchy est obtenue en utilisant la méthode de quasi-réversibilité, introduite par J.L. Lions et R. Lattès dans les années soixante. Nous proposons différentes formulations de cette méthode, ainsi que sa discrétisation par éléments finis non conformes adaptés à l'espace de Sobolev H2, et nous prouvons la convergence des éléments finis. En présence d'une donnée bruitée, nous introduisons une nouvelle méthode basée sur la dualité en optimisation et le principe de Morozov. Nous montrons que cette méthode fournit des données régularisées et un choix de paramètre de régularisation pertinent pour la quasi-réversibilité. En ce qui concerne la mise à jour de l'ouvert C, nous proposons deux méthodes de lignes de niveau très différentes : la première est basée sur une équation eikonale, la seconde sur une équation de Poisson. Nous prouvons que ces deux approches assurent la convergence vers l'obstacle. Finalement, nous présentons des résultats numériques pour cette approche couplant quasi-réversibilité/lignes de niveau dans différentes situations : problème inverse de l'obstacle avec condition de Dirichlet, détection de défauts dans une structure élasto-plastique...
16

Schroeder, Pascal. "Performance guaranteeing algorithms for solving online decision problems in financial systems." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0143.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse contient quelques problèmes de décision financière en ligne et des solutions. Les problèmes sont formulés comme des problèmes en ligne (OP) et des algorithmes en ligne (OA) sont créés pour résoudre. Comme il peut y avoir plusieurs OAs pour le même OP, il doit y avoir un critère afin de pouvoir faire des indications au sujet de la qualité d’un OA. Dans cette thèse ces critères sont le ratio compétitif (c), la différence compétitive (cd) et la performance numérique. Un OA qui a un c ou cd plus bas qu’un autre est à préférer. Un OA qui possède le c le plus petit est appelé optimal. Nous considérons les OPs suivants. Le problème de conversion en ligne (OCP), le problème de sélection de portefeuille en ligne (PSP) et le problème de gestion de trésorerie en ligne (CMP). Après le premier chapitre d’introduction, les OPs, la notation et l’état des arts dans le champ des OPs sont présentés. Dans le troisième chapitre on résoudre trois variantes des OCP avec des prix interconnectés. En Chapitre 4 on travaille encore sur le problème de recherche de série chronologie avec des prix interconnectés et on construit des nouveaux OAs. À la fin de ce chapitre l’OA k-DIV est créé pour le problème de recherche générale des k maximums. k-DIV est aussi optimal. En Chapitre 5 on résout le PSP avec des prix interconnectés. L’OA créé s’appelle OPIP et est optimal. En utilisant les idées de OPIP, on construit un OA pour le problème d’échange bidirectionnel qui s’appelle OCIP et qui est optimal. Avec OPIP, on construit un OA optimal pour le problème de recherche bidirectionnel (OA BUND) sachant les valeurs de θ_1 et θ_2. Pour des valeurs inconnues, on construit l’OA RUN qui est aussi optimal. Les chapitres 6 et 7 traitent sur le CMP. Dans les deux chapitres il y a des tests numériques afin de pouvoir comparer la performance des OAs nouveaux avec celle des OAs déjà établies. En Chapitre 6 on construit des OAs optimaux ; en chapitre 7 on construit des OA qui minimisent cd. L’OA BCSID résoudre le CMP avec des demandes interconnectées ; LOA aBBCSID résoudre le problème lorsqu’ on connaît les valeurs de θ_1,θ_2,m et M. L’OA n’est pas optimal. En Chapitre 7 on résout le CMP par rapport à m et M en minimisant cd (OA MRBD). Ensuite on construit l’OA HMRID et l’OA MRID pour des demandes interconnectées. MRID minimise cd et HMRID est un bon compromis entre la performance numérique et la minimisation de cd
This thesis contains several online financial decision problems and their solutions. The problems are formulated as online problems (OP) and online algorithms (OA) are created to solve them. Due to the fact that there can be various OA for the same OP, there must be some criteria with which one can make statements about the quality of an OA. In this thesis these criteria are the competitive ratio (c), the competitive difference (cd) and the numerical performance. An OA with a lower c is preferable to another one with a higher value. An OA that has the lowest c is called optimal. We consider the following OPS. The online conversion problem (OCP), the online portfolio selection problem (PSP) and the cash management problem (CMP). After the introductory chapter, the OPs, the notation and the state of the art in the field of OPs is presented. In the third chapter, three variants of the OCP with interrelated prices are solved. In the fourth chapter the time series search with interrelated prices is revisited and new algorithms are created. At the end of the chapter, the optimal OA k-DIV for the general k-max search with interrelated prices is developed. In Chapter 5 the PSP with interrelated prices is solved. The created OA OPIP is optimal. Using the idea of OPIP, an optimal OA for the two-way trading is created (OCIP). Having OCIP, an optimal OA for the bi-directional search knowing the values of θ_1 and θ_2 is created (BUND). For unknown θ_1 and θ_2, the optimal OA RUNis created. The chapter ends with an empirical (for OPIP) and experimental (for OCIP, BUND and RUN) testing. Chapters 6 and 7 deal with the CMP. In both of them, a numerical testing is done in order to compare the numerical performance of the new OAs to the one of the already established ones. In Chapter 6 an optimal OA is constructed; in Chapter 7, OAs are designed which minimize cd. The OA BCSID solves the CMP with interrelated demands to optimality. The OA aBBCSID solves the CMP when the values of de θ_1, θ_2,m and M are known; however, this OA is not optimal. In Chapter 7 the CMP is solved, knowing m and M and minimizing cd (OA MRBD). For the interrelated demands, a heuristic OA (HMRID) and a cd-minimizing OA (MRID) is presented. HMRID is good compromise between the numerical performance and the minimization of cd. The thesis concludes with a short discussion about shortcomings of the considered OPs and the created OAs. Then some remarks about future research possibilities in this field are given
17

Boutevin, Corinne. "Problèmes d'ordonnancement et d'affectation avec contraintes de ressources de type RCPSP et line balancing." Clermont-Ferrand 2, 2003. http://www.theses.fr/2003CLF21464.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons des méthodes de résolution pour des problèmes d'ordonnancement et d'affectation de type RCPSP et Line Balancing (problèmes d'ordonnancement et d'affectation avec contraintes de ressources). Deux problèmes industriels de type RCPSP sont étudiés. Ceux-ci ne pouvant pas être entièrement modélisés par le RCPSP, plusieurs extensions sont proposées. Le problème de Line Balancing étudié concerne l'assemblage de véhicules par des postes de travail. Il s'agit d'affecter les opérations aux postes afin de minimiser le nombre de postes utilisés. Nous effectuons le lien entre ce problème industriel et le modèle du bin packing et proposons plusieurs extensions afin d'adapter les méthodes du bin packing au problème d'équilibrage. Les modèles sont résolus avec des formulations mathématiques, heuristiques, métaheuristiques, couplages et chaînages de méthodes. . . Les tests et comparaisons des méthodes sont basés sur des instances de la littérature et industrielle
18

Valicov, Petru. "Problèmes de placement, de coloration et d’identification." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14549/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons à trois problèmes issus de l'informatique théorique, à savoir le placement de formes rectangulaires dans un conteneur (OPP), la coloration dite "forte" d'arêtes des graphes et les codes identifiants dans les graphes. L'OPP consiste à décider si un ensemble d'items rectangulaires peut être placé sans chevauchement dans un conteneur rectangulaire et sans dépassement des bords de celui-ci. Une contrainte supplémentaire est prise en compte, à savoir l'interdiction de rotation des items. Le problème est NP-difficile même dans le cas où le conteneur et les formes sont des carrés. Nous présentons un algorithme de résolution efficace basé sur une caractérisation du problème par des graphes d'intervalles, proposée par Fekete et Schepers. L'algorithme est exact et utilise les MPQ-arbres - structures de données qui encodent ces graphes de manière compacte tout en capturant leurs propriétés remarquables. Nous montrons les résultats expérimentaux de notre approche en les comparant aux performances d'autres algorithmes existants. L'étude de la coloration forte d'arêtes et des codes identifiants porte sur les aspects structurels et de calculabilité de ces deux problèmes. Dans le cas de la coloration forte d'arêtes nous nous intéressons plus particulièrement aux familles des graphes planaires et des graphes subcubiques. Nous montrons des bornes optimales pour l'indice chromatique fort des graphes subcubiques en fonction du degré moyen maximum et montrons que tout graphe planaire subcubique sans cycles induits de longueur 4 et 5 est coloriable avec neuf couleurs. Enfin nous confirmons la difficulté du problème de décision associé, en prouvant qu'il est NP-complet dans des sous-classes restreintes des graphes planaires subcubiques.La troisième partie de la thèse est consacrée aux codes identifiants. Nous proposons une caractérisation des graphes identifiables dont la cardinalité du code identifiant minimum ID est n-1, où n est l'ordre du graphe. Nous étudions la classe des graphes adjoints et nous prouvons des bornes inférieures et supérieures serrées pour le paramètre ID dans cette classe. Finalement, nous montrons qu'il existe un algorithme linéaire de calcul de ID dans la classe des graphes adjoints L(G) où G a une largeur arborescente bornée par une constante. En revanche nous nous apercevons que le problème est NP-complet dans des sous-classes très restreintes des graphes parfaits
In this thesis we study three theoretical computer science problems, namely the orthogonal packing problem (OPP for short), strong edge-colouring and identifying codes.OPP consists in testing whether a set of rectangular items can be packed in a rectangular container without overlapping and without exceeding the borders of this container. An additional constraint is that the rotation of the items is not allowed. The problem is NP-hard even when the problem is reduced to packing squares in a square. We propose an exact algorithm for solving OPP efficiently using the characterization of the problem by interval graphs proposed by Fekete and Schepers. For this purpose we use some compact representation of interval graphs - MPQ-trees. We show experimental results of our approach by comparing them to the results of other algorithms known in the literature. we observe promising gains.The study of strong edge-colouring and identifying codes is focused on the structural and computational aspects of these combinatorial problems. In the case of strong edge-colouring we are interested in the families of planar graphs and subcubic graphs. We show optimal upper bounds for the strong chromatic index of subcubic graphs as a function of the maximum average degree. We also show that every planar subcubic graph without induced cycles of length 4 and 5 can be strong edge-coloured with at most nine colours. Finally, we confirm the difficulty of the problem by showing that it remains NP-complete even in some restricted classes of planar subcubic graphs.For the subject of identifying codes we propose a characterization of non-trivial graphs having maximum identifying code number ID, that is n-1, where n is the number of vertices. We study the case of line graphs and prove lower and upper bounds for ID parameter in this class. At last we investigate the complexity of the corresponding decision problem and show the existence of a linear algorithm for computing ID of the line graph L(G) where G has the size of the tree-width bounded by a constant. On the other hand, we show that the identifying code problem is NP-complete in various subclasses of planar graphs
19

Wazzan-Zrek, Nahla. "Contribution à la résolution des problèmes aux limites en milieux anistoropes par la méthode des lignes bicaractéristiques." Grenoble 1, 1990. http://www.theses.fr/1990GRE10042.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but du travail presente est de determiner les solutions statiques pour les problemes des fondations superficielles et des diedres charges sur des sols et roches anisotropes. Des mises en uvre numeriques de la methode des lignes bicaracteristiques sont developpees, afin d'obtenir des tables et des graphes pour les charges limites, utilisables par les bureaux d'etudes. Les materiaux consideres sont non pesants et en etat de deformation plane; ils obeissent aux criteres de von mises, tresca, drucker-prager et coulomb, generalises aux materiaux orthotropes de revolution par boehler et sawczuk. Deux types d'interfaces (lisse et collee) sont considerees. Les charges limites sont obtenues pour differents parametres des problemes et les reseaux des lignes bicaracteristiques correspondantes sont traces. Des phenomenes specifiques aux materiaux anisotropes sont mis en evidence: rupture d'interface dans le cas d'une interface lisse, dissymetrie des zones plastifiees, dependance de la solution par rapport au type d'interface
20

Privault, Caroline. "Modèles mathématiques pour la gestion off-line et on-line des changements d'outils sur une machine flexible." Phd thesis, Grenoble 1, 1994. http://tel.archives-ouvertes.fr/tel-00344527.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de cette thèse est l'étude d'un problème d'ordonnancement, dont le critère d'optimisation est la minimisation du nombre total de changements d'outils sur une machine flexible. Différents problèmes liés à l'outillage et pouvant constituer un obstacle au fonctionnement d'un atelier flexible sont brièvement examinés, (de la gestion de l'inventaire aux changements d'outils). Nous nous concentrons ensuite sur le problème d'ordonnancement avec gestion d'outils sur une seule machine: ce problème est NP-complet. Un premier aspect qui est la gestion off-line des outils est étudié: différents modèles sont proposés pour la minimisation des changements en fonction d'une séquence des tâches donnée. Dans ce cas, le problème est polynomial. Nous revenons ensuite au problème d'ordonnancement proprement dit, pour lequel plusieurs types de méthodes heuristiques sont décrites et comparées. La seconde partie du travail est consacrée à la gestion on-line des changements d'outils; elle se compose de deux chapitres: dans le premier, le modèle que nous allons utiliser est décrit en détail. Il s'agit de la modélisation des problèmes de k-serveurs. Le principe peut être résumé comme suit: sur un réseau de n clients potentiels, on dispose de k serveurs mobiles, avec lesquels on doit répondre on-line aux demandes unitaires et successives des clients, tout en optimisant les déplacements des serveurs. Ce problème est en étroite relation avec la gestion des mémoires en informatique. Dans le dernier chapitre, le modèle des k-serveurs «classique» est généralisé aux problèmes avec service par blocs de demandes, ce qui permet d'adapter l'algorithme de partitionnement, (fortement compétitif pour le service unitaire), au cas plus général des demandes groupées. Cet algorithme dont nous étudions les propriétés et la compétitivité est applicable à la gestion on-line des changements d'outils. Il sert de base à la construction d'une heuristique d'ordonnancement avec gestion d'outils. Cette dernière méthode se révèle très efficace comparée aux précédentes
21

Bafounta-Mampouya, Eléazar. "Le problème de la transition en Europe de l'Est : grandes lignes et orientations d'une réforme." Lyon 3, 1999. http://www.theses.fr/1999LYO31011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'effondrement du système socialiste en Europe de l'Est est la conséquence perverse d'une tactique de gouvernement éprouvée en Union soviétique. En effet, chaque fois que le pays était confronté à une crise grave, les dirigeants acceptaient de faire des concessions ou des compromis pour conserver l'essentiel, à savoir le pouvoir politique. En 1989, Mikhail Gorbatchev est allé trop loin dans les concessions et, contrairement à Lénine en 1921 et Staline en 1939, il n'a pas pu conserver le pouvoir. Cet échec a provoqué l'implosion du système. La construction d'une autre organisation économique, politique et sociale sur les ruines du socialisme est beaucoup moins facile qu'il n'y parait. En l'absence de modèles théoriques, chaque pays a élabore sa stratégie de transition vers le capitalisme. Dans ce mouvement, les facteurs clés de succès semblent être les conditions initiales, la volonté des dirigeants et la prise en compte des conditions locales. Il parait clairement que les pays d'Europe centrale ont pris un avantage considérable par rapport aux autres pays anciennement socialistes.
22

Mazoyer, Jacques. "Une solution en temps minimal et à 6 états internes au problème de la synchronisation d'une ligne de fusiliers." Lyon 1, 1986. http://www.theses.fr/1986LYO10062.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous construisons une solution optimale avec 6 etats internes. Les solutions precedentes utilisaient une dichotomie iteree et symetrique de la ligne initiale. Notre solution utilise une dichotomie non symetrique: les lignes sont coupees aux deux tiers (au lieu du milieu). Ce type de coupure permet de traiter symmetriquement le resultats de chaque dichotomie et d'obtenir une solution en 7 etats. En reprenant cette solution et en utilisant divers codages, on obtient une solution en 6 etats
23

Srour, Ali. "Etudes de deux approches mathématiques complémentaires pour un problème de reconstruction tomographique." Thesis, Tours, 2008. http://www.theses.fr/2008TOUR4016/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse sont divisés en quatre parties. La première est consacrée à la présentation du modèle de reconstruction tomographique. Dans la deuxième partie, nous traitons une approche variationnelle qui consiste en un problème de minimisation non-différentiable avec une contrainte non convexe, d'intérieur vide pour les topologies usuelles. L'étude numérique de l'approche précédente est faite dans la troisième partie. Elle est basée sur le système d'optimalité, la méthode d'Uzawa et une méthode de gradient à pas optimal pour écrire un schéma numérique. Dans la quatrième partie, nous nous intéressons à l'approche par lignes de niveaux pour résoudre des problèmes de propagation de fronts. Cette méthode fait apparaître des équations de type Hamilton-Jacobi du second ordre avec un terme non-local. Nous prouvons l'existence et l'unicité d'une solution de viscosité pour ces équations dans deux cas: celui des fronts compacts et celui des fronts non compacts
The thesis at hand is composed of four parts. The first of which is devoted to present our model of tomographic reconstruction. The second part treats a non-differentiable variational problem with a non-convex constraint the interior of which is empty for usual topologies. A numerical study of the above approach is elaborated in the third part. A numerical scheme is derived based upon our optimal system, the method of Uzawa and a gradient descent method. In the last part, we use a level-set approach to solve the front propagation problem. A second order Hamilton-Jacobi type equation with a non-local term comes into play. We prove the existence and uniqueness of a viscosity solution in both compact and non-compact fronts cases
24

Naudin, Edith. "Problèmes de tournées de véhicules avec contraintes de ressources : modélisations par arcs-états et techniques de résolution adaptées." Paris 6, 2003. http://www.theses.fr/2003VERS0038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Hadj-Amar, Hassiba. "Identification de lignes de courant principales d'un écoulement de fluide par assimilation de données." Paris, CNAM, 2003. http://www.theses.fr/2003CNAM0476.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous présentons une méthode originale qui combine l’assimilation de données avec l’optimisation de forme afin d’identifier les lignes de courant principales d’un écoulement autour d’une structure, plus particulièrement les lignes de courant frontière entre deux zones d’écoulements différents, par exemple un écoulement irrotationnel incompressible et le sillage où le rotationnel de la vitesse n’est pas négligeable. Nous disposons de mesures prises dans la zone où l’écoulement est irrotationnel incompressible et d’un modèle numérique. Le modèle d’écoulement considéré est celui de l’écoulement potentiel. La méthode de résolution choisie est la méthode des équations intégrales. Elle permet de ramener la résolution de certains problèmes posés dans un domaine à la résolution d’équations intégrales posées sur la frontière de ce domaine, ce qui se traduit par une économie dans le coût de résolution. Cela permet aussi d’éviter le problème de remaillage que nous pouvons avoir si nous utilisons la méthode des éléments finis. Pratiquement, nous minimisons un écart quadratique entre le champ d’observation et celui des valeurs numériques obtenues par le modèle. Le paramètre de minimisation est la ligne de courant recherchée. Nous avons validé la méthode développée par des cas-tests dans lesquels les données sont stimulées par une solution provenant d’un code Navier-Stokes car c’est ce qui traduit le mieux un écoulement réel
We present an original method which combines data assimilation and optimal shape design to identify principal streamlines of a fluid flow around a profile, particularly, the boundary streamline between the irrotational incompressible flow and the rotational wake. We can take observations in the area where the flow is irrotational incompressible. We consider a potential flow model. To solve the flow equations, we use an integral equations method. It allows us to solve integral equations on the boundary of a domain instead of solving an exterior problem in a domain. Using the integral equations also allows us to get a boundary mesh in the place of a surface mesh, so we avoid remeshing problem that we have with finite element methods. We minimize a quadratic gap between the observations field and the numerical values obtained by the model. The minimization parameter is the streamline we want to identify. We did the some applications with data simulated by a Navier-Stokes code. The Navier-Stokes solution is the nearest solution to a real flow
26

Stephan, Yann. "Calcul numérique de solutions discontinues du problème de Hencky en théorie de la plasticité parfaite." Paris 11, 1987. http://www.theses.fr/1987PA112416.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un corps solide soumis à des contraintes, subit une déformation décrite par la connaissance du champ de déplacements en chacun de ses points. Si l'on considère un corps parfaitement plastique, le champ de déplacements recherché est solution d'un problème non linéaire (problème de Hencky) et présente, a priori, une perte de régularité l'existence de telles discontinuités est d'ailleurs confirmée par de nombreux résultats expérimentaux (observation de surfaces de glissement, plis, angles. . . ). Les solutions recherchées étant supposées régulières de part et d'autre d'une courbe dont la position reste à déterminer, nous sommes ainsi ramenés à un problème d'optimisation de domaines, que nous résolvons par des méthodes numériques d'analyse convexe, à l'aide d'une représentation discrète des espaces fonctionnels (éléments finis) et de la ligne de glissement (B-Splines)
The strain of a solid body submitted to stresses may be described by the displacements field in each point. If we consider field, which is and,a priori, discontinuities a perfectly plastic material, we search a displacements a solution of a non-linear problem (the Hencky's problem) exhibits a loss of regularity: the existence of such is otherwise confirmed by many experimental results (slip surfaces, angles,). If we suppose that the solutions are smooth on both sides of a curve whose exact location remains to be determined, we are led to an Optimal Design problem which we can solve by convex analysis and numerical methods after a well-suited discretization of the functional spaces (by finite elements) and the slip line (by B-Splines. )
27

Tran, Thi Thanh Mai. "Modélisation des problèmes bi-fluides par la méthode des lignes de niveau et l'adaptation du maillage : Application à l'optimisation des formes." Thesis, Paris 6, 2015. http://www.theses.fr/2014PA066421/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La première préoccupation de cette thèse est le problème de deux fluides ou un fluide à deux phases, c’est-à-dire que nous nous sommes intéressés à la simulation d’écoulements impliquant deux ou plusieurs fluides visqueux incompressibles immiscibles de propriétés mécaniques et rhéologiques différentes. Dans ce contexte, nous avons considéré que l’interface mobile entre les deux fluides est représentée par la ligne de niveau zéro d’une fonction ligne de niveau et régie par l’équation d’advection, où le champ advectant est la solution des équations de Navier-Stokes. La plupart des méthodes de capture d’interface utilisent une grille cartésienne fixe au cours de la simulation. Contrairement à ces approches, la nôtre est fortement basée sur l’adaptation de maillage, notamment au voisinage de l’interface. Cette adaptation de maillage permet une représentation précise de l’interface, à l’aide de ses propriétés géométriques, avec un nombre de degrés de liberté minimal.La résolution d'un problème à deux fluides est résumée par les étapes suivantes:- Résoudre les équations de Navier-Stokes par la méthode de Lagrange-Galerkin d’ordre 1;- Traitement géométrique la tension de surface se basant sur la discrétisation explicite de l'interface dans le domaine de calcul;- Résoudre l'équation d’advection par la méthode des caractéristiques;- Les techniques de l'adaptation de maillage.On propose ici un schéma entre l’advection de l’interface, la résolution des équations de Navier-Stokes et l’adaptation de maillage. Certains résultats des exemples classiques pour les deux problèmes de monofluide et bifluide comme la cavité entrainée, la rémontée d’une bulle, la coalescence de deux bulles et les instabilités Rayleigh-Taylor sont étudiés en deux et trois dimensions.La deuxième partie de cette thèse est liée à l'optimisation des formes en mécanique des fluides. Nous construisons un schéma numérique en utilisant la méthode des lignes de niveau et l’adaptation de maillage dans le contexte des systèmes de Stokes. Le calcul de la sensibilité de la fonction objective est liée à la méthode de variation des limites d’Hadamard et les dérivées des formes sont calculées par la méthode de Céa. Un exemple numérique avec la fonction objective de la dissipation d'énergie est présenté pour évaluer l'efficacité et la fiabilité du schéma proposé
The first concern of this thesis is the problem of two fluids flow or two-phase flow, i.e weare interested in the simulation of the evolution of an interface (or a free surface) between twoimmiscible viscous fluids or two phases of a fluid. We propose a general scheme for solving two fluids flow or two-phase flow which takes advantage of the flexibility of the level set method for capturing evolution of the interfaces, including topological changes. Unlike similar approaches that solve the flow problem and the transport equation related to the evolution of the interface on Cartesian grids, our approach relies on an adaptive unstructured mesh to carry out these computations and enjoys an exact and accurate description of the interface. The explicit representation of the manifold separating the two fluids will be extracted to compute approximately the surface tension as well as some algebraic quantities like the normal vector and the curvature at the interface.In a nutshell, the resolution of a two-fluid problem is summarized by the steps involves thefollowing ingredients:– solving incompressible Navier-Stokes equations by the first order Lagrange-Galerkin method;– geometrical treatment to evaluate the surface tension basing on the explicit discretisation of the interface;– solving the level set advection by method of characteristics; – the techniques of mesh adaptation.It is obvious that no numerical method is completely exact in solving the PDE problemat hand, hence, we need a discretized computational domain. However, the accuracy of numericalsolutions or the mass loss/gain can generally be improved with mesh refinement. The question thatarises is related to where and how to refine the mesh. At each time, our mesh adaptation producesthe adapted mesh based on the geometric properties of the interface and the physical properties ofthe fluid, simply speaking, only one adapted mesh at each time step to assume both the resolutionof Navier-Stokes and the advection equations. It answers to the need for an accurate representationof the interface and an accurate approximation of the velocity of fluids with a minimal number ofelements, then decreasing the amount of computational time. Some results of the classical examples for both problems of monofluid and bifluid flows as : lid-driven cavity, rising bubble, coalescence of two bubbles, and Rayleigh-Taylor instability are investigated in two and three dimensions.The second part of this thesis is related to shape optimization in fluid mechanics. We construct a numerical scheme using level set method and mesh adaptation in the context of Stokes systems. The computation of the sensitivity of objective function is related to the Hadamard’s boundary variation method and the shape derivatives is computed by Céa’s formal method. A numerical example with theobjective function of energy dissipation is presented to assess the efficiency and the reliability of theproposed scheme
28

Abdous, Mohammed Amine. "Optimal design of manufacturing systems with ergonomics : application to assembly lines." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEM034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse contribue à l'évaluation et l'optimisation de l'ergonomie dans la phase de conception des systèmes de production. Une mauvaise ergonomie physique dans les systèmes de production se traduit par une productivité plus faible et des blessures des opérateurs, et augmente les coûts pour les entreprises. L'objectif principal de ce travail est de proposer des méthodes d'optimisation pour la conception de systèmes de production, tenant compte à la fois de l'ergonomie, de la productivité et des coûts. Ce travail se concentre sur la conception préliminaire des lignes d'assemblage. L'enjeu est de fournir aux décideurs des méthodes d'optimisation pour la prise en compte de l'ergonomie, tout en satisfaisant toutes les contraintes technologiques et économiques. Les problèmes combinatoires considérés sont les problèmes d'équilibrage de lignes d'assemblage et de sélection des équipements. Nous avons considéré un modèle quantitatif d'ergonomie basé sur des équations de fatigue et de récupération tirées de la littérature. Nous avons proposé une linéarisation permettant de définir un programme linéaire en variables entières pour ce problème et des méthodes de résolution optimale et approchée. Nous avons également proposé une généralisation de l'approche, avec un modèle multi-objectif optimisant le coût et l'ergonomie. Nous avons développé un algorithme multi-objectif pour sa résolution. Sur la base des modèles et des algorithmes d'optimisation proposés, nous avons défini une méthodologie pour la conception de lignes d'assemblage avec l'optimisation de l'ergonomie dès la phase de conception. Cette méthodologie a été appliquée avec succès dans deux cas industriels
This thesis contributes to the research stream of evaluation and optimization of ergonomics in the design phase of manufacturing systems. Poor physical ergonomics in manufacturing systems results in lower productivity, lower motivation, injuries, and increases costs for companies. The main objective of this work is the proposition of optimization methods for manufacturing systems design, with the joint consideration of ergonomics, productivity, and cost. This work focuses on the preliminary design of assembly lines. The challenge is to provide decision-makers with optimization methods to take ergonomics into account while satisfying all technological and economic constraints. The combinatorial problems considered are the assembly line balancing problem and the selection of equipment. We considered a quantitative model of ergonomics based on fatigue and recovery equations taken from the literature. In addition to the combinatorial nature of problems dealt with, the main scientific challenge stems from the non-linear nature of the ergonomics model. We proposed a linearization allowing defining an integer linear program, we developed optimal and approximate resolution approaches. Besides, we proposed a generalization of the approach, with a multi-objective model optimizing cost and ergonomics. We developed a multi-objective algorithm for its resolution.Based on the proposed models and optimization algorithms, we have defined a methodology for the design of assembly lines with the optimization of ergonomics from the design phase. This methodology has been successfully applied to industrial cases
29

Lapointe, Alexandra. "Optimisation de la régularité du service de transport en commun dans le but d'éviter le groupage d'autobus au Réseau de transport de la Capitale." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/36679.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le projet d’optimisation de la régularité du service de transport en commun a pour but de trouver des solutions au problème de groupage d’autobus au Réseau de Transport de la Capitale. Le phénomène est caractérisé par des intervalles irréguliers entre les passages d’autobus aux arrêts. Ce sont les retards encourus par certains autobus qui sont à l’origine du problème. Les retards relèvent d’événements sporadiques qui sont influencés par les caractéristiques physiques et temporelles d’un parcours. Cette recherche se penche plus particulièrement sur le Métrobus 807, parcours très achalandé et parcourant l’axe entre les pôles ouest et est de la Ville de Québec. L’objectif est de proposer des solutions au problème et de les comparer entre elles afin de faire les recommandations adéquates quant à une potentielle implantation. Actuellement, des intervalles irréguliers, conséquences du phénomène de groupage d’autobus, sont notés à plusieurs endroits sur le réseau entre autres sur le parcours 807. Cela nuit à l’efficacité du réseau dans son ensemble et cause des frustrations chez les utilisateurs de transport en commun dans la Ville de Québec. L’éventail L’éventail des solutions proposées dans le cadre de cette recherche se compose de solutions à la fois appliquées individuellement et de manière combinée. Les solutions proposées agissent sur les sources potentielles de retard et visent à rétablir rapidement les intervalles suite à la détection d’un événement de groupage. Les solutions sont ensuite testées en contexte de simulation à événements discrets afin de prédire leur performance en situation réelle. Le simulateur permet de tester les solutions dans un environnement dynamique où l’on peut préalablement à l’implantation quantifier et qualifier les effets escomptés de chaque solution. Les recommandations formulées permettent d’améliorer la régularité du service de transport en commun, de maximiser l’utilisation des ressources et d’offrir à l’utilisateur de transport commun un confort et une expérience améliorée.
The regularity optimization project of the public transit service aims at finding solutions to the bus bunching problem at the Réseau de Transport de la Capitale. The phenomenon is characterized by irregular intervals between the transits of buses at stops. The delays incurred by certain buses are at the origin of the problem. Delays are caused by sporadic events that are influenced by the physical and temporal characteristics of a bus line. This research focuses on the Métrobus 807, a crowded bus route that travels the axis between the West and East poles of Quebec City. The goal is to suggest solutions to the problem and to compare them with each other in order to make the proper recommendations for a potential implementation. Currently, irregular intervals, consequences of the bus bunching phenomenon, are noted in several places on the network as well as on the 807 bus route. The efficiency of the network as well as the public transit user experience in Quebec City is negatively affected. The suggested solutions in the present research include solutions applied individually as well as combined with others. The suggested solutions act on the potential sources of delays and are meant to quickly restore the intervals following the detection of a bus bunching event. The solutions are then tested under a discrete event simulation to predict their performance under real circumstances. The simulation allows to test the solutions in a dynamic environment in which it is possible to quantify and qualify the expected results prior to an implementation. The recommendations made in this research allow to improve the regularity of the public transit service, to maximize the use of resources and to offer to the public transit user a comfortable and enhanced experience.
30

Leman, Samuel. "Contribution à la résolution de problèmes de compatibilité électromagnétique par le formalisme des circuits électriques de Kron." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10147/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’analyse de la Compatibilité ElectroMagnétique (CEM) des systèmes complexes consiste à prévoir le comportement EM d’appareils électroniques immergés dans un environnement où interviennent des interactions de natures très variées. Ce peut être des phénomènes multiphysiques où se combinent des couplages EM et thermiques; il peut aussi s’agir d’architectures mulitéchelles comportant des composants de dimensions disproportionnées devant la longueur d’onde; ces interactions peuvent aussi concerner des configurations multiparamètres lorsque plusieurs éléments interviennent simultanément dans le calcul des perturbations EM. La thèse a consisté en la mise en place d’une méthode qui semble bien adaptée à la résolution de ces problèmes de CEM complexes. L’outil développé s’appuie sur l’utilisation de l’analyse tensorielle des réseaux électriques instaurée par G. KRON et qu’on envisage étendre à la CEM des systèmes complexes. Le raisonnement consiste à fusionner différents outils numériques de simulations existants, au moyen d’une méthodologie basée sur l’assimilation d’un grand système à un assemblage de circuits électriques équivalents. Circuits auxquels nous pourrons associer la résolution d’une équation contenant un super-tenseur impédance ainsi que des tenseurs fém et courants dont il faut s’efforcer de déterminer les règles de construction. A titre d’illustration, le couplage EM entre câbles, le blindage des lignes, les antennes et une cavité EM ont été simulé par le formalisme de KRON pour permettre la mise en forme d’une bibliothèque de sous-fonctions réutilisables pour l’étude de systèmes plus complexes
Analysis of the Electromagnetic Compatibility (EMC) of so-called complex systems consists of predicting voltage induced on electronic circuits submitted to various EM couplings. Such phenomena may consist of couplings between EM and Thermal parameters, or they may concern couplings throughout systems of various sizes with respect to the wavelength and the behaviour of the system. These interactions may also depend on many parameters like dimension, physical data and so on. This thesis is aimed at developing a method well-suited to resolving the problems posed by the EMC of complex systems. This method reduces these couplings to a circuit assembly with a combination of inductance, capacitance and resistance, voltage source and current source. The main advantage of the methodology will be to use the formalism of electrical networks developed by G. KRON, which consists of solving the circuit theory by means of the inversion of a large matrix size. In the scope of this work, EM coupling between cables, shielded cables, antennas, and an EM cavity were simulated with KRON’s formalism to establish a library of subroutines to use to solve complex EMC problems. The comparison between KRON’s method and measurements of the coupling between antennas inside an EM cavity under various configurations shows the efficiency of the method for EMC problems concerning systems of variable sizes and large numbers of parameters. Finally, we proposed to study the simulation of an electrothermal system which consists of both the electrical propagation and thermal diffusion inside a coaxial system filled with a thermally and electrically conducing material. This study seems to open new possibilities for the development of a new generation of EMC tool
31

Djaziri, Leila. "Diagnostic de défauts d'isolement dans des lignes de transmission électriques : application aux cables de signalisation SNCF." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112134/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux de thèse portent sur la détection de défauts d'isolement dans des lignes de transmission de grandes longueurs. Il s'agit de détecter des défauts non francs liés à l'isolant entre les conducteurs d'un câble de grande longueur qui sont représentés par le paramètre de conductance de fuite. Détecter ces défauts, signes d'un possible futur court-circuit, est un enjeu important mais nécessite une méthode non invasive. Par exemple, dans le cas des câbles de signalisation SNCF, il s'agit de développer une méthode de diagnostic de très faibles conductances de fuite dans les câbles de signalisation le long des voies ferrées compatible avec la circulation des trains. Il faut savoir estimer, à partir de mesures en un seul point du câble, de fortes résistances distribuées sur plusieurs centaines de mètres sans perturber la bande de fréquences du continu à 40 kHz, réservée aux signaux de service. En effet, les câbles de signalisation de la SNCF qui nous intéressent ont une longueur moyenne de 1500 m et sont utilisés dans la bande de fréquence 0-40 kHz. Nous proposons donc une méthode fréquentielle permettant d'estimer de faibles défauts à moyenne fréquence dans des lignes de transmission uniformes avec pertes. Elle repose sur deux idées principales : une analyse fine des effets conjoints de la dissipation et de la dispersion et une méthode de comparaison de deux lignes ayant les mêmes caractéristiques et ne différant que du paramètre de conductance de fuite. Cette méthode de comparaison a été généralisée dans le cas de lignes multiconducteurs en adoptant une démarche statistique.\\Cette thèse a apporté de nouveaux résultats : des formules d'estimation de pertes découlant de l'analyse fine d'une part des effets conjoints de la dissipation et de la dispersion et d'autre part de la méthode de comparaison de deux lignes. Des simulations numériques ont été faites dans les deux cas afin de valider la méthode fréquentielle proposée. Des expériences ont été réalisées afin de valider l'analyse statistique développée dans le cas de lignes multiconducteurs
This thesis work focuses on the detection of insulation faults in very long transmission lines. This is detecting soft defects related to the insulation between the conductors of a long cable which are represented by the leakage conductance parameter. Detect these faults, signs of a possible future short-circuit, is an important issue but requires a noninvasive method. For example, in the case of railway signaling cables, it is to develop a method of diagnosis of very low leakage conductances in signaling cables along railways compatible with the movement of trains. Be aware estimate from measurements in one point of the cable, strong resistance distributed over several hundred meters without disturbing the continuous frequency range to 40 kHz, reserved for service signals. Indeed, the signal cables from the train that interest us have an average length 1500 m and are used in the frequency band 0-40 kHz.We propose so a frequency method for estimating low defects to medium frequency in uniform transmission lines with losses. It is based on two main ideas : a detailed analysis of joint effects of dissipation and dispersion and a method of comparing two lines having the same characteristics and differing only leak conductance parameter. This method of comparison was widespread in the case of multiconductor lines by adopting a statistical approach.This thesis has brought new results : losses estimation formulas resulting from the detailed analysis of a share of joint effects of dissipation and dispersion and also the method of comparing two lines. Numerical simulations were made in both cases to validate the proposed frequency method. Experiments were performed to validate the statistical analysis in the case of multiconductor lines
32

Visco, Comandini Filippo. "Some inverse cattering problems on star-shapped graphs : application to fault detection on electrical transmission line networks." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0035.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on a considéré quelques problèmes d’inverse scattering pour le système de Zakharov-Shabat et pour l’équation 1-d de Schrödinger sur des graphes en étoile. Le premier chapitre est consacré à la description de méthodes pour la réflectométrie appliquées aux réseaux électriques. On montre que ces dernières peuvent être vues comme des problèmes d’inverse scattering sur des graphes en étoile. Modélisées par les équations des télégraphistes, les expériences du réflectomètre peuvent être réécrites comme une équation 1-d de Schrödinger dans le cas d’un réseau sans perte et comme un système de Zakharov-Shabat dans le cas plus général. Dans le chapitre 2, on introduit des éléments de la théorie de scattering pour les deux systèmes. On rappelle les résultats fondamentaux et on présente l’état de l’art pour la théorie de scattering sur les graphes. Le troisième chapitre illustre les problèmes inverses pour l’équation de Schrödinger. On prouve l’identifiabilité de la géométrie pour les réseaux en étoile, en particulier le nombre des branches et leur longueur. Ensuite, on étudie des problèmes d’identification des potentiels à travers l’inverse scattering. Le dernière chapitre traite des problèmes inverses reliés aux réseaux avec pertes. On montre, aussi dans ce cas, l’identifiabilité de quelques informations géométriques et on donne un résultat vers l’identification des hétérogénéités montrant la relation entre les mesures du réflectomètre et des facteurs de pertes de la ligne
In this thesis, having in mind applications to the fault-detection/diagnosis of electrical networks, we consider some inverse scattering problems for the Zakharov-Shabat equations and time-independent Schrödinger operators over star-shaped graphs. The first chapter is devoted to describe reflectometry methods applied to electrical networks as an inverse scattering problems on the star-shaped graphs. Modeled by the telegrapher’s equations, reflectometry experiments can be written as inverse scattering problems for Schrödinger operator in the lossless case and for Zakharov-Shabat system for the lossy transmission network. In Chapter 2 we introduce some elements of the inverse scattering theory for 1 􀀀 d Schrödinger equations and the Zakharov-Shabat system. We recall the basic results for these two systems and we present the state of art of scattering theory on network. The third chapter deals with some inverse scattering for the Schrödinger operators. We prove the identifiability of the geometry of the star-shaped graph: the number of the edges and their length. Next, we study the potential identification problem by inverse scattering. In the last chapter we focus on the inverse scattering problems for lossy transmission star-shaped network. We prove the identifiability of some geometric informations by inverse scattering and we present a result toward the identification of the heterogeneities, showing the identifiability of the loss line factor
33

Batog, Guillaume. "Problèmes classiques en vision par ordinateur et en géométrie algorithmique revisités via la géométrie des droites." Phd thesis, Université Nancy II, 2011. http://tel.archives-ouvertes.fr/tel-00653043.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Systématiser: tel est le leitmotiv des résultats de cette thèse portant sur trois domaines d'étude en vision et en géométrie algorithmique. Dans le premier, nous étendons toute la machinerie du modèle sténopé des appareils photos classiques à un ensemble d'appareils photo (deux fentes, à balayage, oblique, une fente) jusqu'à présent étudiés séparément suivant différentes approches. Dans le deuxième, nous généralisons avec peu d'effort aux convexes de $\R^3$ l'étude des épinglages de droites ou de boules, menée différemment selon la nature des objets considérés. Dans le troisième, nous tentons de dégager une approche systématique pour élaborer des stratégies d'évaluation polynomiale de prédicats géométriques, les méthodes actuelles étant bien souvent spécifiques à chaque prédicat étudié. De tels objectifs ne peuvent être atteints sans un certain investissement mathématique dans l'étude des congruences linéaires de droites, des propriétés différentielles des ensembles de tangentes à des convexes et de la théorie des invariants algébriques, respectivement. Ces outils ou leurs utilisations reposent sur la géométrie des droites de $\p^3(\R)$, construite dans la seconde moitié du XIX\ieme{} siècle mais pas complètement assimilée en géométrie algorithmique et dont nous proposons une synthèse adaptée aux besoins de la communauté.
34

Ghnatios, Chady. "Simulation avancée des problèmes thermiques rencontrés lors de la mise en forme des composites." Phd thesis, Ecole centrale de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00867281.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La modélisation des procédés de mise en forme de composites est confrontée à de nombreux verrous scientifiques malgré les avancées récentes en matière de modélisation mécanique, analyse numérique, stratégies de discrétisation et capacité de calcul. En effet, la mise en forme de composites est confrontée à la nécessité de la prise en compte des comportements non-linéaires anisotropes et fortement couplés, définis dans des géométries très complexes. De plus, l'optimisation des procédés ainsi que l'identification par calcul inverse nécessite de multiples résolutions du problème direct. Dans ce contexte les techniques de réduction de modèles offrent de nouvelles possibilités, permettant d'accélérer les calculs de quelques ordres de magnitude, et même de résoudre des modèles jamais résolus jusqu'à présent. La "Proper Generalized Decomposition" ou PGD est une des trois grandes familles des méthodes de réduction de modèles, susceptible de constituer un changement de paradigme en mécanique numérique. En effet, la PGD permet de résoudre des problèmes multidimensionnels résultants de l'introduction de paramètres physiques ou de conformation tout en évitant la malédiction de la dimensionnalité. Dans ce travail, on utilise la PGD pour adresser la solution de problèmes thermiques rencontrés lors de la mise en forme des composites. De plus, une approche de calcul "off-line/on-line" pour l'optimisation et le contrôle en temps réel est proposée. En effet, la PGD est utilisée pour calculer "off-line" des solutions paramétriques, exploitées ensuite "on-line" sur des plateformes de calcul légères (Smartphones ou tablettes).
35

Bouland, Catherine. "Etude morphologique et expérimentale de l'appareil reproducteur d'Asterias rubens L.(Echinodermata-Asteroidea). Contrôle du cycle gonadique annuel et problème de la lignée germinale." Doctoral thesis, Universite Libre de Bruxelles, 1987. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/213482.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Pillain, Axelle. "Line, Surface, and Volume Integral Equations for the Electromagnetic Modelling of the Electroencephalography Forward Problem." Thesis, Télécom Bretagne, 2016. http://www.theses.fr/2016TELB0412/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La reconstruction des sources de l'activité cérébrale à partir des mesures de potentiel fournies par un électroencéphalographie (EEG) nécessite de résoudre le problème connu sous le nom de « problème inverse de l'EEG ». La solution de ce problème dépend de la solution du « problème direct de l'EEG », qui fournit à partir de sources de courant connues, le potentiel mesuré au niveau des électrodes. Pour des modèles de tête réels, ce problème ne peut être résolut que de manière numérique. En particulier, les équations intégrales de surfaces requièrent uniquement la discrétisation des interfaces entre les différents compartiments constituant le milieu cérébral. Cependant, les formulations intégrales existant actuellement ne prennent pas en comptent l'anisotropie du milieu. Le travail présenté dans cette thèse introduit deux nouvelles formulations intégrales permettant de palier à cette faiblesse. Une formulation indirecte capable de prendre en compte l'anisotropie du cerveau est proposée. Elle est discrétisée à l'aide de fonctions conformes aux propriétés spectrales des opérateurs impliqués. L'effet de cette discrétisation de type mixe lors de la reconstruction des sources cérébrales est aussi étudié. La seconde formulation se concentre sur l'anisotropie due à la matière blanche. Calculer rapidement la solution du système numérique obtenu est aussi très désirable. Le travail est ainsi complémenté d'une preuve de l'applicabilité des stratégies de préconditionnement de type Calderon pour les milieux multicouches. Le théorème proposé est appliqué dans le contexte de la résolution du problème direct de l'EEG. Un préconditionneur de type Calderon est aussi introduit pour l'équation intégrale du champ électrique (EFIE) dans le cas de structures unidimensionnelles. Finalement, des résultats préliminaires sur l'impact d'un solveur rapide direct lors de la résolution rapide du problème direct de l'EEG sont présentés
Electroencephalography (EEG) is a very useful tool for characterizing epileptic sources. Brain source imaging with EEG necessitates to solve the so-called EEG inverse problem. Its solution depends on the solution of the EEG forward problem that provides from known current sources the potential measured at the electrodes positions. For realistic head shapes, this problem can be solved with different numerical techniques. In particular surface integral equations necessitates to discretize only the interfaces between the brain compartments. However, the existing formulations do not take into account the anisotropy of the media. The work presented in this thesis introduces two new integral formulations to tackle this weakness. An indirect formulation that can handle brain anisotropies is proposed. It is discretized with basis functions conform to the mapping properties of the involved operators. The effect of this mixed discretization on brain source reconstruction is also studied. The second formulation focuses on the white matter fiber anisotropy. Obtaining the solution to the obtained numerical system rapidly is also highly desirable. The work is hence complemented with a proof of the preconditioning effect of Calderon strategies for multilayered media. The proposed theorem is applied in the context of solving the EEG forward problem. A Calderon preconditioner is also introduced for the wire electric field integral equation. Finally, preliminary results on the impact of a fast direct solver in solving the EEG forward problem are presented
37

Lei, Ming. "Imagerie 3D d'impédance bioélectrique : problème direct, problème inverse : détermination des lignes de courant en 3D et application de la méthode de la matrice de sensibilité pour la reconstruction d'une image en 3D dans un volume conducteur inhomogène sphérique." Toulouse, INPT, 1995. http://www.theses.fr/1995INPT010H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation du courant electrique a des fins therapeutiques est une technique tres repandue en milieu medical, mais les mecanismes d'action du courant electrique dans le corps humain posent des problemes tres complexes. Ce travail cherche a apporter une contribution a une meilleure connaissance de ces mecanismes en analysant la distribution des densites de courant dans un volume conducteur de forme arbitraire inhomogene, quand le courant est injecte par des electrodes placees sur sa surface. La determination des lignes de courant electrique a l'interieur d'un volume conducteur inhomogene spherique, soumis a des injections de courant au moyen d'electrodes constitue le probleme direct. En utilisant la methode des elements frontiere, les distributions de potentiel sur la surface et a l'interieur du volume sont calculees, ce qui permet de determiner les lignes de courant dans le domaine etudie. Un logiciel a ete developpe pour cette determination. L'imagerie d'impedance est une nouvelle technique d'imagerie medicale, qui a pour but de reconstruire une image de la distribution de conductivite electrique au sein d'un milieu physiologique, a partir d'informations recueillies a la peripherie de ce meme milieu. Elle apparait comme potentiellement complementaire aux autres techniques d'imagerie medicale et constitue le probleme inverse. Un algorithme de reconstruction en 2d et en 3d, utilisant la methode de la matrice directe de sensibilite, a ete realise. Cette methode est basee sur la relation existant entre la variation de conductivite d'un pixel donne c a l'interieur du domaine et la variation des perturbations de difference de potentiel de la frontiere du domaine. L'application en 3d de cette methode, qui s'affranchit de l'utilisation d'images de sections planes, a ete demontree a l'issue de cette etude. Enfin, une etude approfondie de la methode de retroprojection filtree a permis de developper un filtrage specifique ameliorant la qualite des images reconstruites
38

Moultaka, Jihane. "Synthèse des populations stellaires dans les galaxies proches : aspect théorique et applications." Paris 6, 2001. http://www.theses.fr/2001PA066463.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Gardeux, Vincent. "Conception d'heuristiques d'optimisation pour les problèmes de grande dimension : application à l'analyse de données de puces à ADN." Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00676449.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse expose la problématique récente concernant la résolution de problèmes de grande dimension. Nous présentons les méthodes permettant de les résoudre ainsi que leurs applications, notamment pour la sélection de variables dans le domaine de la fouille de données. Dans la première partie de cette thèse, nous exposons les enjeux de la résolution de problèmes de grande dimension. Nous nous intéressons principalement aux méthodes de recherche linéaire, que nous jugeons particulièrement adaptées pour la résolution de tels problèmes. Nous présentons ensuite les méthodes que nous avons développées, basées sur ce principe : CUS, EUS et EM323. Nous soulignons en particulier la très grande vitesse de convergence de CUS et EUS, ainsi que leur simplicité de mise en oeuvre. La méthode EM323 est issue d'une hybridation entre la méthode EUS et un algorithme d'optimisation unidimensionnel développé par F. Glover : l'algorithme 3-2-3. Nous montrons que ce dernier algorithme obtient des résultats d'une plus grande précision, notamment pour les problèmes non séparables, qui sont le point faible des méthodes issues de la recherche linéaire. Dans une deuxième partie, nous nous intéressons aux problèmes de fouille de données, et plus particulièrement l'analyse de données de puces à ADN. Le but est de classer ces données et de prédire le comportement de nouveaux exemples. Dans un premier temps, une collaboration avec l'hôpital Tenon nous permet d'analyser des données privées concernant le cancer du sein. Nous développons alors une méthode exacte, nommée delta-test, enrichie par la suite d'une méthode permettant la sélection automatique du nombre de variables. Dans un deuxième temps, nous développons une méthode heuristique de sélection de variables, nommée ABEUS, basée sur l'optimisation des performances du classifieur DLDA. Les résultats obtenus sur des données publiques montrent que nos méthodes permettent de sélectionner des sous-ensembles de variables de taille très faible,ce qui est un critère important permettant d'éviter le sur-apprentissage
40

Batog, Guillaume. "Problèmes classiques en vision par ordinateur et en géométrie algorithmique revisités via la géométrie des droites." Electronic Thesis or Diss., Nancy 2, 2011. http://www.theses.fr/2011NAN23001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Systématiser : tel est le leitmotiv des résultats de cette thèse portant sur trois domaines d'étude en vision et en géométrie algorithmique. Dans le premier, nous étendons toute la machinerie du modèle sténopé des appareils photos classiques à un ensemble d'appareils photo (deux fentes, à balayage, oblique, une fente) jusqu'à présent étudiés séparément suivant différentes approches. Dans le deuxième, nous généralisons avec peu d'efforts aux convexes de R3 l'étude des épinglages de droites ou de boules, menée différemment selon la nature des objets considérés. Dans le troisième, nous tentons de dégager une approche systématique pour élaborer des stratégies d'évaluation polynomiale de prédicats géométriques, les méthodes actuelles étant bien souvent spécifiques à chaque prédicat étudié. De tels objectifs ne peuvent être atteints sans un certain investissement mathématique dans l'étude des congruences linéaires de droites, de propriétés différentielles des ensembles de tangentes à des convexes et de la théorie des invariants algébriques, respectivement. Ces outils ou leurs utilisations reposent sur la géométrie de P3 (R), construite dans la seconde moitié du XIXe siècle mais pas complètement assimilée en géométrie algorithmique et dont nous proposons une synthèse adaptée aux besoins de la communauté
Systematize is the leitmotiv of the results in this thesis. Three problems are studied in the field of computer vision and computational geometry. In the first one, we extend all the machinery of the pinhole model for classical cameras to a whole set of cameras (two-slit, pushbroom, oblique, pencil), which were separately studied with different approaches. In the second one, we generalize to convex bodies in R3 the work on pinning lines by or balls, which had so far been tackled by techniques intimately linked to the geometry of the objects. In the third one, we attempt to work out a systematic approach in place of problem-specific methods in order to build polynomial evaluation trees for geometric predicates. Such goals could not be reached without a mathematical investigation in the study of linear line congruences, differential properties of sets of tangent lines to a convex and classical invariant theory respectively. These tools or their uses are mostly based on line geometry in P3 (R). This geometry was designed in the second half of the 19th century but its full power hos not yet been used by the computational geometry community. This thesis therefore also serves as an extended tutorial
41

Wegener, Jan-Thierry. "Redeployment in Convoys of Fleets of Shared Vehicles." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22722/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’autopartage est une manière moderne de louer une voiture. C'est un système attractif pour les clients qui utilisent une voiture occasionnellement. Dans un système d’autopartage, une flotte de véhicules est répartie sur une aire urbaine. Les client peuvent prendre ou rendre une voiture à n'importe quel moment et à n'importe quelle station, à condition qu’il y ait une voiture de libre à la station de départ et qu’il y a une place de parking libre à la station de destination. Pour s'en assurer, les clients peuvent réserver une voiture en avance. Pour qu’un tel système fonctionne de manière satisfaisante, il faut que le nombre de véhicules et le nombre de places libres dans les stations s'équilibrent. Cela conduit à un problème d'équilibre d'occupation des stations, appelé problème de relocalisation : un opérateur doit surveiller l'occupation des stations et décider quand et de quelle manière les voiture doivent être deplacées d’une station « trop pleine » à une station « insuffisamment pleine ». Nous considérons un système d’autopartage innovant, où les voitures sont partiellement autonomes. Cela permet de constituer des convois de véhicules que dirige un véhicule spécial, de sorte qu'un convoi est mis en mouvement par un seul conducteur. Cette configuration est similaire au système mis en place pour les vélos en libre-service, où un camion peut déplacer plusieurs vélos simultanément pendant le processus de la relocalisation. Dans le cadre de cette thèse, nous développons les aspects dynamiques et statiques du problème de relocalisation. Le « problème de relocalisation dynamique » décrit la situation où les voitures sont déplacées pendant les heures de travail afin de satisfaire les besoins des clients. L’opérateur doit prendre des décisions « dynamiques », en fonction de la situation. Dans le cadre du « problème de relocalisation statique », nous supposons qu’il n'y a aucune interaction (ou très peu) entre les clients et le système. Cette situation se produit lorsque le système est préparé pour le lendemain (ex : processus de la relocalisation effectué pendant la nuit). Nous modélisons le problème de relocalisation dans le cadre d’un système de tâches métriques. Ensuite, nous analysons les deux problèmes et nous donnons des stratégies pour les résoudre. Enfin, nous effectuons quelques expériences de calcul pour examiner l’applicabilité des algorithmes présentés en pratique
Carsharing is a modern way of car rental, attractive to customers who make only occasional use of a car on demand. In a carsharing system, a fleet of cars is distributed at specified stations in an urban area, customers can take a car at any time and station and return it at any time and station, provided that there is a car available at the start station and a free place at the destination station. To ensure the latter, customers have to book their demands in advance. For operating such a system in a satisfactory way, the stations have to keep a good ratio between the total number of places and the number of cars in each station, in order to serve as many requests as possible. This leads to the problem of balancing the load of the stations, called Relocation Problem: an operator has to monitor the load and to decide when and how to move cars from “overfull” stations to “underfull” ones. We consider an innovative carsharing system, where the cars are partly autonomous, which allows to build wireless convoys of cars leaded by a special vehicle, such that the whole convoy is moved by only one driver. This setting is similar to bikesharing, where trucks can simultaneously move several bikes during the relocation process. In this thesis, we address the dynamic and static aspects of the Relocation Problem. The “Dynamic Relocation Problem” describes the situation when cars can be moved between stations during the working hours in order to satisfy the needs of the customers. Hereby, the operator has to make decisions dynamically according to the current situation. In the “Static Relocation Problem” we assume that there is no (or only little) interaction by customers with the system. This situation occurs when the carsharing system is prepared for the next day, i.e., the relocation process is performed during the night. We model the Relocation Problem in the framework of a metric task system. Afterwards, we theoretically analyze both problems and give strategies to solve them. Finally, we perform some computational experiments to examine the applicability of the presented algorithms in practice
42

Khouadjia, Mostepha Redouane. "Solving dynamic vehicle routing problems : from single-solution based metaheuristics to parallel population based metaheuristics." Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL10140/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Beaucoup de problèmes dans le monde réel ont une nature dynamique et peuvent être modélisés comme des problèmes dynamiques d'optimisation combinatoire. Cependant, les travaux de recherches sur l'optimisation dynamique se concentrent essentiellement sur les problèmes d'optimisation continue et ils ciblent rarement les problèmes combinatoires. Une des applications dans le domaine des problèmes dynamiques combinatoires ayant reçu un intérêt croissant au cours de ces dernières décennies est le système de transport en ligne où dynamique. Un problème typique de ce domaine est le Problème Dynamique de Tournées de Véhicules (PDTV). Dans ce dernier, le dynamisme peut être attribué à plusieurs facteurs (conditions météorologiques, nouvelle commande client, annulation d'une commande précédente, véhicule tombant en panne, etc.). Dans un tel problème, les informations ne sont pas complètement connues a priori, mais plutôt révélées au décideur progressivement avec le temps. Par conséquent, les solutions des différentes instances doivent être trouvées au fur et à mesure du temps, simultanément avec les informations entrantes. Ces problèmes font appel à une méthodologie capable de suivre les solutions optimales au cours du temps. Dans cette thèse, le problème dynamique de tournées de véhicules est étudié et le développement de méthodologies générales appelées métaheuristiques pour sa résolution est traité. Leur capacité à s'adapter à l'évolution de l'environnement et leur robustesse sont discutées. Les résultats des expérimentations montrent grâce à des mesures de performance dynamique que nos méthodes sont efficaces sur ce problème et ont donc un grand potentiel pour d'autres problèmes combinatoires dynamiques
Many problems in the real world have dynamic nature and can be modeled as dynamic combinatorial optimization problems. However, research on dynamic optimization focuses on continuous optimization problems, and rarely targets combinatorial problems. One of the applications in dynamic combinatorial problems that has received a growing interest during the last decades is the on-line or dynamic transportation systems. A typical problem of this domain is the Dynamic Vehicle Routing Problems (DVRPs). In this latter, the dynamism can be attributed to several factors (weather condition, new customer order, cancellation of old demand, vehicle broken down, etc.). In such application, information on the problem is not completely known a priori, but instead is revealed to the decision maker progressively with time. Consequently, solutions for different instances have to be found as time proceeds, concurrently with managing the incoming information. Such problems call for a methodology to track their optimal solutions through time. In this thesis, dynamic vehicle routing problem is addressed and developing general methodologies called metaheuristics to tackle this problem is investigated. Their ability to adapt to the changing environment and their robustness are discussed. Results of experiments demonstrate thanks to dynamic performance measures that our methods are effective on this problem and hence have a great potential for other dynamic combinatorial problems
43

Brethomé, Lucile. "Modélisation et optimisation d’un plan de transport ferroviaire en zone dense du point de vue des voyageurs." Thesis, Ecole centrale de Lille, 2018. http://www.theses.fr/2018ECLI0014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception d’un plan de transport d’un service ferroviaire est un processus qui se réalise entre deux ans et six mois avant la mise en service de celui-ci. Les principales phases de la conception sont la définition des dessertes, le calcul de la grille horaire et enfin l’organisation des roulements de rames et des conducteurs. La manière dont le plan de transport est conçu peut avoir de nombreuses conséquences sur la qualité de service : fréquence en gare insuffisante qui peut entrainer une perte de clients, robustesse de la grille horaire face à de petits incidents... En zone dense, tous ces éléments sont à prendre en compte, dès la conception de la grille horaire.Aujourd’hui, SNCF Transilien conçoit ses plans de transport en prenant d’abord en compte l’optimisation des ressources de production (sillons, rames et agents de conduite). Toutefois, l’augmentation des ressources mises en œuvre n’améliore plus l’adéquation du plan de transport à la demande des voyageurs. Ce mode de conception ne permet donc plus de faire face à l’augmentation de la demande de mobilité. C’est pourquoi il faut repenser la conception du plan de transport en intégrant immédiatement la dimension voyageuse.Nos travaux se concentrent sur les problématiques de conception de dessertes et de grille horaire, en prenant en compte le point de vue des voyageurs. Nous présentons un modèle multiobjectif de conception de dessertes, puis nous présentons un modèle de conception de grille horaire intégrant le choix d’itinéraire des voyageurs. Ensuite, nous présentons une méthode cherchant à intégrer ces deux modèles. Enfin, nous présentons une évaluation de nos résultats grâce à des indicateurs de fiabilité
The design of a railway transportation plan is a process achieved between two years and six months before it is put into service. The main phases in the design of a transportation plan are the line planning, the timetabling, the rolling stock and the crew scheduling.The design of the transportation plan can have many consequences on the quality of service: an inadequate frequency in station can cause a loss of passengers, sufficient number of seated places, robustness of the timetable in the face of small incidents... In dense area, as in the Ile-de-France region, all these elements must be taken into account as the transportation plan is designed.Today, SNCF Transilien designs its transportation plans by first taking into account the optimization of production resources (train paths, rolling stock units and drivers). However, today, the increase in resources implemented no longer improves the adequacy of the transportation plan to passengers’ demand. This design method no longer makes it possible to cope with the increase in the demand for mobility (+3% each year since 2000). This is why we must rethink the design of the transport plan by immediately integrating the passenger dimension. Our work focuses on issues of line planning and timetabling in a passenger-oriented approach. First, we present a multi-objective model for line planning. Then, we present a model of timetabling incorporating passenger route choice. Then, we initiate a method to integrate these two models. Finally, we present an evaluation of our results thanks to reliability indicators from the literature and a macroscopic simulation of the timetables
44

Cozza, Andrea. "Railways EMC : Assessment of Infrastructure Impact." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2005. http://tel.archives-ouvertes.fr/tel-00533672.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
During the last three decades, electronic devices have conquered the railway domain, taking the place previously held by electromechanical devices, thanks to higher performances and lower costs. The price of this "revolution" is the fact that, in order to work properly and reliably, electronic systems must be fairly immune to the effect of external interferers, while, at the same time, they are not to electromagnetically pollute the environment they work in. These issues are dealt with by electromagnetic Compatibility (EMC) whereas several international EMC standardization committees work on the definition of tests and rules the manufacturers must comply with. In the European Union, the reference for EMC issues in the railway domain is set by the CENELEC standard EN 50121, which deals with several aspects of a generic railway system, from the power-supply infrastructure to rolling stocks and signalling circuits. The introduction of this standard in 1996 has had a strong impact on rolling stock manufacturers, who are now required to test their products for EMC compliancy. As opposed to the automotive domain, the testing of trains cannot be performed in standard facilities, such as anechoic chambers, so that they have to be tested on actual railway lines, typically on the customer's. Industrial experience has shown that results obtained in this way are usually site-dependent, something that is against the very idea of a standard. The aim of this work is to prove the importance of the infrastructure in radiated emission tests, showing that the test results are site-dependent, thus subject to misunderstandings and misinterpretations. To this end, the features of a generic railway system are briefly described, pointing out the great variability in actual configurations, together with the absence of standard solutions. Subsequently, the electromagnetic modelling of a railway system is introduced, dealing with both propagation and radiation phenomena; in particular, the main topic here addressed is the modelling of supply-lines, through a quasi-TEM approach. The finite conductivity of the soil is taken into account by means of a closed-form formulation, thus avoiding numerical methods, and overcoming the limitations of Carson's model. Moreover, special attention is paid to discontinuities that would increase the model complexity, proposing approximated descriptions supported by numerical results. Results obtained with this model are then validated through several measurement campaigns carried out on actual railway lines, proving the effectiveness of the approach here pursued. The model is then employed in order to prove that some criteria in the standard EN 50121, specifically introduced in order to avoid site-dependency, are not realistic, thus leaving this issue unresolved. To this end, numerical examples are considered, assessing the impact of the infrastructure by comparing results obtained with realistic site configurations and with the ideal one envisaged by the standard. These comparisons are at the base of a tentative procedure that would allow to avoid the misinterpretations that triggered this work. Unfortunately, this approach requires an accurate description of the test-site. Since this is hardly the case, an alternative experimental characterization of the site is proposed, based on magnetic field measurements. This approach, involving the solution of an inverse problem, is shown to be feasible through a numerical validation, though its practical utilization requires efficient optimization techniques.
45

Adous, Mourad. "Caractérisation électromagnétique des métariaux traités de génie civil dans la bande de fréquence 50 MHz - 13 GHz." Phd thesis, Université de Nantes, 2006. http://tel.archives-ouvertes.fr/tel-00110739.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de ce mémoire de thèse est l'identification et la mise au point de techniques permettant la mesure de la permittivité complexe des bétons dans le domaine de fréquence de fonctionnement des radar géophysiques. Deux techniques types ont été développées : une cellule en transition linge coaxiale/guide cylindrique (50 MHz – 1,6 GHz) et deux sondes en guide d'onde rectangulaire (bandes spectrales retenues : [4 – 7 GHz] et [7 – 13 GHz]).

Outre leurs caractères large bande et peu destructif, des simulations numériques réalisées à l'aide d'un logiciel électromagnétique 3D ont montré que ces techniques présentent les avantages d'avoir une grande profondeur de pénétration (supérieure à 6 cm), ainsi qu'une bonne sensibilité de mesure. Elles permettent alors de satisfaire le critère du Volume Élémentaire Représentatif (VER - taille minimale du matériau pour avoir des mesures représentatives).

L'étude théorique des sondes/cellule a nécessité l'analyse des problèmes direct et inverse. L'étude du problème direct permet de calculer le coefficient de réflexion en fonction des propriétés diélectriques du matériau à caractériser. Le calcul de la permittivité à partir du coefficient de réflexion mesuré définit le problème inverse. Après la conception des dispositifs de mesure, les logiciels de dépouillement des données et d'étalonnage ont été validés sur des matériaux étalons.

Enfin, Les mesures réalisées sur différents mélanges de béton ont montré que la nature des granulats joue un rôle prépondérant sur la variation de la permittivité, que la taille maximale des granulats influence la permittivité dans le domaine centimétrique, et que cette dernière varie linéairement en fonction de la compacité.
46

Teiller, Alexandre. "Aspects algorithmiques de l'optimisation « multistage »." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS471.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En optimisation combinatoire classique, étant donné une instance d’un problème, il est demandé de trouver une bonne solution réalisable. Cependant, dans de nombreux cas, les données peuvent évoluer au cours du temps et il est demandé de résoudre une séquence d’instances. Gupta et al. (2014) et Eisenstat et al. (2014) ont proposé un modèle multistage où étant donné un horizon de temps, l’entrée est une séquence d’instances (une pour chaque pas de temps), et l’objectif est de trouver une séquence de solutions (une pour chaque pas de temps) qui atteindrait un compromis entre la qualité des solutions à chaque pas de temps et la stabilité/similarité des solutions pour des pas de temps consécutifs. Dans le Chapitre 1, nous présenterons un aperçu des problèmes d’optimisation prenant en compte des données évolutives. Dans le Chapitre 2, le problème du sac-à-dos est traité dans un contexte offline. La contribution principale est un schéma d’approximation polynomiale (PTAS). Dans le Chapitre 3, le cadre multistage est étudié pour des problèmes multistage dans un contexte online. La contribution principale est l’introduction d’une structure pour ces problèmes avec des bornes presque serrées supérieures et inférieures sur les meilleurs ratios compétitifs de ces modèles. Enfin, dans le Chapitre 4 est présenté une application directe du cadre multistage dans un contexte musical, i.e l’orchestration assistée par ordinateur avec son cible. Nous avons présenté une analyse théorique du problème, en montrant sa NP-difficulté, des résultats d’approximation ainsi que des expérimentations
N a classical combinatorial optimization setting, given an instance of a problem one needs to find a good feasible solution. However, in many situations, the data may evolve over time and one has to solve a sequence of instances. Gupta et al. (2014) and Eisenstat et al. (2014) proposed a multistage model where given a time horizon the input is a sequence of instances (one for each time step), and the goal is to find a sequence of solutions (one for each time step) reaching a trade-off between the quality of the solutions in each time step and the stability/similarity of the solutions in consecutive time steps. In Chapter 1 of the thesis, we will present an overview of optimization problems tackling evolving data. Then, in Chapter 2, the multistage knapsack problem is addressed in the offline setting. The main contribution is a polynomial time approximation scheme (PTAS) for the problem in the offline setting. In Chapter 3, the multistage framework is studied for multistage problems in the online setting. The main contribution of this chapter was the introduction of a structure for these problems and almost tight upper and lower bounds on the best-possible competitive ratio for these models. Finally in chapter 4 is presented a direct application of the multistage framework in a musical context i.e. the target-based computed-assisted orchestration problem. Is presented a theoretical analysis of the problem, with NP-hardness and approximation results as well as some experimentations
47

Chantalat, Frédéric. "Méthodes level-set et de pénalisation pour l'optimisation et le contrôle d'écoulements." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13828/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail est consacré à la résolution e?cace de problèmes d’optimisation de forme ou de contrôle d’écoulements. Le couplage entre la pénalisation, permettant d’imposer des conditions aux bords sur maillage cartésien, et la méthode Level-Set, autorisant une représentation d’obstacles non-paramétrique et un suivi d’interface précis, est implémenté. En première partie, un problème inverse modèle, puis une optimisation géométrique en régime de Stokes, sont traités itérativement. Une attention particulière est portée à la solution des EDP près des zones pénalisées, et une montée en ordre est réalisée. Divers préconditionnements du gradient de forme sont aussi discutés a?n d’améliorer la convergence. La seconde partie est dédiée à la simulation directe d’écoulements au voisinage d’un actionneur dans le cadre d’un contrôle par jets pulsés exercé sur le corps d’Ahmed. L’étude locale montre l'in?uence de paramètres comme la fréquence de pulsation ou l’allure des pro?ls de vitesse en sortie sur la qualité de l’action. En guise de synthèse, une optimisation de la forme de l’actionneur du chapitre deux est pratiquée sous contraintes topologiques et dans un cadre simpli?é, à l’aide du couplage Level-Set/pénalisation préalablement introduit. L’objectif du problème inverse posé est de modi?er la géométrie intérieure du MEMS pour obtenir un pro?l de vitesses désiré en sortie de jet
This work deals with e?cient numerical solving of problems linked with shape optimization or ?ow control. The combination between penalization, that allows to impose boundary conditions while avoiding the use of body-?tted grids, and Level-Set methods, which enable a natural non-parametric representation of the geometries to be optimized, is implemented. In the ?rst part, a model inverse problem, and an application pertaining to optimal design in Stokes ?ows, are treated with an iterative algorithm. Special care is devoted to the solution of the PDE’s in the vicinity of the penalized regions. The discretization accuracy is increased. Various gradient preconditionings aiming at improving the convergence are also discussed. The second part is dedicated to direct numerical simulation of ?ows in the neighborhood of an actuator, in the context of active control by pulsed jets used on the Ahmed body. The local study emphasizes the in?uence of various parameters on the action quality, in particular the pulsation frequency, or the aspect of exit velocity pro?les. As a synthesis, shape optimization is performed on the actuator of chapter two, thanks to the previously introduced coupling between Level-Set and penalization. The framework is simpli?ed and topological constraints are imposed. The inverse problem we set intends to modify the MEMS inner geometry to retrieve a given jet pro?le on the exit section
48

Davidoiu, Valentina. "Approches non linéaire en imagerie de phase par rayons X dans le domaine de Fresnel." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00952854.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement de sources cohérentes de rayons X offre de nouvelles possibilités pour visualiser les structures biologiques à différentes échelles en exploitant la réfraction des rayons X. La cohérence des sources synchrotron de troisième génération permettent des implémentations efficaces des techniques de contraste de phase. Une des premières mesures des variations d'intensité dues au contraste de phase a été réalisée en 1995 à l'Installation Européenne de Rayonnement Synchrotron (ESRF). L'imagerie de phase couplée à l'acquisition tomographique permet une imagerie tridimensionnelle avec une sensibilité accrue par rapport à la tomographie standard basée sur absorption. Cette technique est particulièrement adaptée pour les échantillons faiblement absorbante ou bien présentent des faibles différences d'absorption. Le contraste de phase a ainsi une large gamme d'applications, allant de la science des matériaux, à la paléontologie, en passant par la médecine et par la biologie. Plusieurs techniques de contraste de phase aux rayons X ont été proposées au cours des dernières années. Dans la méthode de contraste de phase basée sur le phénomène de propagation l'intensité est mesurée pour différentes distances de propagation obtenues en déplaçant le détecteur. Bien que l'intensité diffractée puisse être acquise et enregistrée, les informations de phase du signal doivent être "récupérées" à partir seulement du module des données mesurées. L'estimation de la phase est donc un problème inverse non linéaire mal posé et une connaissance a priori est nécessaire pour obtenir des solutions stables. Si la plupart de méthodes d'estimation de phase reposent sur une linéarisation du problème inverse, les traitements non linéaires ont été très peu étudiés. Le but de ce travail était de proposer et d'évaluer des nouveaux algorithmes, prenant en particulier en compte la non linéarité du problème direct. Dans la première partie de ce travail, nous présentons un schéma de type Landweber non linéaire itératif pour résoudre le problème de la récupération de phase. Cette approche utilise l'expression analytique de la dérivée de Fréchet de la relation phase-intensité et de son adjoint. Nous étudions aussi l'effet des opérateurs de projection sur les propriétés de convergence de la méthode. Dans la deuxième partie de cette thèse, nous étudions la résolution du problème inverse linéaire avec un algorithme en coordonnées ondelettes basé sur un seuillage itératif. Par la suite, les deux algorithmes sont combinés et comparés avec une autre approche non linéaire basée sur une régularisation parcimonieuse et un algorithme de point fixe. Les performances des algorithmes sont évaluées sur des données simulées pour différents niveaux de bruit. Enfin, les algorithmes ont été adaptés pour traiter des données réelles acquises en tomographie de phase à l'ESRF à Grenoble.
49

Ion, Valentina. "Nonlinear approaches for phase retrieval in the Fresnel region for hard X-ray imaging." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-01015814.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The development of highly coherent X-ray sources offers new possibilities to image biological structures at different scales exploiting the refraction of X-rays. The coherence properties of the third-generation synchrotron radiation sources enables efficient implementations of phase contrast techniques. One of the first measurements of the intensity variations due to phase contrast has been reported in 1995 at the European Synchrotron Radiation Facility (ESRF). Phase imaging coupled to tomography acquisition allows threedimensional imaging with an increased sensitivity compared to absorption CT. This technique is particularly attractive to image samples with low absorption constituents. Phase contrast has many applications, ranging from material science, paleontology, bone research to medicine and biology. Several methods to achieve X-ray phase contrast have been proposed during the last years. In propagation based phase contrast, the measurements are made at different sample-to-detector distances. While the intensity data can be acquired and recorded, the phase information of the signal has to be "retrieved" from the modulus data only. Phase retrieval is thus an illposed nonlinear problem and regularization techniques including a priori knowledge are necessary to obtain stable solutions. Several phase recovery methods have been developed in recent years. These approaches generally formulate the phase retrieval problem as a linear one. Nonlinear treatments have not been much investigated. The main purpose of this work was to propose and evaluate new algorithms, in particularly taking into account the nonlinearity of the direct problem. In the first part of this work, we present a Landweber type nonlinear iterative scheme to solve the propagation based phase retrieval problem. This approach uses the analytic expression of the Fréchet derivative of the phase-intensity relationship and of its adjoint, which are presented in detail. We also study the effect of projection operators on the convergence properties of the method. In the second part of this thesis, we investigate the resolution of the linear inverse problem with an iterative thresholding algorithm in wavelet coordinates. In the following, the two former algorithms are combined and compared with another nonlinear approach based on sparsity regularization and a fixed point algorithm. The performance of theses algorithms are evaluated on simulated data for different noise levels. Finally the algorithms were adapted to process real data sets obtained in phase CT at the ESRF at Grenoble.
50

Ibn, Taarit Kaouther. "Contribution à l'identification des systèmes à retards et d'une classe de systèmes hybrides." Phd thesis, Ecole Centrale de Lille, 2010. http://tel.archives-ouvertes.fr/tel-00587336.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse concernent le problème d'identification des systèmes à retards et d'une certaine classe de systèmes hybrides appelés systèmes "impulsifs".Dans la première partie, un algorithme d'identification rapide a été proposé pour les systèmes à entrée retardée. Il est basé sur une méthode d'estimation distributionnelle non asymptotique initiée pour les systèmes sans retard. Une telle technique mène à des schémas de réalisation simples, impliquant des intégrateurs, des multiplicateurs et des fonctions continues par morceaux polynomiales ou exponentielles. Dans le but de généraliser cette approche pour les systèmes à retard, trois exemples d'applications ont été étudiées. La deuxième partie a été consacrée à l'identification des systèmes impulsifs. En se basant sur le formalisme des distributions, une procédure d'identification a été élaborée afin d'annihiler les termes singuliers des équations différentielles représentant ces systèmes. Par conséquent, une estimation en ligne des instants de commutations et des paramètres inconnus est prévue indépendamment des lois de commutations. Des simulations numériques d'un pendule simple soumis à des frottements secs illustrent notre méthodologie

До бібліографії